Está en la página 1de 700

Cuerpo de Profesores de Enseñanza Secundaria

Física
y Química
Temario
Volumen II
Física II

Jesús Ruiz Martínez ESTA ESPECIAL


IDAD CONTIENE

Servicio
Exclusivo
Gratuito
&XHUSRGH3URIHVRUHV
GH(QVHxDQ]D6HFXQGDULD

)tVLFD\4XtPLFD
  
 
  
   
#
  $ ! % !   &

 
 

     
 

 
 
 


 
     
  


ZZZRSRVLFLRQVHFXQGDULDFRP

 

      

    
 
    


&'  
  
  
$  

 
      !!   
 
  
 
"           
   
     

# 
$   
  
  
 

ZZZHGXIRUPDRQOLQHFRPSRUWDOSURIHVRUHV

! "
   


% &'
   
 (
  

    

% )     (

 

% &'
 
   (
  
 
  

&XHUSRGH3URIHVRUHVGH(QVHxDQ]D6HFXQGDULD

)tVLFD
\4XtPLFD

7HPDULR
9ROXPHQ,,
)tVLFD,,

&RRUGLQDFLyQ,VDEHO*DUFtD/XFDV
75,9,80&HQWURGH2SRVLFLRQHVGH0XUFLD
-HV~V5XL]0DUWtQH]
'RFWRUHQ&LHQFLDV)tVLFDV
3URIHVRUWLWXODUGHOD8QLYHUVLGDGGH0XUFLD

‹(GLWRULDO0$'6/
‹-HV~V5XL]0DUWtQH]
6HJXQGDHGLFLyQMXOLR
'HSyVLWR/HJDO6( ,,  SiJLQDV
'HUHFKRVGHHGLFLyQUHVHUYDGRVDIDYRUGH(',725,$/0$'6/
3URKLELGDODUHSURGXFFLyQWRWDORSDUFLDOVLQSHUPLVRHVFULWRGHOHGLWRU
,035(62(1(63$f$
'LVHxR3RUWDGD(',725,$/0$'6/
(GLWD(',725,$/0$'6/
3OJ0HUNDF%1DYH$/&$/É'(*8$'$Ì5$ 6HYLOOD 
7HOI
:(%ZZZPDGHV
,6%112
,6%118
,6%1REUDFRPSOHWD665-09381
,6%1REUDFRPSOHWD665-0938-0
3UHVHQWDFLyQ
(OOLEURTXHWLHQHHQODVPDQRVFRUUHVSRQGHDOWHPDULRGH2SRVLFLRQHVSDUDHO&XHUSRGH3UR
IHVRUHVGH(QVHxDQ]D6HFXQGDULDGHODHVSHFLDOLGDGGH)tVLFD\4XtPLFDTXH(GLWRULDO0$'SRQHD
GLVSRVLFLyQGHWRGRVDTXpOORVTXHDVSLUHQDFRQVHJXLUXQDH[FHOHQWHSUHSDUDFLyQTXHJDUDQWLFHHQOD
PHGLGDGHORSRVLEOHVXp[LWRHQODVRSRVLFLRQHV

$ODKRUDGHHVFULELUXQWHPDULRGHRSRVLFLRQHVGHJUDQFDOLGDGHOFULWHULREiVLFRKDGHVHUUH
GDFWDUFDGDWHPDFRQOD¿QDOLGDGGHTXHHORSRVLWRUQRWHQJDQHFHVLGDGGHDFXGLUDQLQJXQDRWUDREUD
GHFRQVXOWDHVGHFLUTXHHQFXHQWUHHQHOSURSLRWHPDULRDEVROXWDPHQWHWRGRHOPDWHULDOTXHQHFHVLWD
/DSUHPXUDFRQTXHFDVLVLHPSUHVHHVWXGLDXQDRSRVLFLyQKDFHQHFHVDULRTXHWRGDODPDWHULDHVWp
SUHVHQWDGDGHIRUPDFODUDDOPLVPRWLHPSRTXHVLVWHPiWLFD\ULJXURVDPHQWHH[SXHVWDFRQMXJDQGR
HVWRFRQXQQLYHOGHFRPSUHQVLyQTXHQRKDJDTXHHORSRVLWRUGHEDUHDOL]DUXQGREOHHVIXHU]RHQWHQ
GHUHOWHPD\HQWHQGHUDOUHGDFWRUGHOWHPD

'LVSRQHUGHXQWHPDULRFRQWUDVWDGR\DFWXDOL]DGRRWRUJDDOIXWXURSURIHVRUODJDUDQWtDGHFRQ
WDUFRQXQPDWHULDOTXHOHDKRUUHP~OWLSOHVHVIXHU]RV\TXHOHDVHJXUHXQDH[FHOHQWHSUHSDUDFLyQ

1XHVWUDH[SHULHQFLDGXUDQWHEDVWDQWHVDxRVHQHOFDPSRGHODSUHSDUDFLyQGHRSRVLWRUHVQRVKD
SHUPLWLGRFRPSUREDUSRUKDEHUWHQLGRDOXPQRVGHWRGDVODV&RPXQLGDGHV$XWyQRPDVTXHSRUORJH
QHUDODSUR[LPDGDPHQWHXQDFXDUWDSDUWHGHORVWHPDVVRQ³QXHYRV´ HQVXFRQWHQLGR WDQWRSDUDORV
UHFLpQOLFHQFLDGRVFRPRSDUDPXFKRVGRFWRUDGRVDOQRKDEHUHVWXGLDGRORVDVSHFWRVIXQGDPHQWDOHV
GHpVWRVGXUDQWHVXIRUPDFLyQFRPRDOXPQRVHQODVGLIHUHQWHVXQLYHUVLGDGHV3RUHVRHVWHWHPDULRLQ
FRUSRUDQRVyORWRGRHOPDWHULDO \GHIRUPDDEXQGDQWH QHFHVDULRSDUDODFRPSUHQVLyQGHOWHPDVLQR
WDPELpQODGH¿QLFLyQFODUDGHFXDOTXLHUFRQFHSWRUHOHYDQWHTXHDSDUH]FDDVtFRPRODVDFODUDFLRQHV
FXDQGRVHDQSHUWLQHQWHV\WDPELpQPXFKRVRWURVGDWRVTXHSRVLELOLWHQODFRPSUHQVLyQ(VSUHIHULEOH
TXHORVGDWRV\ODVH[SOLFDFLRQHVVREUHDEXQGHQDTXHVHDQGHPDVLDGRHVFDVRVHORSRVLWRUVLHPSUH
SRGUi³UHFRUWDU´HOWHPDRVLQWHWL]DUORTXHHVWLPHPiVUHOHYDQWH

/RVUHVXOWDGRVREWHQLGRVGXUDQWHEDVWDQWHVDxRVSRUPXFKRVGHQXHVWURVDOXPQRVKDQVLGRH[
WUDRUGLQDULRV\KDQORJUDGRHQGLIHUHQWHVFRQYRFDWRULDV\HQWULEXQDOHVGHRSRVLFLyQYDULRVQ~PHURV
XQR\PXFKtVLPRVDSUREDGRVFRQSOD]D(VWRVLHPSUHQRVKDHVWLPXODGRDVHJXLUDFWXDOL]DQGR\³SX
OLHQGR´ORVWHPDVDVtFRPRDQLPDQGRDORVRSRVLWRUHVDFRQVHJXLUODSUHSDUDFLyQGHODPD\RUFDOLGDG
SRVLEOHFRQODFRQ¿DQ]DHQTXHVXHVIXHU]R¿QDOPHQWHWHQGUiHOUHVXOWDGRDQKHODGR

 (ODXWRU

 75,9,80&HQWURGH2SRVLFLRQHVGH0XUFLD
Índice
Tema 19. Naturaleza eléctrica de la materia. Electrostática. Discontinuidad y
conservación de la carga. Carácter conservativo del campo electrostático. Estudio
energético de la interacción eléctrica ...................................................................... 11

Tema 20. Corriente eléctrica. Circuitos de corriente continua. Conservación de la


energía: ley de Ohm. Utilización de polímetros..................................................... 53

Tema 21. Campo magnético. Carácter no conservativo del campo magnético. Genera-
ción de campos magnéticos y efectos sobre cargas en movimiento. Aplicación a dispo-
sitivos tecnológicos..................................................................................................... 81

Tema 22. Campos eléctricos y magnéticos dependientes del tiempo. Leyes de


Maxwell. Inducción electromagnética. Inducción mutua. Autoinducción ............. 117

Tema 23. Generación de corrientes alternas. Generadores y motores. Transfor-


madores y transporte de la corriente eléctrica. Influencia de la electricidad en el
cambio de las condiciones de vida.......................................................................... 143

Tema 24. Elementos de importancia en los circuitos eléctricos: resistencias, bo-


binas y condensadores. Su papel en los circuitos de corriente continua y alterna.
Energía almacenada o transformada........................................................................ 167

Tema 25. Ondas electromagnéticas. Origen y propiedades. Energía y cantidad de


movimiento en las ondas electromagnéticas. Espectros electromagnéticos. Apli-
caciones. Medidas de protección cuando ha lugar ................................................. 205

Tema 26. Óptica geométrica. Principio de Fermat. Formación de imágenes en es-


pejos y lentes. Análisis y construcción de los instrumentos ópticos. El ojo y los
defectos de la visión ................................................................................................ 235

Tema 27. Óptica física. Propiedades de las ondas luminosas. Observación en el


laboratorio. Teoría física del color. Espectrofotometría ......................................... 277
Tema 28. Desarrollo histórico de la unificación de la electricidad, el magnetismo
y la óptica ................................................................................................................. 325

Tema 29. Limitaciones de la física clásica. Mecánica relativista. Postulados de la


relatividad especial. Algunas implicaciones de la física clásica .............................. 355

Tema 30. Teoría cuántica. Problemas precursores. Límites de la física clásica para
resolverlos. Fenómenos que corroboran la teoría cuántica ...................................... 395

Tema 31. Controversia sobre la naturaleza de la luz. Dualidad onda-corpúsculo.


Experiencias que la ponen de manifiesto. Interacción radiación-materia. Relaciones
de incertidumbre ....................................................................................................... 441

Tema 32. Sistemas materiales. Mezclas, sustancias puras y elementos. Transforma-


ciones físicas y químicas. Procedimientos de separación de los componentes de una
mezcla y de un compuesto. Lenguaje químico: normas IUPAC............................... 477

Tema 33. Teoría atómica de Dalton. Principio de conservación de la masa. Leyes


ponderales y volumétricas. Hipótesis de Avogadro. Estequiometría..................... 501

Tema 34. Modelos atómicos. Evolución histórica y justificaciones de cada modi-


ficación ..................................................................................................................... 519

Tema 35. El núcleo atómico. Modelos. Energía de enlace. Radiactividad natural.


Radiactividad artificial. Aplicaciones de la radiactividad en diferentes campos. Me-
didas de seguridad .................................................................................................... 553

Tema 36. Fuerzas fundamentales de la naturaleza: gravitatoria, electromagnética,


fuerte y débil. Partículas implicadas. Estado actual de las teorías de unificación.... 589

Tema 37. Energía nuclear. Principio de conservación masa-energía. Fisión y fusión


nuclear. Su utilización. Situación actual. Problemática de los residuos nucleares........ 607

Tema 38. Partículas elementales. Estado actual de su estudio. Partículas funda-


mentales constitutivas del átomo. Del microcosmos al macrocosmos. Teorías sobre
la formación y evolución del universo..................................................................... 637

Tema 39. Sistema solar. Fenómenos de astronomía de posición. Observación y


medida en astrofísica. Evolución estelar. Estructura y composición del universo ... 661
TEMA

19
Naturaleza eléctrica de la
materia. Electrostática.
Discontinuidad y conservación
de la carga. Carácter
conservativo del campo
electrostático. Estudio energético
de la interacción eléctrica

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. INTRODUCCIÓN

2. NATURALEZA ELÉCTRICA DE LA MATERIA


2.1. Antecedentes históricos
2.2. Carga eléctrica
2.3. Conservación de la carga eléctrica
2.4. Cuantificación de la carga eléctrica

3. FUERZA ENTRE CARGAS ELÉCTRICAS


3.1. Ley de Coulomb
3.2. Principio de superposición
3.3. Distribución continua de carga

4. CAMPO ELÉCTRICO
4.1. Campo eléctrico producido por una distribución discreta de carga
4.2. Campo eléctrico producido por una distribución continua de carga
4.3. Líneas de campo eléctrico
4.4. Dipolo eléctrico

5. LEY DE GAUSS
5.1. Flujo eléctrico
5.2. Ley de Gauss para el campo eléctrico
5.3. Aplicaciones de la ley de Gauss
5.3.1. Campo próximo a una distribución lineal de carga
5.3.2. Campo próximo a una distribución de carga plana y extensa
5.3.3. Campo creado por una corteza esférica
5.3.4. Campo creado por una esfera uniformemente cargada
5.3.5. Propiedades de los conductores
5.4. Ley de Gauss en forma diferencial

6. CARÁCTER CONSERVATIVO DEL CAMPO ELÉCTRICO

7. ESTUDIO ENERGÉTICO DEL CAMPO ELÉCTRICO


7.1. Energía potencial eléctrica
7.1.1. Energía potencial de una partícula en el seno de un campo creado
por una distribución discreta de cargas
7.1.2. Energía potencial de un sistema de cargas
7.2. Potencial eléctrico
7.2.1. Potencial creado por una distribución discreta de carga
7.2.2. Potencial creado por una distribución continua de carga
7.2.3. Diferencia de potencial
7.2.4. Relación entre E y V
7.2.5. Ecuaciones de Laplace y Poisson
7.2.6. Superficies equipotenciales
7.3. Densidad de energía en un campo electrostático

BIBLIOGRAFÍA

12 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

1. INTRODUCCIÓN
En este tema vamos a presentar una nueva propiedad física de la materia, la carga eléctrica. Al
igual que la masa es la fuente de la interacción gravitatoria, la carga eléctrica es la fuente de una nueva
interacción, denominada eléctrica. Pero veremos que, a diferencia de la masa, la carga puede ser positi-
va o negativa, por lo que la fuerza entre partículas cargadas puede ser atractiva o repulsiva, dependiendo
de que la interacción tenga lugar entre cargas de signo opuesto o del mismo signo.
La fuerza eléctrica, unificada con la fuerza magnética y la denominada fuerza nuclear débil, jun-
to con la fuerza gravitatoria y la nuclear fuerte es una de las fuerzas fundamentales de la naturaleza.
Mientras que a escala astronómica la fuerza dominante es la gravitatoria, y a escala microscópica o
atómica son las fuerzas débil y fuerte, las fuerzas electromagnéticas son dominantes en el rango inter-
medio. Es decir, que en el mundo macroscópico la mayoría de las fuerzas, salvo la gravitatoria, son de
origen eléctrico o magnético.
Con el objeto de profundizar en el conocimiento de la fuerza eléctrica, comenzaremos su estudio
describiendo la interacción entre cuerpos estacionarios que tienen una carga neta que no varía con el tiem-
po; es decir, por el estudio de la fuerza electrostática entre partículas cargadas. A continuación, se estudia-
rán algunas características de la fuerza eléctrica, así como los aspectos relevantes de esta interacción, tales
como el energético.

2. NATURALEZA ELÉCTRICA DE LA MATERIA


En este apartado vamos a ver los antecedentes históricos de la electricidad así como las primeras
explicaciones surgidas para interpretar los fenómenos observados. En segundo lugar veremos lo que
entendemos por carga eléctrica y algunos aspectos importantes de esta característica de la materia: la
cuantización y la ley de conservación de la carga eléctrica.

2.1. Antecedentes históricos


Las primeras observaciones de los fenómenos de atracción eléctrica tuvieron lugar en la época
de la antigua Grecia. Tales de Mileto (640-546 a. C.) observó que al frotar ámbar con seda se produ-
cían chispas y el ámbar adquiría la propiedad de atraer pequeñas porciones de materia como trozos de
paja, plumas o partículas de pelusa. Precisamente, de la palabra griega elektron, que significa ámbar,
viene el nombre de electricidad. También se hace mención en los escritos de Tales de Mileto a la fuer-
za de atracción entre dos trozos de una roca natural, llamada piedra imán, que se encontró en una re-
gión de la Grecia Jónica denominada Magnesia, de cuyo nombre deriva la palabra magnético.
Ahora bien, aunque el conocimiento de los fenómenos eléctricos y magnéticos se remontan a la
antigua Grecia, el interés de los griegos era más filosófico que práctico por lo que tuvieron que trans-
currir más de 22 siglos hasta que estos fenómenos fueron estudiados científicamente.
La teoría moderna de la electricidad tuvo sus comienzos en el siglo XVI con los trabajos realizados por
el físico inglés William Gilbert (1540-1603). Gilbert llevó a cabo los primeros experimentos sistemáticos
sobre los fenómenos eléctricos y magnéticos, y publicó sus resultados, fruto de un trabajo de 17 años de
investigación, en un libro titulado De Magnete. Aunque este libro estaba dedicado fundamentalmente al
estudio de los fenómenos magnéticos, el capítulo dedicado a los fenómenos eléctricos puede considerarse
como el primer tratado importante sobre la electricidad.
Para estudiar los fenómenos eléctricos, Gilbert ideó el primer instrumento eléctrico denominado
electroscopio. Como se muestra en la figura (fig. 1), consiste en un recipiente en cuyo interior se en-
cuentran dos hojas metálicas (normalmente de oro) que pueden moverse. Por medio de un conductor se
conecta estas hojas a una bola metálica colocada sobre la parte exterior del dispositivo y aislada de éste.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 13


Volumen II. Física II

Cuando se acerca un objeto cargado a la esfera las hojas metálicas se separan. Gilbert observó que había
muchas sustancias, aparte del ámbar, que, cuando se frotaban con un paño producían el mismo efecto
en el electroscopio. No obstante, un tipo de sustancia como los metales se resistía a este proceso de elec-
trificación. Cien años más tarde se comprobó que este tipo de sustancias son lo que llamamos sustancias
conductoras, en las que la carga eléctrica puede fluir libremente. Por esto, al frotar una sustancia con-
ductora la electricidad se escapa a través de la mano.

Conductor
Metal
Aislante

Cámara de vidrio

Hojas metálicas Aislante

Figura 1. Electroscopio: aparato ideado por Gilbert


para estudiar los fenómenos eléctricos.

Otto von Guericke fue el primero en encontrar que un objeto pequeño que era atraído hacia un
cuerpo electrificado, después de entrar en contacto con él, era repelido por el objeto electrificado.
Después, el objeto podía atraer a otros objetos sin electrificar. Aunque las experiencias de Von Gue-
ricke eran en realidad experiencias sobre la conducción de la electricidad, fue Stephen Gray quien, a
principios del siglo XVIII, demostró experimentalmente que la electricidad podía transportarse de un
lugar a otro mediante hilos metálicos o hilos mojados. No obstante, esta propiedad de transporte de la
electricidad se reducía a un tipo de sustancia. Gray estableció así la diferencia entre sustancias con-
ductoras y aislantes, atendiendo a su capacidad de transmitir la electricidad.
En esta misma época, Charles François de Cisternay du Fay demostró que incluso las sustancias
conductoras podían electrificarse por frotamiento o fricción siempre que se colocasen en un soporte ais-
lante. Por otra parte, Du Fay descubrió que la electrificación producida en los cuerpos por frotación era
de dos tipos. Esta conclusión fue el resultado de una experiencia sencilla. En primer lugar electrificó
una lámina de oro de un electroscopio tocándola con una varilla de vidrio frotada con seda. Acercando
después la varilla a la lámina se veía que ambas se repelían. Pero Du Fay observó que si se acercaba a la
lámina de oro una varilla de ámbar frotada con lana, en contra de lo esperado, estas se atraían. De forma
análoga, una lámina de oro tocada en primer lugar por una varilla de ámbar era repelida por esta varilla
y atraída por una varilla de vidrio frotada con seda. Du Fay denominó al tipo de electricidad de la varilla
como vítrea y al de la resina como resinosa. A partir de este hecho desarrolló una teoría según la cual to-
dos los cuerpos tienen cantidades iguales de dos fluidos sin peso: la electricidad vítrea y la resinosa.
Estos fluidos eran tales que se autorrepelen pero se atraen mutuamente entre ellos, de manera que sus
efectos se neutralizan en los cuerpos normales.
Esta teoría de los dos fluidos fue sustituida por una teoría de un solo fluido propuesta indepen-
dientemente por William Watson y Benjamin Franklin. Según esta teoría la electricidad vítrea es el
exceso de una cierta cantidad normal de un solo fluido, mientras que la electricidad resinosa era una
deficiencia de este fluido. Por esta razón, Benjamin Franklin propuso denominar positiva a la electri-
cidad vítrea y negativa a la electricidad resinosa.

14 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

2.2. Carga eléctrica


Lo que en las primeras teorías sobre la electricidad era un exceso de fluido característico es lo
que hoy denominamos carga eléctrica.
La naturaleza real de la carga eléctrica de la materia sólo fue revelada con el entendimiento de la
estructura atómica de la materia. Toda la materia está compuesta de átomos, que a su vez están com-
puestos de un núcleo y de electrones. Los electrones y los núcleos están caracterizados por una nueva
propiedad que llamamos carga eléctrica. Los átomos son eléctricamente neutros, es decir, no tienen
carga eléctrica neta. Razón esta por la que las fuerzas eléctricas entre ellos es pequeña. El núcleo está
formado por neutrones, que son eléctricamente neutros, y protones, cargados positivamente, situados
dentro de un radio del orden de 10–14 m. Los electrones, cargados negativamente, orbitan alrededor
del núcleo a una distancia relativamente grande del orden de 10–10 m. La carga del electrón es igual en
magnitud, pero de signo contrario, a la carga del protón, y la neutralidad del átomo se basa en la igual-
dad del número de protones y electrones.
Los electrones más cercanos al núcleo están fuertemente ligados por las fuerzas de atracción de las
cargas positivas, mientras que los electrones más externos son atraídos más débilmente y por tanto pue-
de ser separados del átomo. Si un átomo pierde un electrón, pierde una carga negativa y se convierte en
un ion positivo; por el contrario, si un átomo gana un electrón, adquiere una carga negativa y se convier-
te en un ion negativo. En aquellas sustancias en las que es muy fácil arrancar de los átomos los electro-
nes más externos, estos se comportan como si fuesen casi libres y pueden moverse por el material casi
sin dificultad. Estos materiales, como los metales, son buenos conductores, aunque algunos como el co-
bre, la plata o el aluminio, son mejores conductores que otros. Los sólidos en los que los electrones no
pueden viajar fácilmente a través de la sustancia se denominan aislantes. Entre este tipo de sustancia se
encuentran los elementos no metálicos y sustancias como la goma, el vidrio y los plásticos.
Esta teoría permite explicar de forma cualitativa los fenómenos electrostáticos observados y comen-
tados anteriormente. En algunas sustancias, el simple contacto superficial con otras permite arrancar los
electrones más débilmente unidos a los núcleos de los átomos superficiales y obtener una superficie car-
gada positivamente mientras que la otra sustancia queda cargada negativamente en la misma cantidad. Se
produce así la electrificación por contacto o frotamiento. Si ahora acercamos esta sustancia cargada a un
cuerpo neutro vemos que este se ve atraído. Esta atracción es debida a que el objeto cargado induce una
separación de carga en el objeto neutro: las partículas con carga de signo opuesto al del objeto cargado se
ven atraídas hacia la parte del objeto neutro más cercana al cuerpo cargado, y las del mismo signo se ven
repelidas hacia la parte del objeto neutro más alejada del objeto cargado. Este movimiento relativo de par-
tículas cargadas en el cuerpo neutro, aunque su número sea pequeño, puede ser suficiente para que se pro-
duzca una separación de carga tal que la fuerza atractiva entre el cuerpo cargado y la parte más próxima
del cuerpo neutro sea más intensa que la fuerza repulsiva entre el cuerpo cargado y la parte más alejada del
cuerpo neutro. El resultado es que el cuerpo neutro se ve atraído por el cuerpo cargado. Cuando los cuer-
pos se tocan las cargas se mueven a través de ellos con el fin de neutralizar la carga superficial en contacto,
y los cuerpos se separan. En la figura 2 se muestra una varilla de vidrio cargada positivamente por frota-
miento que se acerca a una esfera metálica neutra. Los electrones de la esfera se concentran en la parte más
cercana a la varilla, dejando en la zona más alejada una región de iones positivos. Cuando la varilla y la es-
fera se tocan, parte de los electrones de la esfera pasan a la varilla de manera que la esfera se carga positi-
vamente y en consecuencia es repelida por la varilla.

+
_ ++ +
_ _ ++ + +
__ _ + +
+
_ + +
+ +
+ +
++ ++
+ ++
+ + +
Figura 2. Efectos de atracción y
repulsión de una varilla cargada
sobre una esfera metálica.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 15


Volumen II. Física II

Este fenómeno de inducción de carga puede utilizarse para cargar objetos conductores inicialmen-
te neutros. Consideremos por ejemplo dos esferas neutras colocadas sobre sendos apoyos aislantes y
que ponemos en contacto entre sí (fig. 3). Si acercamos una varilla cargada negativamente a una de las
esferas, los electrones móviles se alejarán hacia la parte más alejada de la segunda esfera, dejando en la
primera la misma carga pero de signo positivo. Si separamos ahora las dos esferas, estando la varilla to-
davía cerca de una de las esferas, tendremos dos esferas cargadas en la misma cantidad, una negativa y
la otra positivamente. Decimos que las esferas han sido cargadas por inducción. Obsérvese que para
que se pueda producir la carga por inducción es necesario que los electrones tengan gran movilidad en
dicha sustancia, condición que sólo se da en los conductores.

_ +
_ + _
_
_ + __
+ _

_
_ + _ _ _ +
_ + + +
_
_ + __ _ _ + +
+ _ _ _ + +

Figura 3. Proceso de inducción de carga


sobre una esfera conductora.

2.3. Conservación de la carga eléctrica


En los experimentos como el descrito anteriormente de carga por inducción de dos esferas neutras,
una aparición de carga negativa siempre va acompañada con la aparición de otra carga positiva en la
misma cantidad. Es decir, que la carga eléctrica se conserva: la carga neta es la misma antes y después
de cualquier interacción. O dicho de otra manera, en todo proceso se conserva la carga eléctrica. Este
hecho constituye una ley fundamental de la naturaleza: la ley de la conservación de la carga.
Una primera demostración de esta ley puede llevarse a cabo mediante un aparato, como el
mostrado en la figura 4, denominado cubo de hielo de Faraday, por ser un recipiente de este tipo el
utilizado por Faraday originalmente al ser el recipiente metálico más adecuado de que disponía. El
aparato consiste en un recipiente metálico hueco con una pequeña abertura y conectado mediante
un hilo metálico a un electroscopio. Con ayuda de un mango aislante que sujeta un trozo de fieltro
se frota una varilla de ebonita. Si introducimos los dos objetos en el interior del recipiente metálico
se observa que la lámina de electroscopio permanece inmóvil. Sin embargo, si se retira cualquiera
de los objetos se observa que la lámina del electroscopio se separa en la misma cantidad, si bien
puede comprobarse que la carga en un caso es de signo contrario al otro. El resultado demuestra que
dos cuerpos frotados considerados conjuntamente no tienen carga eléctrica, pero por separado tie-
nen cargas iguales y de signo opuesto.

16 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

Figura 4. Experimento del cubo de Faraday,


que permite demostrar la ley de conservación de la carga eléctrica.

En algunas interacciones entre partículas elementales puede ocurrir que los electrones se creen o
se aniquilen. Por ejemplo, un fotón de alta energía (rayo gamma) puede dar lugar a la creación de un
electrón, pero a su vez se crea una partícula de carga positiva denominada positrón, de manera que la
carga neta antes y después es la misma. A este suceso se le denomina creación o producción de pares.
La igualdad de masa y de carga entre el electrón y el positrón son la manifestación de una evidente si-
metría en la naturaleza, la dualidad partícula-antipartícula. En todos los procesos se producen o des-
truyen cantidades iguales de carga positiva y negativa de manera que la carga del universo permanece
constante.
Una cuestión a la que de momento no podemos responder con toda seguridad es si la ley de con-
servación de la carga eléctrica es una consecuencia de otra ley más amplia de conservación que rigie-
ra la creación y aniquilación de partículas, o si por el contrario es un requerimiento previo y las demás
leyes han de caer dentro de sus límites. Pero lo que sí está claro es que la no conservación de la carga
sería incompatible con la teoría actual del electromagnetismo. En consecuencia, podemos establecer
la ley de conservación de la carga eléctrica como una ley empírica que ha sido confirmada por to-
dos los experimentos realizados hasta ahora:
La carga eléctrica total de un sistema aislado, entendiendo como tal la suma algebraica
de la carga positiva y negativa presente en un instante dado, no varía nunca.

2.4. Cuantificación de la carga eléctrica


Un gran número de experimentos han mostrado que la carga eléctrica solamente aparece en la
naturaleza en cantidades que son múltiplos de una unidad fundamental de carga. Esta carga que re-
presentamos por e es igual a la carga de electrón. Es decir, que la carga eléctrica está cuantizada.
La explicación de por qué todas las partículas cargadas tienen una carga eléctrica múltiplo de la
carga del electrón sólo se puede obtener de las modernas teorías de físicas de partículas. Según estas
teorías las partículas elementales están formadas por entes denominados quarks que transportan car-
ga de ±e/3 ó ± 2e/3. Los quarks no pueden observarse de forma aislada, sino que sólo es posible de-
tectarlos en combinaciones que dan lugar a una carga neta cero o de ±Ne.
No obstante, el efecto de la cuantización de la carga eléctrica es irrelevante desde el punto de vista
del electromagnetismo. Esto es debido a que si bien toda carga q presente en la naturaleza puede escri-
birse como q = Ne, N es siempre un número tan grande que la cuantización de la carga es inapreciable.
Por ejemplo, al frotar una barra de plástico con un paño el número de electrones que se transfiere es del
orden de 1010. Por lo tanto, desde el punto de vista del electromagnetismo, consideraremos que una car-
ga q puede tener un valor cualquiera.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 17


Volumen II. Física II

3. FUERZA ENTRE CARGAS ELÉCTRICAS


Los fenómenos eléctricos y magnéticos son los efectos de una misma propiedad de la materia
que denominamos carga eléctrica. Estos fenómenos están tan íntimamente relacionados que para re-
ferirnos a ellos utilizamos de forma genérica el término electromagnético. No obstante, a pesar de
esta interrelación entre ambos tipos de fenómenos, es posible separar la electricidad del magnetismo
si nos limitamos al estudio de aquellos fenómenos en que intervienen cargas eléctricas en equilibrio
estable. La electrostática es precisamente la parte del electromagnetismo que estudia estos fenóme-
nos, y a la que dedicaremos los siguientes apartados, comenzando por profundizar en el conocimiento
de la fuerza eléctrica entre partículas cargadas en equilibrio (fuerza electrostática).

3.1. Ley de Coulomb


A finales del siglo XVIII se conocían las propiedades macroscópicas de la fuerza eléctrica y las
propiedades eléctricas de los materiales usados más comúnmente. Era evidente que cualquier progre-
so en el campo de la electricidad dependía de la determinación cuantitativa de la fuerza eléctrica entre
cargas eléctricas.
La ley de la fuerza existente entre cargas eléctricas fue descubierta por Joseph Priestley en 1766,
quien en la Historia y estado presente de la electricidad, con experimentos originales escribía en re-
lación a un experimento planteado:
A partir de aquí podemos inferir de este experimento que la atracción de la electricidad
está sometida a las mismas leyes que las de la gravitación y que varía, de acuerdo con ello, en
razón a los inversos de los cuadrados de las distancias.
No obstante, fue Charles Agustin de Coulomb (1736-1806) el pri- Soporte de
mero en someterla a ensayos experimentales directos. Para ello, utilizó suspensión
una adaptación del péndulo de torsión que denominó balanza de torsión
(fig. 5). La balanza de torsión se suspende de un botón ajustable, que pue- Fibra
de girar y cuya posición puede leerse sobre una escala graduada, median-
te un hilo delgado de bronce. La parte transversal de la balanza (brazo de
la balanza) se construye con un material aislante ligero, como la goma
laca endurecida utilizada por Coulomb. En un extremo de la balanza se
Esferas
coloca una esfera pequeña de médula de saúco, que pesa poco, recubierta cargadas
de una fina capa de oro. En el otro extremo se coloca un disco de cartón
de contrapeso y que sirve también para amortiguar las oscilaciones que se
producen en el experimento. Todo el conjunto se colocaba en una cámara
de vidrio, con el objeto de eliminar las corrientes de aire. Acercando una Figura 5. Balanza de
esfera cargada a la esfera de la balanza, ésta giraba atraída o repelida por torsión utilizada por
aquella, midiéndose en cada caso el ángulo girado por el brazo de la ba- Coulomb para determinar
lanza. De esta manera podía determinarse la fuerza de torsión ejercida la fuerza eléctrica entre
por el hilo metálico, que debía ser igual a la fuerza eléctrica entre las esfe- esferas cargadas.
ras. Mediante el fenómeno de inducción, Coulomb podía dotar a ambas
esferas de una misma cantidad de carga eléctrica. Si la distancia entre las esferas era mucho mayor que el
tamaño de las mismas, de forma aproximada se podían considerar a las esferas como cargas puntuales. De
sus mediciones Coulomb demostró que la fuerza entre las cargas era inversamente proporcional al cuadra-
do de la distancia entre ellas, y proporcional a la carga eléctrica de cada una de las esferas. Estos resultados
se pueden resumir en la ley que llamamos de Coulomb, que establece que:
La fuerza ejercida por una carga puntual sobre otra está dirigida a lo largo de la línea
que las une. La fuerza es inversamente proporcional al cuadrado de la distancia entre las car-
gas y es proporcional al producto de ambas cargas. La fuerza es repulsiva si las cargas tienen
el mismo signo y atractiva si tienen signos opuestos.

18 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

La ley de Coulomb la podemos expresar de forma matemática de la siguiente manera:

r q q
F12 = k 1 2 2 r$21 (1)
r21

r
en donde F12 es la fuerza que la carga 1 ejerce sobre la carga 2, q1 y q2 son los valores algebraicos de
las cargas puntuales, r21 es la distancia entre ellas, r$21 es el vector unitario en la dirección de la línea
que une ambas cargas que va desde la carga 1 a la carga 2, y k es una constante de proporcionalidad.
La expresión (1) indica que si las dos cargas son del mismo signo, la fuerza es repulsiva, mientras
que si son de signo opuesto, la fuerza es atractiva.
r Por otro lado, de esta expresión vemos que la fuerza
eléctrica es newtoniana puesto que la fuerza F21 que la carga 2 ejerce sobre la carga 1 es igual y de signo
r r
contrario a la ejercida por la carga 1 sobre la 2: F21 = –F12 .
La constante k que aparece en la ley de Coulomb se incluye para tener en cuenta las unidades. Si
tuviésemos definida la unidad de carga, entonces la constante k se mediría de forma experimental,
como ocurría en el caso de la constante de la gravitación universal. Ahora bien, en el caso que nos
ocupa de la interacción eléctrica, la unidad de carga no está definida, por lo que se procede de forma
contraria. Se fija un valor para la constante k y a partir de ella se determina la unidad de carga. Fue así
como se definió la unidad electrostática de carga (ues) en el sistema CGS en donde se tomó k = 1. La
unidad de carga así definida es tal que dos cargas de ese valor, separadas un centímetro, se repelen
con una fuerza igual a una dina.
En el sistema internacional de unidades se utiliza otra unidad de carga denominada culombio o
coulomb (C). La razón de utilizar esta unidad es su relación simple con otras unidades eléctricas
como el amperio, el voltio o el ohmio. De hecho, el coulomb se define como aquella carga que fluye
entre dos puntos de un alambre en un segundo, cuando la corriente a través del alambre es un ampe-
rio. Si en la expresión de la ley de Coulomb tomamos la carga en coulomb, la distancia en metros, la
fuerza viene expresada en newton si tomamos como valor de k = 8,9875 ´ 109 . Como vemos, el cou-
lomb es una unidad de carga muy grande y la fuerza ejercida por dos cargas de un coulomb separadas
por una distancia de un metro es igual a F = k = 8,9875 ´ 109 N, es decir, aproximadamente igual al
peso de 15 millones de personas adultas. Las cargas típicas que pueden obtenerse en laboratorio me-
diante frotamiento o poniendo en contacto dos objetos oscilan entre los 10 nC (1 nC = 10–9 C) y los
0,1 mC (1mC = 10–6 C). Estos procesos llevan consigo una transferencia de un número elevado de
electrones, siendo la carga elemental de electrón:
e= 1,60´10–19 C (2)

La constante k se suele escribir de forma más conveniente como:


1
k= (3)
4pe 0

en donde e0 se denomina permitividad del vacío. El hecho de expresar la constante de la ley de Cou-
lomb de esta manera es por que así se obtiene una forma más conveniente para otras ecuaciones que
se usan mucho más frecuentemente que la ley de Coulomb.
De acuerdo con lo visto anteriormente, se tiene que el valor de la permitividad del vacío es:
1
e0 = = 8,854´10–12 N–1 m –2 C2 (4)
4pk

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 19


Volumen II. Física II

3.2. Principio de superposición


Supongamos ahora que tenemos tres cargas eléctricas q, q1 y q2 en una determinada región del
espacio, como se muestra en la figura 6. Nos preguntamos cuál será la fuerza que las partículas 1 y 2
ejercen sobre la carga q. En primer lugar alejamos la carga q2 suficientemente y medimos la fuerza
ejercida por la carga q1 sobre la carga q. En segundo lugar, alejamos suficientemente la carga q1 y co-
locamos la carga q2 en su posición original, midiendo la fuerza que ejerce sobre q. Finalmente coloca-
mos las cargas q1 y q2 en sus posiciones iniciales. Si ahora medimos la fuerza total que se ejerce sobre
la carga q encontramos que es la suma de las fuerzas previamente medidas en los casos anteriores. Es
decir que la fuerza con la que dos cargas interactúan entre ellas no se ve afectada por la presencia de
otras cargas, y la fuerza que un sistema de cargas ejerce sobre una carga determinada es la simple su-
perposición de las fuerzas que cada carga por separado ejerce sobre ella. Este principio se conoce
como principio de superposición de las fuerzas eléctricas.

q q q
Z Z
F1 F1
Z
F2 q1 Z
F2
q1
q1
q2 q2 Figura 6. Principio de
q2
superposición.

Si tenemos en cuenta que la fuerza de interacción de dos partículas cargadas viene dada por la
ley de Coulomb (1), el principio de superposición establece que la fuerza que un sistema de N cargas
puntuales qi ejerce sobre una carga determinada q viene dada por:

r N
r N
1 qq i
F = å Fi = å r$ (5)
i= 1 i= 1
4pe 0 ri2 i

en donde ri es la distancia de la carga qi a la carga q y r$i es el vector unitario en la dirección que va des-
de la carga qi a la carga q.

3.3. Distribución continua de carga

dq’
Z Z
r – r’

Z
r’
Z
r

x Figura 7. Distribución continua de carga.

El hecho de que la carga está cuantizada no tiene ninguna consecuencia física si tratamos con
cargas mucho más grandes que e. En estos casos en que se tiene un conjunto muy grande de cargas

20 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

puntuales ésta se pueden tratar como una distribución continua de carga. Para analizar una situación
así, consideremos una distribución de carga continua como la mostrada en la figura 7. La fuerza ejer-
cida sobre la carga q por un elemento de volumen que contiene una carga dq' es:
r 1 qdq' r r
dF = r r 3 (r – r ' ) (6)
4pe 0 | r – r ' |
r r
en donde r determina la posición de la carga q y r'determina la posición del elemento de volumen que
contiene la carga dq'.
La fuerza neta ejercida sobre la carga q por toda la distribución de carga la obtendremos sumando
todas las fuerzas correspondientes a todos los elementos de carga dq'. Matemáticamente esto significa
que la fuerza neta vendrá dada por:
r r q dq' r r
F = ò dF = ò | rr – rr' | (r – r ' ) (7)
4pe 0 3

La expresión anterior se puede escribir de forma más conveniente en función de la densidad de carga
de la distribución. Vamos a distinguir tres casos, dependiendo que la carga esté distribuida a lo largo
de una línea, una superficie o un volumen: los cuales corresponden a un problema unidimensional, bi-
dimensional y tridimensional.
– Una dimensión. Si la distribución de carga se realiza a lo largo de una línea, que asociamos
al eje x, y llamamos l (x) a la densidad lineal de carga, la carga elemental de un elemento in-
finitesimal de longitud dx vendrá dada por:
dq'= ldx' (8)
Sustituyendo esto en la expresión (7) obtenemos que la fuerza neta ejercida por la distribu-
ción lineal sobre la carga q viene dada por:
r q ldx' r r
F=
4pe 0
ò L
r r 3 (r – r ' )
| r – r' |
(9)

– Dos dimensiones. Supongamos ahora que la carga está distribuida sobre una superficie. Si
llamamos s a la densidad superficial de carga, la carga elemental de un elemento infinitesi-
mal de superficie dS' vendrá dada por:
dq'= sdS ' (10)
Sustituyendo esto en la expresión (7) obtenemos que la fuerza neta ejercida por la distribu-
ción superficial sobre la carga q viene dada por:
r q sdS ' r r
F=
4pe 0
ò S
r r 3 (r – r ' )
| r – r' |
(11)

– Tres dimensiones. Por último, supongamos que la carga está distribuida en un volumen. Si
llamamos r a la densidad volumétrica de carga, la carga elemental de un elemento infinite-
simal de volumen dV' vendrá dada por:
dq'= sdV ' (12)
Sustituyendo esto en la expresión (7) obtenemos que la fuerza neta ejercida por la distribu-
ción sobre la carga q viene dada por:
r q rdV ' r r
F=
4pe 0
ò V
r r 3 (r – r ' )
| r – r' |
(13)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 21


Volumen II. Física II

Es evidente que para que un sistema de cargas permanezca en situación estacionaria es necesario
que sobre cada carga actúe otra fuerza no eléctrica de manera que la resultante de la fuerza sea nula.
En lo que sigue supondremos que dichas fuerzas existen y que por tanto el conjunto de cargas se en-
cuentra en situación estacionaria.

4. CAMPO ELÉCTRICO
El hecho de que las fuerzas fundamentales, entre ellas la fuerza eléctrica, actúen entre partículas
que se encuentran separadas en el espacio hace que debamos considerar algún mecanismo de propa-
gación de la interacción.
Una primera interpretación, denominada acción a distancia, es que la interacción tiene lugar direc-
tamente entre las partículas. Hoy, consideramos el problema de la acción a distancia mediante el con-
cepto de campo, introducido por Michael Faraday (1791-1867) para la descripción de la interacción
electromagnética, y que posteriormente fue adoptado por la gravitación. La interpretación de la interac-
ción eléctrica mediante el concepto de campo consiste en suponer que la presencia de una carga q en
una determinada región del espacio provoca una modificación de las propiedades de dicho espacio,
creando una situación física que denominamos campo eléctrico. Este campo se reconoce porque al co-
locar en dicha región una segunda carga q', ésta experimenta una fuerza de atracción o repulsión eléctri-
ca. Análogamente, la carga q' crea su propio campo eléctrico que produce una fuerza sobre la carga q.
Aunque en un primer momento el concepto de campo se asociaba a la región del espacio en la que se
modificaba una propiedad física, una visión más moderna asocia al campo los valores de esa magnitud
modificada en toda la región del espacio.
La interacción eléctrica entre las dos cargas se puede considerar como un proceso en dos etapas.
En la primera, cada carga crea un campo eléctrico en la región del espacio que la rodea. En la segun-
da, el campo creado por cada carga produce una fuerza sobre la otra. Es decir, el campo eléctrico es el
agente intermediario de la interacción entre las dos partículas cargadas.
Por otra parte, veremos que la idea de campo es necesaria para preservar la conservación de la ener-
gía. Pero, sobre todo, la potencia del concepto de campo aparece cuando tratamos campos creados por
cargas aceleradas. Aún cuando estas cargas se encuentran en una región limitada del espacio, el campo
eléctrico y magnético creado se extiende por todo el espacio y se propaga a la velocidad de la luz.
Supongamos un conjunto de N cargas qi en una determinada región del espacio. Si situamos una
carga de prueba q0 en esta región, su presencia cambiará la distribución general de la distribución de
cargas (como es el caso si las cargas se encuentran depositadas sobre conductores), a no ser que estas
cargas se encuentren fijas. Sin embargo podemos elegir dicha carga de prueba suficientemente pe-
queña de manera que su efecto sobre la distribución de cargas sea despreciable. Según el principio de
superposición, la fuerza resultante sobre la carga de prueba q0 es la suma vectorial de todas las fuerzas
que sobre ella ejerce cada una de las cargas individuales qi; y según la ley de Coulomb cada una de es-
tas fuerzas es proporcional a la carga de prueba q0. Por tanto, la fuerza total es proporcional a la carga
q0. Se define el campo eléctrico E en cada punto del espacio como la fuerza ejercida sobre una carga
de prueba positiva q0, situada en ese punto, dividida por q0:
r
r F
E= (14)
q0

en donde consideramos que la carga q0 es suficientemente pequeña como para no alterar la distribu-
ción de cargas original. Por esto, es más adecuado definir el campo eléctrico como:
r
r F
E = lim (15)
q0 ® 0 q
0

22 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

En realidad, la carga de prueba más pequeña que podemos utilizar es la carga del electrón. Esto sig-
nifica que el campo eléctrico no puede determinarse con precisión ilimitada. Esto es de importancia en
problemas a escala atómica, pero a escala macroscópica es irrelevante. Siempre
r que el campo eléctrico se
mida con una carga eléctrica de prueba suficientemente pequeña, el valor de E no diferiría apreciablemen-
te de la medida realizada con una carga de prueba infinitesimal como la sugerida por la expresión anterior.
El caso más simple de campo eléctrico es el creado por una sola carga puntual q, que supondre-
mos situada de forma estática en el origen de coordenadas. Si consideramos una carga de prueba q0 si-
tuada a una distancia r de q, el valor de la fuerza ejercida por q sobre la carga de prueba q0 viene dada
por la ley de Coulomb:
r 1 qq 0
F= r$ (16)
4pe 0 r 2

De la definición de campo eléctrico dada por (14) se tiene que:

r 1 q
E= r$ (17)
4pe 0 r 2

en donde r$ es un vector unitario en la dirección que va desde la carga al punto donde calculamos el
campo (punto campo).

4.1. Campo eléctrico producido por una distribución discreta de carga


En el caso de una distribución discreta de N cargas qi, si tenemos en cuenta que según el princi-
pio de superposición la fuerza neta ejercida sobre la carga de prueba es la suma de las fuerzas indivi-
duales ejercidas por cada una de las cargas qi sobre la carga de prueba, de la definición de campo eléc-
trico (14) se tiene que el campo eléctrico producido por el conjunto de cargas es:

r N
r N
1 qi
E = å Ei = å r$ (18)
i= 1 i= 1
4pe 0 ri2 i
r
en donde ri es el vector de posición de la carga q con respecto a la carga qi y r$i es el vector unitario en
esa dirección. Esta expresión la podemos escribir en función de la posición r' i de la carga qi, y de la
posición del punto del espacio r en donde se coloca la carga de prueba como:

r N
1 qi r r
E= å r r 3 ( r – ri ' ) (19)
i= 1
4pe 0 | r – ri ' |

en donde con las “primas” indicamos que se trata de puntos fuente y sin ellas, de puntos campo.

4.2. Campo eléctrico producido por una distribución continua de carga


Supongamos ahora que tenemos un conjunto muy grande de cargas puntuales muy cercanas
unas a otras, de manera que se puedan tratar como una distribución continua de carga. En este caso, de
la expresión de la fuerza ejercida sobre una carga puntual dada por (7) y de la definición de campo
eléctrico, se tiene que el campo eléctrico creado por la distribución continua de carga viene dado por:
r q dq ' r r
E=
4pe 0
ò | rr – rr' | 3
(r – r ' ) (20)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 23


Volumen II. Física II

Expresión que, como vimos en el caso de la fuerza, se puede escribir de forma más conveniente en
función de la densidad de carga de la distribución. Al igual que antes, vamos a distinguir tres casos,
dependiendo que la carga esté distribuida a lo largo de una línea, una superficie o un volumen: los
cuales corresponden a un problema unidimensional, bidimensional y tridimensional.

– Una dimensión. Si la distribución de carga se realiza a lo largo de una línea, que asociamos
al eje x, y llamamos l(x) a la densidad lineal de carga, la carga elemental de un elemento in-
finitesimal de longitud dx vendrá dada por:

dq'= ldx' (21)

Sustituyendo esto en la expresión (20) obtenemos que la el campo eléctrico creado por la dis-
tribución lineal de carga viene dado por:

r 1 ldx' r r
E=
4pe 0
ò L
r r (r – r ' )
| r – r ' |3
(22)

– Dos dimensiones. Supongamos ahora que la carga está distribuida sobre una superficie. Si
llamamos s a la densidad superficial de carga, la carga elemental de un elemento infinitesi-
mal de superficie dS' vendrá dada por:

dq'= sdS ' (23)

Sustituyendo esto en la expresión (20) obtenemos que la el campo creado por la distribu-
ción superficial de la carga viene dado por:

r 1 sdS ' r r
E=
4pe 0
ò S
r r 3 (r – r ' )
| r – r' |
(24)

– Tres dimensiones. Por último, supongamos que la carga está distribuida en un volumen. Si
llamamos r a la densidad volumétrica de carga, la carga elemental de un elemento infinite-
simal de volumen dV' vendrá dada por:

dq'= sdV ' (25)

Sustituyendo esto en la expresión (20) obtenemos que la el campo creado por la distribu-
ción de carga viene dado por:

r 1 rdV ' r r
E=
4pe 0
ò V
r r 3 (r – r ' )
| r – r' |
(26)

Una vez que se conoce el campo eléctrico creado por una carga, distribución discreta o distribu-
ción continua de carga, podemos encontrar la fuerza sobre cualquier carga puntual q' colocada en el
campo usando la expresión (14):
r r
F = Eq' (27)

Como vemos, las dimensiones del campo eléctrico son de fuerza por unidad de carga, por lo que en el
sistema internacional la unidad del campo eléctrico será de N/C.

24 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

4.3. Líneas de campo eléctrico


Un campo vectorial como el campo eléctrico se puede representar gráficamente mediante líneas
de campo, también denominadas líneas de fuerza.rEstas líneas de campo se trazan de manera que sean
tangentes en cada punto a la dirección del campo E en dicho punto. Así, estas líneas nos proporcionan
información sobre la dirección del campo eléctrico en cada punto del espacio. Puesto que la dirección
del campo es igual a la dirección de la fuerza ejercida sobre una carga positiva, las líneas de campo se
denominan también líneas de fuerza.
En la figura 8 se muestra una representación del campo eléctrico creado por una carga positiva.
Podemos observar que las líneas de campo llevan dirección radial y se alejan de la carga que provoca
el campo. Es decir, que las líneas de campo divergen desde el punto ocupado por una carga positiva.
En el caso de una carga puntual negativa, el campo eléctrico apunta radialmente hacia la carga; es de-
cir que las líneas de campo convergen hacia el punto ocupado por una carga negativa. Las líneas de
campo nos pueden proporcionar también información sobre la intensidad del campo eléctrico si se di-
bujan de manera adecuada. De la figura, podemos observar que conforme nos alejamos de la carga
puntual, el campo eléctrico es más débil y las líneas de campo están más separadas.

Figura 8. Líneas del campo eléctrico


creado por una carga puntual positiva.

Veamos a continuación como están relacionadas la densidad de líneas de campo con la intensidad
del campo eléctrico. La densidad de líneas de campo viene dada por el número de líneas por unidad de
superficie. A una distancia r de la carga las líneas de campo atraviesan una superficie S = 4pr2, por lo
que la densidad de líneas de campo decrece en proporción inversa al cuadrado de la distancia a la carga;
lo mismo que le ocurre a la intensidad del campo eléctrico cuya dependencia con la distancia a la carga
es de la forma E = kq/r2. En consecuencia, si el número de líneas de campo que salen de una carga pun-
tual es proporcional al valor de dicha carga, y dibujamos las líneas simétricamente alrededor de la car-
ga, la intensidad del campo eléctrico vendrá dada por la densidad de líneas de campo. El campo es más
débil en aquellas zonas en las que las líneas de campo están mas espaciadas que en aquellas otras en las
que las líneas de campo están mas cerca unas de otras, que corresponden a campo eléctrico intenso.
Una propiedad importante de las líneas de campo es que no pueden cortarse en ningún punto del
espacio en el que no exista carga ya que esto supondría que en ese punto existirían dos valores del cam-
po con dos direcciones diferentes, lo cual no tendría sentido alguno.
En la figura 9 se muestran las líneas de campo correspondiente a dos cargas puntuales positivas
(a), un dipolo eléctrico (b) y dos cargas una positiva y otra negativa siendo doble la carga positiva (c).

-q q

+ q q + - + 2q + - -q

Figura 9. Líneas de campo


correspondientes a: (a) dos cargas
positivas q, (b) una carga positiva q
y otra negativa –q, y (c) a una carga
positiva 2q y una negativa –q. (a) (b ) (c)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 25


Volumen II. Física II

4.4. Dipolo eléctrico


Una distribución de carga importante es el dipolo eléctrico. Un dipolo consiste en dos cargas
iguales y de signos opuestos separadas una distancia d muy pequeña. La importancia de esta distri-
bución de carga radica en que es muy útil para representar la deformación que se produce en la dis-
tribución de la carga eléctrica molecular en la materia cuando ésta se ve sometida a la acción de
campo eléctrico externo. En las secciones anteriores hemos indicado que en los procesos de electri-
ficación de la materia siempre se produce una separación de carga. En realidad, más que una sepa-
ración de carga, lo que se produce es una ligera deformación en las órbitas electrónicas de los áto-
mos o moléculas bajo la acción de un campo eléctrico externo. Esto conlleva que la distribución de
carga neta sobre el átomo o la molécula experimente una deformación que puede tratarse como un
dipolo eléctrico.

y y
P P

Z Z
Z
r- r+ Z
r- r+
Z
r rZ
(d/2) cos q

q q q
Z Z
–q r’– r’+ q x –q x
(d/2) cos q
d d

Figura 10. Dipolo eléctrico.

Supongamos dos cargas q y -q separadas una distancia d (fig. 10). Consideremos un sistema de
referencia en el que el eje x coincide con la línea que une ambas cargas y cuyo origen se encuentra en
el punto medio entre ellas. Los vectores de posición de ambas cargas r´+ y r´– (puntos fuente) serán:
r d r d
r '+ = i$ r ' – = – i$ (28)
2 2

Supongamos un punto P cuya posición en el espacio viene dada por r (punto campo). El campo
eléctrico en dicho punto será:
r r r r
r q æ ö
ç (rr – rr '+ ) – (rr – rr ' – ) ÷
E (r )= ç 3 ÷
(29)
4pe 0 è | r – r '+ | 3
| r – r '– | ø

Si consideramos que r o d, de forma aproximada (ver la figura) tenemos que:


r r d xd
| r – r '+ |= r – cos q = r – (30)
2 2r

r r d xd
| r – r ' – |= r+ cos q = r+ (31)
2 2r

en donde hemos tenido en cuenta que cos q = x/r.

26 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

De esta expresión, utilizando el desarrollo del binomio y despreciando los términos de segundo
orden, se obtiene que:
r r æ 3xd ö
| r – r '+ |3 = r 3ç1– 2 ÷ (32)
è 2r ø

r r æ 3xd ö
| r – r ' – |3 = r 3ç1+ 2 ÷ (33)
è 2r ø

Sustituyendo este resultado en la expresión del campo, se tiene que:


ær d ö
ç r – i$ rr + d i$ ÷
r q ç 2 – 2 ÷
E= 3ç
(34)
4pe 0 r 3xd 3xd ÷
ç1– 2 1+ 2 ÷
è 2r 2r ø

Reduciendo el término entre paréntesis al mínimo común denominador y suponiendo que:


æ 3xd öæ 3xd ö 9æ 2 öæ 2ö
ç x ÷ç d ÷•1
ç1– 2 ÷ç1+ 2 ÷= 1– ç ÷ç ÷ (35)
è 2r øè 2r ø 4è r 2 øè r 2 ø

la expresión del campo creado por el dipolo queda como:


r q éær d öæ 3xd ö ær d öæ 3xd öù
E= êçr – i$ ÷
ç1+ ÷–çr + i$ ÷ç1– 2 ÷ú (36)
4pe 0 r ëè
3
2 øè 2r 2 ø è 2 øè 2r øû

Agrupando términos en la expresión anterior, y simplificando, obtenemos finalmente que el campo


eléctrico creado por el dipolo en un punto P viene dado por:

r q æ 3xd r ö
E= ç 2 r – di$ ÷ (37)
4pe 0 r è r
3
ø

con la condición de que r o d.


Las componentes cartesianas del campo eléctrico creado por el dipolo son:
qd æ 3x 2 ö
Ex = ç – 1÷
ç ÷ (38)
4pe 0 r 3 è r 2 ø

qd æ 3xy ö
Ey = ç ÷ (39)
4pe 0 r è r 2 ø
3

En la mayoría de ocasiones, resulta conveniente expresar el campo


r eléctrico en coordenadas pola-
res en vez de coordenadas cartesianas. Teniendo en cuenta que r = r$r, x = r cosq, y = r senq y i$ = cosq$r –
– senqq^, el campo eléctrico se escribe en coordenadas polares planas como:

r qd
E= ( 2cos qr$ +sen qq$ ) (40)
4pe 0 r 3

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 27


Volumen II. Física II

En las expresiones (37) y (40) vemos que la carga q y la distancia entre las cargas aparecen como el
producto
r qd al que se le denomina momento dipolar. Más concretamente, se define el momento dipo-
lar p de un dipolo como un vector dirigido desde la carga negativa a la positiva y de módulo igual al
producto de la carga por la distancia entre ellas. En nuestro caso:

r
p = pi$ = qdi$ (41)

El estudio que acabamos de hacer es válido para cualquier plano que contenga el eje dipolar, por
lo que el campo no puedertener ninguna componente perpendicular a cualquiera de dichos planos. Por
r posición tridimensional, si el ángulo q es
tanto, el vector posición r puede identificarse con el vector
el ángulo formado por este vector y el momento dipolar p.
La expresión (40) la podemos escribir en función del momento dipolar si tenemos en cuenta que
este puede escribirse, en coordenadas polares como:
r
p = qd cos qr$ – qd sen qq$ (42)

Despejando de esta expresión p senq y sustituyendo en (40), se tiene que:


r 1 r
E= ( 3 p cos qr$ – p ) (43)
4pe 0 r 3

r
Si además tenemos en cuenta que p cos q = p×r$, se tiene finalmente que:

r 3( pr ×r$ )$r – pr
E= (44)
4pe 0 r 3

Un aspecto importante del campo creado por un dipolo es que decrece con la distancia en la for-
ma 1/r3 y por tanto lo hace más rápidamente que el campo creado por una carga puntual, que lo hace
en la forma 1/r2. Esto es debido a que los campos producidos por ambas cargas se neutralizan entre
ellos a distancias mayores que d = p/q.

5. LEY DE GAUSS
La ley de Gauss es otra manera de expresar la ley de Coulomb de interacción entre cargas eléctri-
cas estáticas, por lo que se trata de una de las leyes fundamentales del electromagnetismo. Ambas leyes
son consecuencia de que la fuerza eléctrica sea inversamente proporcional al cuadrado de la distancia,
proporcional a las cargas y dirigida en la dirección que une dichas cargas. En los campos eléctricos que
resultan de cargas estáticas o que se mueven lentamente, la ley de Coulomb y la ley de Gauss son equi-
valentes. Sin embargo, la ley de Gauss es más general, pues es aplicable a cargas que se mueven rápida-
mente o a cargas aceleradas. En consecuencia, dado que su campo de validez es más amplio, la ley de
Gauss es generalmente más útil que la ley de Coulomb.
Por otra parte, además de ser más elegante, la ley de Gauss es más fácil de aplicar que la ley de
Coulomb, en muchas ocasiones. En especial, en aquellas situaciones en las que existe una gran sime-
tría en la distribución de carga en la que estamos interesados.
Como paso previo al estudio de esta ley vamos a introducir un concepto que es necesario, el de flu-
jo eléctrico. Posteriormente, veremos algunos ejemplos que nos mostrarán su utilidad y fácil manejo.

28 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

5.1. Flujo eléctrico


r
Se define el flujo F de un campo vectorial a través de una superficie infinitesimal dS como:
dF= E cos qdS (45)
en donde q es el ángulo que forma el campo vectorial con la dirección perpendicular al elemento de
superficie.
Como vemos, el flujo de un campo vectorial se define por analogía con el flujo de un fluido en
una tubería, el cual es proporcional a la velocidad del fluido y a la sección recta del tubo.
La expresión anterior la podemos escribir de forma vectorial
r si asociamos al elemento de superfi-
$ su dirección normal. Si llamamos dS al vector
cie un vector unitario nen r en la dirección normal del ele-
mento de superficie y de módulo igual al valor de dicha superficie, dS = dSn$, el flujo del campo vecto-
rial se puede escribir como:
r r r
dF= E ×dS = E ×n$ dS = EdS cos q (46)

En la definición anterior existe el inconveniente de la elección del sentido del vector unitario
normal a la superficie. Ahora bien, si la superficie total es una superficie cerrada tal ambigüedad de-
saparece, ya que por convenio, se elige el vector unitario normal a una superficie de manera que
apunte hacia el exterior de la misma.
Para calcular el flujo de un campo vectorial sobre una superficie finita debemos sumar los flujos
elementales sobre cada una de las superficies infinitesimales en que podemos dividir dicha superfi-
cie. Matemáticamente este flujo se expresa como:
r r
F= òS E ×dS (47)

Si la superficie es cerrada la integral anterior se escribe como:


r r
F= òS E ×dS (48)

Tal como vimos en el apartado de las líneas de campo eléctrico, la intensidad del campo eléctri-
co es proporcional al número de líneas de campo que atraviesa la unidad de superficie, por lo que el
flujo eléctrico que atraviesa una superficie es proporcional al número de líneas de campo que pasa a
través de dicha superficie.

n q E
Z
^
5.2. Ley de Gauss para el campo eléctrico
dS
Supongamos una carga puntual q y calculemos el flujo del campo
eléctrico que crea dicha carga a través de una superficie cerrada arbitra-
ria S que encierra a la carga (fig. 11). Según la ley de Coulomb el campo dW
eléctrico en cada uno de los puntos de la superficie viene dado por: O q
r 1 q
E= r$ (49)
4pe 0 r 2
Figura 11. Superficie
siendo r la distancia desde la carga a cada uno de los puntos de la super- gaussiana que encierra
ficie. una carga puntual q.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 29


Volumen II. Física II

Sustituyendo esta expresión en la definición de flujo dada por (48), se tiene que el flujo eléctrico
a través de la superficie es:
r r q dS cos q
F E = òSE ×dS = ò (50)
4pe 0 S
r2
r
Ahora bien, dS cos q/r2 es el ángulo sólido dW subtendido por el elemento de superficie dS visto des-
de la carga q. Además, el ángulo sólido que subtiende cualquier superficie cerrada vista desde un pun-
to de su interior es 4p, es decir:
dS cos q
ò S
r2
= ò dW = 4p (51)

Llevando este resultado a la expresión del flujo, obtenemos que:


q
FE = (52)
e0

Consideremos ahora la situación en que la carga q se encuentra fuera de la superficie cerrada. En


este caso, siguiendo un razonamiento como el anterior llegaremos a la misma expresión (50), en don-
de dS cos q/r2 es el ángulo sólido dW subtendido por el elemento de superficie dS visto desde la carga
q. Pero en este caso, siempre tendremos dos elementos de superficie correspondientes dS1 y dS2, tal
como se muestra en la figura 12. En este caso, cada ángulo sólido elemental dW entrará en la integral
con dos signos: con el signo más para el elemento de superficie dS1 cuya parte interior se ve desde el
punto de la carga, y con signo menos para el elemento de superficie dS2 cuya parte exterior se ve des-
de el punto de la carga. En consecuencia, ambas contribuciones se cancelarán. Por tanto, la integral
extendida a toda la superficie será nula, y el flujo a través de una superficie cerrada del campo creado
por una carga exterior a dicha superficie es nulo.

^n1 q1 Z
dW1 = - dW2 dS1 E1

dW1

Z
E2
dS2
dW2 q2
^
n2 Figura 12. Superficie gaussiana que
q no encierra ninguna carga eléctrica
O en su interior.

Si en el interior de una superficie cerrada S arbitraria hay varias cargas qi, como los campos crea-
dos por cada una de ellas por separado son independientes, podemos aplicar el razonamiento expues-
to anteriormente al flujo eléctrico total que atraviesa dicha superficie:
r r æN r ö r N
r r N
qi
çå E i ÷×dS = å òSE i ×dS = å e
F E = òSE ×dS = òSç ÷ (53)
è i= 1 ø i= 1 i= 1 0

30 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

Los resultados encontrados anteriormente constituyen la ley de Gauss, que podemos enunciar como:
El flujo eléctrico a través de una superficie cerrada que encierra un conjunto de cargas qi
es igual a:

q
FE = (54)
e0

en donde q = å
N
q i es la carga neta en el interior de la superficie.
i= 1

Si en el interior de la superficie no hay cargas, o si la carga neta es cero, el flujo eléctrico a través
de ella es cero.
La ley de Gauss establece que las cargas eléctricas son las fuentes o sumideros del flujo eléctrico
y de las líneas de campo. Si en el interior de una superficie cerrada no hay fuentes ni sumideros, el
mismo número de líneas de campo que entran en la superficie es igual al número de líneas que salen
de ella, y por tanto el flujo eléctrico es cero. Si en el interior de una superficie cerrada hay fuentes
(cargas positivas), el número de líneas de campo que sale de la superficie es mayor que el que entra, y
el flujo eléctrico será positivo. Si en el interior hay sumideros de líneas de campo (cargas negativas)
el número de líneas que entran es mayor que el de líneas que salen de la superficie, y por tanto el flujo
eléctrico será negativo. Si la superficie encierra cargas positivas y negativas, el flujo es proporcional
a la carga neta encerrada por la superficie.

5.3. Aplicaciones de la ley de Gauss


La ley de Gauss es una herramienta muy útil para obtener el campo eléctrico producido por distribu-
ciones de carga en las que exista un alto grado de simetría. En estos casos es posible determinar una super-
ficie matemática en la que el campo eléctrico es constante y perpendicular a ella. Esto permite calcular fá-
cilmente el flujo a través de la superficie y luego resolver la ecuación de la ley de Gauss para relacionar el
campo eléctrico con la carga encerrada por la superficie. A las superficies imaginarias utilizadas para el
cálculo del campo eléctrico a partir de la ley de Gauss se le denominan superficies gaussianas.
A continuación veremos algunos ejemplos de cómo elegir estas superficies gaussianas y de la utili-
zación de la ley de Gauss para determinar el campo eléctrico creado por algunas distribuciones de carga.

z
5.3.1. Campo próximo a una distribución lineal Z
B1 dS
de carga
Supongamos una carga distribuida a lo largo de una línea muy
larga de densidad lineal de carga uniforme l, como puede ser una car-
C
ga distribuida en un alambre largo y estrecho como el mostrado en la Z
E
figura 3. El primer paso para determinar el campo eléctrico es elegir
una superficie gaussiana adecuada. Para ello debemos determinar el y
tipo de simetría que tendrá el campo, a partir de la distribución de B2 Z
dS
carga. En primer lugar podemos esperar que en un punto alejado de
los extremos el campo sea perpendicular al alambre, es decir, perpen- x

dicular a la dirección z de la figura. En segundo lugar, cabe esperar


que el campo sólo dependa de la distancia del punto en que lo calcu- Figura 13. Distribución
lineal de carga sobre un
lamos al alambre. En definitiva, esperamos que el campo creado ten- hilo infinito y superficie
ga simetría cilíndrica alrededor del eje z. Por consiguiente, elegire- gaussiana para el cálculo
mos como superficie gaussiana una superficie cilíndrica con eje so- del campo eléctrico.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 31


Volumen II. Física II

bre el eje z. El flujo a través de dicha superficie lo podemos expresar como la suma de los flujos a
través de las bases del cilindro B1 y B2 y del flujo a través de la superficie lateral C:
r r r r r r
F= òB E ×dS + òB E ×dS + òC E ×dS (55)
1 2

En cada una de las bases del cilindro, el campo eléctrico es paralelo a la superficie, por lo que el flujo
a través de ellas es nulo. Por otro
r lado,
r en la superficie lateral el campo eléctrico es normal a la super-
ficie, por lo que se tiene que E ×dS = EdS . Por tanto, el flujo dado por (55) queda como:
F= òC EdS (56)

Puesto que el valor del campo eléctrico es el mismo en todos los puntos de la superficie lateral, la inte-
gral anterior se reduce a:
F= òC EdS = E òC dS = ES = E 2prh (57)

en donde r es el radio de la superficie, y h la longitud del alambre y de la superficie gaussiana.


La ley de Gauss establece que dicho flujo es igual a la carga neta encerrada por dicha superficie
dividido por la permitividad del vacío. Dicha carga q, vendrá dada en función de la densidad lineal de
carga por q = lh. Por lo que de la ley de Gauss se tiene que:
q lh
F= E 2prh = = (58)
e0 e0

Despejando E de esta ecuación, obtenemos que el campo viene dado por:


l
E= (59)
2pe 0 r

5.3.2. Campo próximo a una distribución de carga plana y extensa


z Consideremos una distribución de carga plana y extensa con
densidad superficial de carga s, situada en el plano xy (figura 14).
Para la elección adecuada de la superficie gaussiana se ha de de-
Z
E terminar previamente la simetría del campo eléctrico creado. En
Z
dS un punto alejado de los extremos del plano, por simetría, el cam-
y po ha de ser perpendicular a la superficie y alejándose de ella (si
las cargas superficiales son positivas). Por otra parte, el campo
dependerá sólo de la distancia z al plano. En consecuencia, elegi-
Z
remos como superficie gaussiana una superficie cilíndrica como
dS Z la mostrada en la figura. El campo eléctrico es paralelo a la super-
E
ficie lateral del cilindro, por lo que el flujo a través de dicha su-
x perficie es nulo. En cuanto a las bases del cilindro, el campo es
constante en cada una de ellas y en dirección perpendicular y diri-
Figura 14. Distribución gido hacia afuera. Por consiguiente, si llamamos S la superficie
superficial de carga sobre un de la base del cilindro elegido como superficie gaussiana, el flujo
plano infinito y superficie a través de toda la superficie es:
gaussiana para el cálculo del
campo eléctrico. F= 2ES (60)

32 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

Según la ley de Gauss, el flujo es igual a la carga neta encerrada dividida por la permitividad del va-
cío. Esta carga es igual a sS, por lo que se tendrá que:
q
F= 2ES = = sS (61)
e0

Y despejando de la ecuación anterior se tiene que el campo creado por la distribución de carga super-
ficial es:
s
E= (62)
2e 0

5.3.3. Campo creado por una corteza esférica


Supongamos una corteza esférica delgada, de radio r0 y carga q0. Debido a la simetría de la dis-
tribución, es de esperar que el campo eléctrico tenga solamente componente radial y que dependa
de la distancia r al centro de la distribución. Por tanto, elegiremos como superficie gaussiana una
superficie esférica con centro en el de la distribución y que pase por el punto donde queremos cal-
cular el campo.
z

Z
E
r0

r y

r
Figura 15. Distribución superficial
de carga sobre una corteza esférica y
superficie gaussiana para el cálculo x
del campo eléctrico.

Para calcular el campo en los puntos interiores a la corteza esférica tomaremos una superficie
gaussiana de radio r menor que el de la distribución (fig. 15). Teniendo en cuenta, que por simetría, el
campo en todos los puntos de la superficie gaussiana es constante y en dirección radial y que la carga
encerrada por dicha superficie es cero, la aplicación de la ley de Gauss nos da:
F= E 4pr 2 = 0 (63)

Y en consecuencia, el campo eléctrico en el interior de una corteza esférica cargada es cero.


E= 0 ( r < r0 ) (64)

Para calcular el campo en los puntos exteriores a la corteza esférica tomaremos una superficie
gaussiana de radio r mayor que el de la distribución. Teniendo en cuenta, que por simetría, el campo en
todos los puntos de la superficie gaussiana es constante y en dirección radial y que la carga encerrada
por dicha superficie es toda la carga de la distribución q0, la aplicación de la ley de Gauss nos da:
q0
F= E 4pr 2 = (65)
e0

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 33


Volumen II. Física II

Y despejando E de la expresión anterior, tenemos que el campo eléctrico en puntos exteriores a una
corteza esférica cargada viene dado por:
q0
E= ( r > r0 ) (66)
4pe 0 r 2

5.3.4. Campo creado por una esfera uniformemente cargada


Consideremos una distribución esférica y uniforme de carga, de radio r0 y carga q0. Al igual que
en el caso anterior y debido a la simetría de la distribución, es de esperar que el campo eléctrico tenga
solamente componente radial y que dependa de la distancia r al centro de la distribución. Por tanto,
elegiremos como superficie gaussiana una superficie esférica con centro en el de la distribución y que
pase por el punto donde queremos calcular el campo.

z
Z
E

r0

r y

r
Figura 16. Distribución de carga sobre
x una esfera y superficie gaussiana para el
cálculo del campo eléctrico.

Para calcular el campo en los puntos interiores a la distribución esférica tomaremos una superficie
gaussiana de radio r menor que el de la distribución (fig. 16). Por simetría, el campo en todos los puntos
de la superficie gaussiana es constante y en dirección radial. Por otra parte, si suponemos que la carga se
encuentra uniformemente distribuida, la carga encerrada por dicha superficie es q = q0r3/r03. La aplica-
ción de la ley de Gauss nos da:
q0 r3
F= E 4pr 2 = (67)
e 0 r03

Y en consecuencia, el campo eléctrico en el interior de una distribución esférica de carga será:


q0 r
E= ( r < r0 ) (68)
4pe 0 r03

Para calcular el campo en los puntos exteriores a la distribución esférica tomaremos una superficie
gaussiana de radio r mayor que el de la distribución. Teniendo en cuenta, que por simetría, el campo en
todos los puntos de la superficie gaussiana es constante y en dirección radial, y que la carga encerrada
por dicha superficie es toda la carga de la distribución q0, la aplicación de la ley de Gauss nos da:
q0
F= E 4pr 2 = (69)
e0

Y despejando E de la expresión anterior, tenemos que el campo eléctrico en puntos exteriores a una
corteza esférica cargada viene dado por:
q0
E= ( r > r0 ) (70)
4pe 0 r 2

34 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

5.3.5. Propiedades de los conductores


Un conductor es una sustancia en la que los electrones de las capas atómicas más externas están
muy débilmente ligados al núcleo, de manera que pueden moverse libremente.
En presencia de un campo eléctrico, las cargas móviles de un conductor se distribuyen de mane-
ra que crean un campo eléctrico tal que anulan el campo eléctrico externo en su interior. Decimos en-
tonces que el conductor se encuentra en equilibrio electrostático. Si no fuese así, una carga en el inte-
rior del conductor estaría sometida a una fuerza eléctrica, y debido a su movilidad se encontraría ace-
lerada. En consecuencia, el equilibrio electrostático es imposible en un conductor, a menos que el
campo eléctrico sea nulo en todos sus puntos interiores.
Otra característica de los conductores en equilibrio electrostático es que el campo eléctrico debe
ser perpendicular a la superficie en todos sus puntos. En efecto, si existiera una componente tangen-
cial del campo eléctrico, la carga libre se desplazaría en el conductor hasta alcanzar una situación en
que se anulara dicha componente tangencial.
Supongamos, por ejemplo, una lámina conductora eléctricamente neutra. Inicialmente, los elec-
trones libres se encuentran uniformemente r distribuidos en la lámina. Si ahora colocamos la lámina en el
seno de un campo eléctrico uniforme E ext , tal como se muestra en la figura 17, sobre cada electrón ac-
r r
tuará una fuerza F = – eE ext , y por consiguiente se moverán ha-
Z
cia la izquierda. Al llegar a la superficie del conductor, éste ejer- E
ext

ce una fuerza sobre los electrones que los mantiene ligados al _ +


conductor. No obstante, si el campo externo es suficientemente _ +
intenso los electrones pueden ser arrancados de la superficie de _ +
la lámina conductora, fenómeno que en electrónica recibe el _ +
nombre de emisión de campo. El efecto del campo eléctrico so- _ +
bre el conductor es que se tiene una densidad superficial de carga _ +
negativa inducida en la parte izquierda del conductor y una den- _ +
sidad de carga positiva de igual magnitud en la parte derecha del
mismo. Estas cargas inducidas producen un campo eléctrico que
se opone al campo externo. Cuando estos campos eléctricos, in- Figura 17. Lámina conductora en
un campo eléctrico homogéneo.
ducido y externo, se cancelan en el interior del conductor, se al-
canza el equilibrio electrostático, de manera que el campo neto
en todos los puntos del interior es cero, y por tanto, no existe fuerza neta alguna sobre los electrones.
La aplicación de la ley de Gauss permite encontrar una
propiedad que caracteriza a los conductores en equilibrio elec-
trostático: que la carga neta de un conductor se sitúa en su su- Z
perficie. Para demostrar esta afirmación supongamos un con- E
ductor en equilibrio electrostático y consideremos una superfi-
cie gaussiana en su interior, justo debajo de su superficie real
(fig. 18). Como el campo eléctrico es cero en todos los puntos
del interior del conductor, también los será en la superficie
gaussiana, por lo que no existirá flujo a través de ella, y por
consiguiente, según la ley de Gauss, la carga neta en su interior
es cero. Si existe carga neta en el conductor, ésta deberá encon-
trarse obligatoriamente en su superficie, como una densidad
superficial de carga s. En general, esta densidad será una fun-
ción de la posición sobre la superficie de éste. Tal y como vi-
mos en el ejemplo anterior, si el conductor es neutro la densi- Figura 18. Conductor y superficie
dad superficial de carga puede ser negativa en unas zonas y po- gaussiana elegida justo de su
sitiva en otras, de manera que la carga neta total sea cero. superficie real para determinar el
campo eléctrico en su interior.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 35


Volumen II. Física II

Z
La ley de Gauss también puede aplicarse para deter-
E minar el campo eléctrico en la parte exterior de una superfi-
cie conductora. Consideremos una determinada región de
una superficie conductora. Puesto que el campo eléctrico
es perpendicular a la superficie del conductor, elijamos una
superficie gaussiana en forma de cilindro con caras parale-
las (fig. 19), con una de las caras en el interior del conduc-
tor. Si esta superficie es suficientemente pequeña podre-
mos despreciar los efectos de la curvatura de la superficie
conductora la región considerada, así como las pequeñas
variaciones del campo. Como el campo es cero en el inte-
rior del conductor, el flujo a través de la superficie situada
en el interior del conductor también será cero.
Figura 19. Conductor y superficie
gaussiana elegida justo de su Por otro lado, el campo eléctrico es paralelo a la su-
superficie real para determinar el perficie lateral del cilindro, por lo que el flujo a través de
campo eléctrico en puntos exteriores. esta superficie es cero. Por último, el flujo a través de la su-
perficie plana paralela a la superficie del conductor y situa-
do en el exterior de éste es EnS, siendo En el valor del cam-
po y S el área de dicha superficie. Según la ley de Gauss, el flujo es igual a la carga encerrada por di-
cha superficie dividida por e0. Si llamamos s a la densidad superficial de carga, la carga encerrada por
la superficie gaussiana es sS, por lo que se tiene que:
s
En = (71)
e0

Resumiendo, el campo eléctrico en las proximidades de un conductor en equilibrio electrostático es:

s
En = Et = 0 (72)
e0

en donde En es la componente normal a la superficie del conductor y Et es la componente tangencial


del campo eléctrico.

5.4. Ley de Gauss en forma diferencial


La ley de Gauss es posible escribirla de forma diferencial, de manera que describa una región
microscópica del espacio. Para ello consideremos un volumen dV = dxdydz que contiene una carga dq
(fig. 20), y calculemos el flujo a través de la superficie.

z
Ex(x-dx/2,y,z)
Z
E(x,y,z)
dz

dy
dx
Ex(x+dx/2,y,z)
Figura 20. Elemento diferencial
x de volumen para determinar la
y ley de Gauss en forma diferencial.

36 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

Comenzaremos por calcular el flujo a través de las superficies normales a la dirección del eje x.
Si el campo en el centro del cubo es:
r
E ( x, y, z ) = E x ( x, y, z )i$ + E y ( x, y, z ) $j + E z ( x, y, z )k$ (73)

el flujo a través de las caras anterior y posterior en la dirección del eje x será, respectivamente:
æ dx ö æ dx ö
dFçx – , y, z ÷= – E xçx – , y, z ÷dydz
è 2 ø è 2 ø
(74)
æ dx ¶E x ö
= –çE x ( x, y, z ) – ÷dydz
è 2 ¶x ø
æ dx ö æ dx ö
dFçx+ , y, z ÷=+E xçx+ , y, z ÷dydz
è 2 ø è 2 ø
(75)
æ dx ¶E x ö
=çE x ( x, y, z )+ ÷dydz
è 2 ¶x ø

El flujo global a través de esas superficies será:


æ dx ö æ dx ö ¶E
dF x = dFçx – , y, z ÷+dFçx+ , y, z ÷= x dxdydz (76)
è 2 ø è 2 ø ¶x

Procediendo de forma análoga se encuentra que los flujos a través de las caras perpendiculares a los
ejes y y z vienen dados por:
¶E y
dF y = dxdydz (77)
¶y
¶E z
dF z = dxdydz (78)
¶z
El flujo total a través de toda la superficie será igual a:
æ ¶E x ¶E y ¶E z ö
dF= dF x +dF y +dF z =ç ÷
ç ¶x + ¶y + ¶z ÷dxdydz (79)
è ø

Si tenemos en cuenta que la carga encerrada por la superficie es dq, aplicando el teorema de Gauss, se
tiene que:
æ¶E x ¶E y ¶E z ö dq
ç ÷
ç ¶x + ¶y + ¶z ÷dxdydz = e (80)
è ø 0

Dividiendo por el elemento de volumen dV = dxdydz obtenemos finalmente que:

¶E x ¶E y ¶E z r
+ + = (81)
¶x ¶y ¶z e0

en donde r es la densidad de carga en el punto del espacio en donde se calculan las derivadas parciales
æ dq ö
del campo eléctricoç r= ÷. La expresión (81) es la forma diferencial de la ley de Gauss.
è dV ø

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 37


Volumen II. Física II

La ley der Gauss en su forma diferencial puede escribirse de forma más compacta si utilizamos el
vector nabla Ñ definido como:
r ¶ ¶ ¶
Ñ = i$ + $j + k$ (82)
¶x ¶y ¶z

De la definición del vector nabla, se tiene que:


r r æ¶ ¶ ¶ ö
÷×(E x i$ + E y $j + E z k$)
ç i$ + $j + k$ ÷
Ñ×E =ç
è¶x ¶y ¶z ø
(83)
¶E x ¶E y
¶E
= + + z
¶x ¶y ¶z
r r
El valor de Ñ×E calculado para cualquier vector se denomina divergenciar del vector, en nuestro
caso divergencia del campo eléctrico, y también se escribe a veces como div E. Sustituyendo el resul-
tado anterior en la ecuación (81), la ley de Gauss en forma diferencial puede escribirse como:

r r r
Ñ×E = (84)
e0

Esta ecuación nos permite encontrar el campo eléctrico en una región del espacio si conocemos el va-
lor de la densidad de carga en dicha región y a su vez las condiciones que el campo E debe cumplir so-
bre ciertas superficies o contornos cerrados del espacio.

6. CARÁCTER CONSERVATIVO DEL CAMPO ELÉCTRICO


Por definición, decimos que una fuerza es conservativa si el trabajo realizado sobre un objeto,
cuando éste describe una trayectoria cerrada es cero. O lo que es equivalente, si el trabajo realizado
para llevar al objeto desde un punto inicial a otro final es independiente de la trayectoria seguida.
En consecuencia, demostrar el carácter conservativo del campo eléctrico significa demostrar que el
trabajo realizado por una fuerza eléctrica para llevar una carga de prueba q0 desde una posición ini-
cial a otra final es independiente de la trayectoria seguida.
b
Z
dl
Z
q0 F

Z
r
Figura 21. Carga q0 que se desplaza a lo largo
a de un arco de circunferencia en el seno de un
q campo eléctrico creado por una carga puntual q.

Calculemos el trabajo realizado por una fuerza eléctrica cuando una carga de prueba q0 se mueve en
el campo creado por una carga puntual q, que suponemos fija. Comenzaremos por estudiar la situación
mostrada en la figura 21, en la que la carga de prueba se
r mueve a lo largo de un
r arco de circunferencia con
centro en la carga q. En este caso, la fuerza eléctrica F y el desplazamiento d l son perpendiculares en to-

38 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

dos los puntos de la trayectoria entre la posición inicial a y la posición final b, por lo que el trabajo realiza-
do por la fuerza eléctrica es cero:
b r r b r r
òa F ×d l = q 0 òa E ×d l = 0 (85)

Z Z
dl F
a
q0
Figura 22. Carga q0 que se desplaza a Z

lo largo de una trayectoria radial en el r


seno de un campo eléctrico creado por
una carga puntual q. q

Supongamos ahora que el r camino


r recorrido por la carga es una trayectoria radial como la mostrada
en la figura 22. En este caso, F yd l son paralelos en todo punto de la trayectoria. Si llamamos r$ al vector
unitario
r en la dirección querva desde la carga q a la carga de prueba q0, el desplazamiento infinitesimal
d l puede escribirse como d l= drr$, en donde dr es el desplazamiento infinitesimal de la distancia entre
las cargas.
r
Si tenemos en cuenta que el campo eléctrico producido por la carga q es E = ( q / 4pe 0 r 2 )$r el trabajo
realizado por la fuerza eléctrica será:
r r b r r rbæ q ö
ò F ×d l = q 0 òa E ×d l = q 0 òr ç r$ ÷
b
ç 2 ÷×(drr$ )
a a
è 4pe 0 r ø

qq 0 rb dr qq 0 é 1ùrb
= ò =
4pe 0 r ra r 2 4pe 0 rê

ë rúûr
(86)
a

qq 0 æ
ç1 – 1÷
ö
= ç ÷
4pe 0 è ra rb ø

rb b

rc = rd
Figura 23. Carga q0 que se desplaza a lo
q0
largo de una trayectoria a tramos en el q
seno de un campo eléctrico creado por ra a
una carga puntual q. c

Supongamos ahora que la carga q0 se mueve a lo largo de la trayectoria a-c-d-b mostrada en la fi-
gura 23. Analicemos cada uno de los tramos de dicha trayectoria. Los tramos a-c y d-b son radiales,
por lo que el trabajo realizado en cada uno de ellos vendrá dado por la expresión (86). Por otra parte,

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 39


Volumen II. Física II

el tramo c-d es una trayectoria circular centrada en la carga q, por lo que el trabajo realizado en dicha
trayectoria es cero, según vimos en (85). El trabajo realizado por la fuerza eléctrica a lo largo de toda
la trayectoria será:
b r r c r r d r r b r r
òa F ×d l = òa F ×d l+ òc F ×d l+ òd F ×d l
(87)
qq 0 æ 1 1 ö
ç – ÷+ 0+ qq 0 ç
æ 1 1 ö
÷
= ç ÷ ç – ÷
4pe 0 è ra rc ø 4pe 0 è rd rb ø

Agrupando los términos, y teniendo en cuenta que rc = rd, el trabajo realizado queda como:
r r qq 0 æ
ç1 – 1÷
ö
ò
b
F ×d l = ç ÷ (88)
a 4pe 0 è ra rb ø

Vemos que el trabajo realizado por la fuerza en una trayectoria compuesta de tramos radiales y circu-
lares sólo depende de la posición inicial de la carga ra y de la posición final rb. Este resultado es válido
independientemente del número de tramos radiales y circulares de la trayectoria seguida por la carga
de prueba, puesto que los demás términos se cancelarán.
Para calcular el trabajo realizado por la fuerza eléctrica cuando la carga de prueba se mueve des-
de la posición inicial a a la posición final b a lo largo de una trayectoria cualquiera, descompondre-
mos dicha trayectoria en un número infinito de tramos radiales y circulares infinitesimales, y aplica-
remos el resultado anterior (fig. 24): el trabajo realizado en los tramos circulares es cero, y el trabajo
realizado en los tramos radiales, según hemos visto anteriormente, sólo depende de la posición inicial
y final. Por consiguiente, el trabajo recorrido por la fuerza eléctrica al recorrer una trayectoria cual-
quiera entre a y b es:
r r qq 0 æ
ç1 – 1÷
ö
ò
b
F ×d l = ç ÷ (89)
a 4pe 0 è ra rb ø

q0

q
Figura 24. La trayectoria de una carga q0 que se
desplaza a lo largo de una trayectoria radial en
el seno de un campo eléctrico creado por una
carga puntual q se puede descomponer en un
a número infinito de tramos radiales y circulares.

Este resultado demuestra que el trabajo realizado por la fuerza eléctrica es independiente de la
trayectoria seguida, y por tanto, la fuerza eléctrica es una fuerza conservativa. En realidad, lo que aca-
bamos de demostrar es que la fuerza eléctrica que una carga puntual ejerce sobre otra de prueba es
una fuerza conservativa. Ahora bien, la fuerza producida por cualquier distribución de cargas es la
suma de todas las fuerzas individuales ejercidas por cada una de las cargas sobre la carga de prueba;
es decir, la fuerza producida por una distribución de carga cualquiera puede escribirse como una
suma de términos semejantes a los de la ley de Coulomb. Por consiguiente, podemos concluir que la
fuerza eléctrica es una fuerza conservativa.

40 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

7. ESTUDIO ENERGÉTICO DEL CAMPO ELÉCTRICO


El concepto de energía introducido en el campo de la mecánica fue posteriormente incorporado
a los demás campos de la física por su gran trascendencia e importancia. En primer lugar, el concepto
de energía permite resolver muchos problemas en los que no se tiene un conocimiento detallado de
las fuerzas involucradas, o en los que la aplicación de las leyes de Newton conduce a cálculos difíci-
les de realizar. Pero, sin duda, el aspecto más interesante del concepto de energía es que es una canti-
dad que se conserva y por tanto supone una característica importante de la naturaleza.
El estudio de la electricidad puede hacerse desde el punto de vista de la energía. Esta descripción
energética del campo eléctrico supone otra forma de abordar los fenómenos eléctricos y nos propor-
ciona una herramienta que simplifica y facilita la resolución de problemas que serían complicados
con un planteamiento en función de fuerzas y campos eléctricos. Por otra parte, esta descripción per-
mite extender el principio de conservación de la energía al campo de la electricidad.

7.1. Energía potencial eléctrica


Puesto que la fuerza eléctrica es conservativa podemos expresar el trabajo realizado por dicha
fuerza sobre una carga de prueba q0 cuando esta se desplaza desde a hasta b en función de la variación
de una magnitud escalar que denominamos energía potencial eléctrica, U:
b r r b r r
DU = – òa F ×d l = – q 0 òa E ×d l (90)

De esta definición, observamos que la diferencia de energía potencial es el trabajo que un agente ex-
terno ha de realizar en contra del campo eléctrico para llevar la carga q0 desde la posición a a la posi-
ción b.
r
Si el campo E es el creado por una carga puntual q, llevando la expresión (17) a la definición an-
terior, encontramos que:
b r r rbæ q ö
DU = – q 0 òa E ×d l = – q 0 òr çç r$ ÷
÷×(drr$ )
è 4pe 0 r
2
a
ø

qq 0 dr qq 0 é 1ùrb
ò
rb
=– = ê ú (91)
4pe 0 ra
r 2 4pe 0 ë r ûra

qq 0 æ
ç1 – 1÷
ö
= ç ÷
4pe 0 è rb ra ø

En física, lo único que tiene sentido son las variaciones de energía potencial. Ahora bien, la
ecuación anterior nos sugiere identificar cada uno de los términos con una función de la posición de la
carga, que llamamos energía potencial:
qq 0
U ( r )= +C (92)
4pe 0 r

en donde C es una constante arbitraria. Si hacemos esto, la expresión (91) se escribe como:
DU = U ( rb ) – U ( ra ) (93)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 41


Volumen II. Física II

Vemos que la función energía potencial, así definida, está indeterminada en una constante C, y por tanto
no tiene sentido hablar de energía potencial de la carga de prueba en un punto mientras no eliminemos
esa indeterminación. Esto puede hacerse si elegimos un origen de energía potencial; esto es, si asigna-
mos un valor a la energía potencial en una posición determinada del espacio. Por lo general, se suele
asignar una energía potencial nula en aquél punto en que la fuerza que actúa sobre la carga de prueba es
nula; es decir, se suele elegir como origen de energía potencial el infinito, de forma que U (¥) = 0. La
elección de este origen supone que la constante C de la expresión anterior es igual a cero. Suprimida la
indeterminación, podremos hablar de la energía potencial de la carga de prueba como una función defi-
nida unívocamente y cuyo valor en cada punto del espacio viene dado por:

qq 0
U ( r )= (94)
4pe 0 r

Podemos encontrar el significado de la energía potencial de la carga q0 en un punto cualquiera del espa-
cio, si llevamos la elección del origen de energía potencial a la ecuación (91). Si hacemos rb = r y ra = ¥,
la ecuación (91) queda como:

r r r
U ( r ) = – ò¥ F ×d l (95)

De esta ecuación se tiene que la energía potencial U(r) de la carga de prueba q0 es igual al trabajo que
un agente externo debe realizar en contra del campo creado por la carga q para llevar la carga q0 des-
de el infinito a una posición separada una distancia r de la carga q.
A continuación vamos a ver cómo podemos determinar la fuerza o el campo eléctrico en cual-
quier punto del espacio a partir de la energía potencial eléctrica. De la expresión (90) se tiene que:
r r
dU = – F ×d l (96)

Descomponiendo cada vector en sus componentes cartesianas se tiene que:

dU = –( Fx i$ + F y $j + Fz k$ )×(dxi$ +dyj$ +dzk$ )


(97)
= – Fx dx – F y dy – Fzdz

Por otra parte sabemos que:


¶U ¶U ¶U
dU = dx + dy+ dz (98)
¶x ¶y ¶z

Comparando ahora la ecuación (97) con la ecuación (98), vemos que las componentes de la fuerza se
relacionan con la energía potencial por:
¶U ¶U ¶U
Fx = – Fy = – Fz = – (99)
¶x ¶y ¶z

Por tanto, si conocemos la función energía potencial podemos determinar inmediatamente las com-
ponentes de la fuerza y del campo eléctrico.

42 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

La relación entre la fuerza y la energía potencial se puede expresar de forma más compacta en
función del operador nabla. Para ello, escribamos la fuerza en forma vectorial, utilizando las relacio-
nes dadas por (99):
r ¶ U $ ¶ U $ ¶U $ æ¶ ¶ ¶ ö
F=– i– j– ç i$ + $j + k$ ÷
k = –ç ÷U (100)
¶x ¶y ¶z è ¶x ¶y ¶z ø

Si ahora tenemos en cuenta la definición del operador nabla dada por (82), obtenemos finalmente
que:
r r
F = – ÑU (101)

7.1.1. Energía potencial de una partícula en el seno de un campo creado por


una distribución discreta de cargas
Si la carga de prueba se encuentra en un campo creado por un conjunto de N cargas qi, por el prin-
cipio de superposición, se tendrá que:
b r r rbæ r ö r
N

DU = – q 0 òa E ×d l = – q 0 òr çç å Ei ÷
÷×d l
a
è i= 1 ø
(102)
N
r r
= – q 0 å òa
b
E i ×d l
i= 1

Mediante un proceso análogo al seguido anteriormente en el caso de una carga puntual, y toman-
do como origen de energía potencial el infinito (U (¥) = 0), obtenemos que:

r r r b r r
N

U ( r ) = – ò¥ F ×d l = – q 0 å ò¥ E i ×d l (103)
i= 1

Si ahora tenemos en cuenta la expresión del campo creado por una carga puntual y lo sustituimos en
la ecuación anterior, integrando se tiene que:

N
q0 qi
U ( r )=
4pe 0
år (104)
i= 1 i

en donde ri es la distancia de la carga de prueba q0 a cada una de las cargas qi del sistema que produce
el campo.
La expresión (104) nos da la energía potencial de la carga de prueba q0 en el seno de un campo
eléctrico creado por un conjunto de cargas puntuales qi. Su significado lo encontramos a partir de
(103):
Esta energía potencial es el trabajo que un agente externo ha de realizar en contra del
campo para traer la carga q0 desde el infinito a una posición en el espacio tal que la distan-
cia al conjunto de cargas qi viene dada por ri.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 43


Volumen II. Física II

7.1.2. Energía potencial de un sistema de cargas


Como hemos indicado anteriormente, la expresión (104) nos da la energía potencial de la carga de
prueba q0 en el seno de un campo eléctrico creado por un conjunto de cargas puntuales qi, y no debe
confundirse con la energía potencial de un sistema de cargas. Esta energía corresponde al trabajo que un
agente externo debe realizar para traer desde el infinito cada una de las cargas del sistema y colocarlas
en sus posiciones Pi en el sistema. Es por tanto una energía de configuración del sistema de cargas. Ana-
licemos a continuación cómo calcular dicha energía. Lo haremos para un caso concreto y luego exten-
deremos el resultado obtenido para el caso general.
Supongamos que tenemos un conjunto de tres cargas q1, q2 y q3 infinitamente alejadas de una re-
gión del espacio que consideramos vacía. Para traer la carga q1 desde el infinito a su posición P1 no es
necesario realizar ningún trabajo, ya que el agente externo no tiene que vencer ninguna fuerza. Para
traer la segunda carga q2 a su posición P2 es necesario realizar un trabajo en contra del campo creado
por la carga q1 que consideramos fija en su posición P1. Este trabajo es igual a:
q1 q2
U 12 = (105)
4pe 0 r12

en donde r12 es la distancia entre las cargas q1 y q2.


Para traer una tercera carga a su posición P3 se ha de realizar un trabajo en contra del campo creado
por las cargas q1 y q2. De acuerdo con (103) y (104) este trabajo es igual a:
q1 q3 q q
U 13 +U 23 = + 2 3 (106)
4pe 0 r13 4pe 0 r23

en donde r13 y r23 son las distancias de la carga q3 a las cargas q1 y q2, respectivamente.
El trabajo total que hay que hacer para configurar el sistema es la suma de los trabajos que hemos
encontrado en cada uno de los procesos anteriores:
1 æ ö
ç q1 q2 + q1 q3 + q2 q3 ÷
U = U 12 +U 13 +U 23 = ç ÷ (107)
4pe 0 è r12 r13 r23 ø

Este resultado lo podemos generalizar para el caso de un sistema de N cargas qi, y la energía po-
tencial del sistema de cargas viene dada por:

N N
1 qi q j
U=
4pe 0
åå rij
(108)
i= 1 j> i

en donde rij es la distancia entre las cargas qi y qj. En la expresión anterior vemos que el sumatorio se
extiende a cada pareja de cargas del sistema, de ahí la restricción que j > i. Esta expresión es equiva-
lente a:

N N
1 1 qi q j
U=
2 4pe 0
åå rij
(109)
i= 1 j= 1
j¹ 1

en donde el factor 1/2 se introduce para no contabilizar dos veces la contribución que cada pareja de
cargas hace a la suma total.

44 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

7.2. Potencial eléctrico


En las secciones anteriores hemos visto que la fuerza eléctrica que actúa sobre una carga de prueba
r
q0 es proporcional al valor de dicha carga. También se introdujo el concepto de campo eléctrico E y se
discutió que la existencia de un campo eléctrico en una determinada región del espacio se detecta por la
fuerza que experimenta una carga de prueba q0 colocada en esa región. Así, se definió el campo eléctri-
co creado por una distribución de carga como la fuerza que experimenta una carga de prueba q0 dividida
por dicha carga:
r
r F
E=
q0

El campo eléctrico es por tanto una magnitud que depende exclusivamente de la distribución de carga
que lo produce y no depende de la carga de prueba q0 utilizada para detectarlo.
Podemos proceder de forma análoga con la energía potencial de una carga de prueba en el seno
del campo creado por una distribución de carga. Como hemos visto en el apartado anterior, la ener-
gía potencial de la carga q0 es proporcional a su valor, se define el potencial eléctrico como la ener-
gía potencial de la carga de prueba por unidad de carga; es decir, el potencial eléctrico V se define
como:
U
V= (110)
q0

Por tanto, al igual que el campo eléctrico, el potencial eléctrico


r es una función que depende exclusi-
vamente de la distribución de carga. Además, al igual que E el potencial V tiene un valor para cada
punto del espacio, por lo que es un campo escalar. La unidad de potencial en el sistema internacional
es el J/C (julio por culombio), y la denominamos voltio (V).

7.2.1. Potencial creado por una distribución discreta de carga


El potencial producido por una distribución de cargas en un punto cualquiera del espacio lo en-
contramos inmediatamente dividiendo la expresión (104) por q0:

N
1 qi
V ( r )=
4pe 0
år (111)
i= 1 i

donde ri es la distancia del punto donde se calcula el potencial a cada una de las cargas qi de la distri-
bución.
En el caso más simple de que la distribución de cargas se reduce a una sola carga q, el potencial
en un punto del espacio viene dado por:

q
V ( r )= (112)
4pe 0 r

siendo r la distancia del punto donde se calcula el potencial a la carga q.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 45


Volumen II. Física II

7.2.2. Potencial creado por una distribución continua de carga


Para una distribución continua de carga, la expresión (111) se transforma en:
1 dq'
V=
4pe 0
ò
V
r r
| r – r' |
(113)

r
en donde r determina la posición del punto donde calculamos el potencial y r' determina la posición
del elemento de volumen que contiene la carga dq'.
Esta expresión se puede escribir de forma más conveniente en función de la densidad de carga de
la distribución, como:

1 rdV '
V=
4pe 0
ò
V
r r
| r – r' |
(114)

Conocido el potencial en cualquier punto del espacio, a partir de la definición de potencial dada
por (110), es inmediato calcular la energía potencial de cualquier carga q’ (respecto a su energía en el
infinito que tomamos cero):

U = q'V (115)

A menudo es frecuente calcular energías multiplicando una carga por un potencial. Puesto que la
unidad de carga e, que es la carga del electrón o protón, es utilizada asiduamente, es interesante intro-
ducir una unidad de energía igual a la carga del electrón por 1 voltio. Esta unidad de energía, muy útil
en física atómica y nuclear, se denomina electrón-voltio (eV), y corresponde a la energía ganada por
un electrón cuando es acelerada a través de una diferencia de potencial de un voltio:

1eV= (1,6´10–19 C)(1V) = 1,6´10–19 J (116)

7.2.3. Diferencia de potencial


La definición que hicimos anteriormente de potencial eléctrico está basada en el origen que
elegimos para la energía potencial (U (¥) = 0). Por tanto, el origen de potencial eléctrico también
será el mismo (V (¥) = 0). Ahora bien, como ya comentamos, lo único que físicamente tiene sen-
tido son las diferencias de energía y en consecuencia las diferencias de energía potencial entre
dos puntos.
Dividiendo la expresión (90) por la carga q0, obtenemos que la diferencia de potencial entre dos
puntos del espacio viene dada por:
DU b r r
DV = = – òa E ×d l (117)
q0

Expresión que podemos escribir en función del potencial en los puntos inicial y final como:

b r r
Vb – Va = – òa E ×d l (118)

46 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

7.2.4. Relación entre E y V


Al igual que la fuerza eléctrica puede obtenerse a partir de la energía potencial mediante la ex-
presión (101), de forma análoga puede obtenerse el campo eléctrico a partir del potencial. En efecto,
dividiendo la ecuación (101) por q0 se tiene que:
r r
F 1 r ÑU
=– ÑU = – (119)
q0 q0 q0

Y teniendo en cuenta la definición de campo eléctrico y potencial eléctrico, se tiene que:


r r
E = – ÑV (120)

7.2.5. Ecuaciones de Laplace y Poisson


En los apartados anteriores hemos encontrado algunas expresiones que nos permite encontrar el
potencial eléctrico creado por una distribución discreta o continua de carga a partir de dichas distribu-
ciones. No obstante, también es posible formular el potencial a través de una simple ecuación diferen-
cial que se aplica a una región del espacio junto con unas condiciones de contorno que establecen las
restricciones que debe satisfacer el potencial en los límites o fronteras de dicha región. Esta ecuación
se deduce directamente de la ecuación diferencial de la ley de Gauss. Si sustituimos en esta ecuación
la relación diferencial entre el campo eléctrico y el potencial, se obtiene inmediatamente que:

r
Ñ 2V = – (121)
e0

Esta ecuación se denomina ecuación de Poisson. En coordenadas cartesianas queda como:

¶ 2V ¶ 2V ¶ 2V r
Ñ 2V = + 2 + 2 =– (122)
¶x 2
¶y ¶z e 0

En el caso particular de una región en donde hay fuentes del campo eléctrico r = 0, la ecuación ante-
rior se reduce a la ecuación de Laplace:

¶ 2V ¶ 2V ¶ 2V
Ñ 2V = + + =0 (123)
¶x 2 ¶y 2 ¶ z 2

La teoría clásica de campos, al menos desde el punto de vista matemático, trata fundamental-
mente del estudio de las soluciones de la ecuación de Laplace, soluciones que reciben el nombre de
funciones armónicas. Se puede demostrar que si se especifica el valor del potencial en todos los pun-
tos de las fronteras de una región, entonces la solución de la ecuación de Laplace es única (teorema de
unicidad). Este teorema es de gran importancia práctica puesto que si de alguna manera podemos en-
contrar un potencial que satisfaga la ecuación de Laplace y las condiciones de frontera, sabemos que
esta solución es la correcta pues es la única posible. En muchos casos prácticos es imposible expresar
de forma simple, en ningún sistema de coordenadas, las condiciones de frontera, por lo que la resolu-
ción de la ecuación de Laplace ha de hacerse por métodos gráficos o bien numéricamente.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 47


Volumen II. Física II

7.2.6. Superficies equipotenciales


y Hemos visto que un campo vectorial como el campo
eléctrico se puede representar gráficamente mediante líneas
de campor que son tangentes en cada punto a la dirección del
campo E en dicho punto. Así, estas líneas nos proporcionan
información sobre la dirección del campo eléctrico en cada
- + x
punto del espacio.
Un campo escalar, como el campo de potencial eléctrico,
puede representarse gráficamente mediante las denominadas
superficies del nivel o equipotenciales, que son los lugares geo-
métricos de los puntos del espacio en los que el campo (en nues-
tro caso el potencial) toma el mismo valor. En la figura 25 repre-
Figura 25. Representación gráfica
mediante superficies equipotenciales sentamos las superficies equipotenciales del campo creado por
de potencial eléctrico del campo dos cargas: una positiva y otra negativa.
creado por dos cargas iguales, una Si un campo es conservativo entonces la intensidad del
positiva y otra negativa.
campo deriva de un potencial. Como, según la expresión (120),
la intensidad del campo es el gradiente del potencial (cambiado
de signo), entonces las superficies equipotenciales son perpendiculares a las líneas de campo. Un razona-
miento sencillo nos permite ver que esto es así. Puesto que la energía potencial de una carga q es la misma
en todos los puntos de una superficie equipotencial, el trabajo elemental realizado
r rpor el campo en un des-
plazamiento infinitesimal sobre una superficie equipotencial res cero, dW = F ×dr = 0. Esto significa que
r
la dirección de la fuerza es perpendicular al desplazamiento, F^dr. Como el desplazamiento es sobre una
superficie equipotencial entonces la fuerza, y el campo, es perpendicular a dicha superficie.

7.3. Densidad de energía en un campo electrostático


Hemos visto que la energía potencial de una distribución discreta de carga es:
N N
1 1 qi q j
U=
2 4pe 0
åå rij
i= 1 j= 1
j¹ 1

Expresión que podemos escribir como:


æ ö
N ç N
qj ÷
1 1
U = å q iç å r ÷÷ (124)
2 i= 1 ç
ç 4pe 0 j= 1 ij ÷
è j¹ 1 ø

Si comparamos la expresión encerrada entre paréntesis con la expresión (111) del potencial creado
por una distribución de carga, observamos que dicho término corresponde al potencial, en el sistema
sin modificar, debido a todas las cargas excepto qi en el punto ocupado por esta:
N
1 qj
Vi =
4pe 0
år (125)
j= 1 ij
j¹ i

48 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

Reemplazando la expresión entre paréntesis de la ecuación (124) por Vi, se tiene para la energía po-
tencial:
N
1
U= åq V
2 i= 1 i i
(126)

Esta expresión se puede extender para una distribución continua de carga eléctrica, de densidad r,
sustituyendo qi por rdV´ y el sumatorio por una integral. Haciendo esto, tenemos que:
1
U= ò VrdV '
2 V'
(127)

en esta expresión es importante no confundir el potencial eléctrico V con el volumen V´ que encierra a
la distribución continua de carga.
La ecuación de Poisson nos relaciona el potencial con la densidad de carga en cada punto del es-
pacio. Despejando la densidad de carga en la ecuación de Poisson:
r = – e 0 Ñ 2V (128)

Y sustituyendo esto en la ecuación (127)


e0
U=–
2
ò V'
VÑ 2VdV ' (129)

Esta ecuación se puede simplificar si utilizamos la igualdad vectorial:


r r r r r r
Ñ×( fA ) = f ( Ñ× A )+ A ×Ñf (130)
r
en r f y A son una función escalar y una función vectorial, respectivamente. Si hacemos f = V y
r donde
A = ÑV , de la expresión anterior se tiene que:
r r r
VÑ 2V = Ñ×(VÑV ) – ( ÑV ) 2 (131)

Sustituyendo este resultado en (129):


e0 r r r
U=–
2
[òV'
Ñ×(VÑV ) dV ' – òV ' ( ÑV ) 2 dV ' ] (132)

La primera integral del segundo miembro la podemos transformar utilizando el teorema de la diver-
gencia en una integral extendida a la superficie S´ que limita el volumen V´:
e0
U=–
2
[ò S'
]
(VÑV ) dS ' – òV ' ( ÑV ) 2 dV ' (133)

Puesto que V´ es un volumen cualquiera que encierra a la distribución continua de carga podemos ele-
girlo de forma que S´ esté muy alejada de la distribución. V decrece al menos como 1/r y ÑV lo hace
como 1/r2. Puesto que la superficie crece como r2 la primera integral de la expresión anterior decrece
como 1/r y por tanto se puede hacer arbitrariamente pequeña tomando S´ lo suficientemente alejada.
En consecuencia, la ecuación (133) se reduce a:
e0
U=
2
ò V'
( ÑV ) 2 dV ' (134)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 49


Volumen II. Física II

r r
Por último, si tenemos en cuenta que E = – ÑV , nos queda finalmente que:

e0
U=
2
ò
V'
E 2dV ' (135)

Esta ecuación indica que la energía asociada a una distribución continua de carga, es decir, la energía
necesaria para reunirla, partiendo de que se encuentra en un volumen en el infinito, se puede calcular
asociando a cada punto del campo una densidad de energía dada por:

dU e 0 2
= E (136)
dV ' 2

Esta expresión de la energía asociada a los puntos del campo es válida incluso para el caso de campos
variables. En la presencia de medios dieléctricos el factor e 0 2es diferente, pero la densidad de ener-
gía es proporcional al cuadrado del campo eléctrico.

50 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Naturaleza eléctrica de la materia

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano, Bogotá,


1971.
Feynman, R. P., Leighton, R. B. y Sand, M.: Física. Fondo Educativo Interame-
ricano, Bogotá, 1972.
Fishbane, P. M., Gasiorowicz, Z. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall, Upper, Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-
Hill, Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall, México, 1988.
Holliday, D. y Resnick, R.: Física. CECSA, México, 1983.
Holton, G. y Brush, S. G.: Introducción a los conceptos y teorías de las ciencias
físicas. Editorial Reverté, S.A., Barcelona, 1989.
Lorrain, P. y Corson, D. R.: Campos y ondas electromagnéticos. Selecciones
Científicas, Madrid, 1972.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté, Barcelo-
na, 1986.
Purcell, E. M.: Electricidad y magnetismo. Editorial Reverté, Barcelona, 1980.
Tipler, P. A.: Física. Editorial Reverté, Barcelona, 1992.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 51


TEMA

20
Corriente eléctrica. Circuitos
de corriente continua.
Conservación de la energía:
ley de Ohm. Utilización
de polímetros

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. CORRIENTE ELÉCTRICA
1.1. Densidad de corriente
1.2. Ley de conservación de la carga: ecuación de continuidad

2. RESISTENCIA. LEY DE OHM


2.1. Resistividad y conductividad
2.2. Forma microscópica de la ley de Ohm
2.3. Modelo clásico de la conducción en metales
2.4. Resistencia como elemento de circuito
2.4.1. Asociación de resistencias

3. ENERGÍA DISIPADA EN LOS CONDUCTORES. LEY DE JOULE

4. CIRCUITOS ELÉCTRICOS
4.1. Fuerza electromotriz
4.2. Las reglas de Kirchhoff
4.2.1. Análisis de circuitos
4.3. Circuitos equivalentes
4.3.1. Teorema de Thévenin
4.3.2. Teorema de Norton

5. POLÍMETROS
5.1. Amperímetros
5.2. Voltímetro
5.3. Ohmímetro

6. DETERMINACIÓN DE RESISTENCIA MEDIANTE UN PUENTE


DE WHEATSTONE

BIBLIOGRAFÍA

54 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

1. CORRIENTE ELÉCTRICA
La corriente eléctrica es el flujo de cargas en una determinada región del espacio. Aunque usual-
mente asociamos una corriente eléctrica al flujo de cargas en un conductor o en un determinado mate-
rial de un circuito, cualquier flujo de cargas determina una corriente eléctrica, como por ejemplo, el
haz de electrones en un tubo de televisión.
Se define la corriente eléctrica o intensidad de la corriente eléctrica I como la cantidad neta de car-
ga transportada a través de un área determinada por unidad de tiempo. Si suponemos que la carga que
atraviesa la superficie en un intervalo de tiempo Dt es DQ, la corriente promedio áIñ viene dada por:

DQ
I = (1)
Dt

Si la corriente cambia con el tiempo, definimos la corriente instantánea I tomando el límite cuando
Dt ® 0:

DQ dQ
I = lim = (2)
Dt® 0 Dt dt

En el sistema internacional la unidad de corriente es el cu-


lombio por segundo y se denomina amperio (A). Puesto que el I
amperio es una unidad de corriente bastante grande es frecuen-
te dar la corriente en miliamperios (mA = 10–3 A), microampe- _ _
rios (mA = 10–6 A) y nanoamperios (nA = 10–9 A). + +
+
_ _ +
La corriente eléctrica es una magnitud escalar que puede
ser positiva o negativa. En circuitos, es útil expresar este signo
de la corriente mediante una flecha que indica una dirección del
flujo de las cargas. Ahora bien, aunque sabemos que en los me- Electrones Iones fijos
tales las cargas que fluyen son los electrones, por convenio se móviles
elige la dirección de la corriente como aquella en que fluyen las
cargas positivas (fig.1). Esto significa que un flujo de cargas po- Figura 1. Dirección convencional
sitivas en una dirección es exactamente equivalente a un flujo de de la corriente eléctrica.
la misma cantidad de cargas negativas en sentido contrario.

1.1. Densidad de corriente


Supongamos una región del espacio caracterizada
r por una densidad n de partículas con carga posi-
tiva q, y en la que existe una campo eléctrico E. Cada partícula experimentará una fuerza dada por:
r r
F = qE (3)

Si la partícula puede moverse libremente adquirirá una aceleración, que según la segunda ley de
Newton será:
r
r F
a= (4)
m
siendo m la masa de cada partícula cargada. Por tanto, en ausencia de cualquier restricción, la velocidad
de la partícula aumentará indefinidamente con el tiempo (u = at) debido a que el campo eléctrico es

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 55


Volumen II. Física II

constante. Sin embargo, por regla general, tal y como pasa en los conductores sólidos, líquidos o gaseo-
sos, las partículas comisionan sucesivamente con otras partículas, perdiendo así parte de su energía ci-
nética que se transforma en energía térmica, a la vez que tienen lugar cambios aleatorios en la dirección
de su movimiento. Si el campo eléctrico es constante y el medio es homogéneo, el efecto neto de los
choques es limitar la velocidad de la partícula cargada a una velocidad promedio constante denominada
velocidad de arrastre o de deriva ud paralela al campo eléctrico.

dV
Z
E +
+
Z
v q
^
n
+
+ +

+ + Figura 2. Desplazamiento de
partículas cargadas en el
+ seno de un campo eléctrico.

Calculemos ahora el flujo de cargas a través de una superficie A. Puesto en un intervalo de tiempo dt
las partículas se desplazan una cantidad igual a uddt, esto significa que todas las partículas que se encuen-
tren en el interior del volumen dV de la figura 2 atravesarán dicha superficie en ese intervalo de tiempo. Si
llamamos q al ángulo formado por el vector normal a la superficie con la velocidad ud, el elemento de vo-
lumen será igual a dV = Auddt cosq. La carga total en ese volumen es dQ = nqdV = nqAuddt cosq; y por
consiguiente, la corriente eléctrica a través de la superficie A es:
dQ
I= = nqu d A cos q (5)
dt

r
Si tenemos en cuenta ahora que u d × An$ = u d A cos q, siendo n$ el vector unitario en la dirección per-
pendicular a la superficie, la expresión anterior la podemos escribir en forma vectorial como:
r
I = ( nqu d )×( An$ ) (6)
r
Se define la densidad de corriente J como:
r r r
J = nqu d = r q u d (7)

en donde rq = nq es la densidad de carga.


La densidad de corriente tiene por tanto dimensiones de corriente por unidad de superficie, y en
el SI será de amperios por metro cuadrado.
En el caso más general, la densidad de corriente no es constante y es una función que varía de un
punto a otro del espacio. En este caso, la corriente a través de una superficie elemental dA viene dada
por:
r
dI = J ×n$ dA (8)

y la corriente neta que atraviesa la superficie A vendrá dada por:


r
I = òA J ×n$dA (9)

56 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

Si la corriente eléctrica es debida al flujo de varios tipos de portadores de carga, si denominamos por
ni su densidad, qi su carga y udi su velocidad de arrastre, la densidad de corriente vendrá dada por:
r N
r
J = å n i q i u di (10)
i= 1

En el caso en que tengamos sólo dos tipos de portadores de carga, la ecuación anterior se reduce a:
r r r
J = n1 q1 u d 1 + n2 q2 u d 2 (11)

Si estos portadores tienen cargas de signo opuesto, se moverán en el campo en direcciones opuestas
también, por lo que los dos términos de la ecuación anterior llevarán la misma dirección. En conse-
cuencia, vemos que la definición que hemos hecho de densidad de corriente está de acuerdo con el he-
cho experimental de que los efectos de una corriente de portadores positivos moviéndose en una de-
terminada dirección son los mismos que el de una corriente de portadores negativos con igual carga
moviéndose en dirección opuesta con la misma velocidad.

1.2. Ley de conservación de la carga: ecuación de continuidad


Consideremos una determinada región del espacio V limitada por una superficie A atravesada
por una cierta corriente eléctrica. Si llamamos Ii a la corriente que entra a la superficie e Io a la corrien-
te que sale de la superficie, la corriente neta Ineta a través de dicha superficie, que es la igual a la dife-
rencia de la de salida y la de entrada, la podemos escribir en función de la densidad de corriente como:
r r
I neta = I 0 – I i = òA J ×dA (12)

Es evidente que, en el caso en que se tenga una corriente estacionaria la corriente de entrada y la de sa-
lida deben ser iguales, por lo que la integral anterior ha de hacerse cero. Ahora bien, si la densidad de
corriente varía con el tiempo, puesto que en el interior del volumen no se puede crear carga, la varia-
ción entre la corriente de entrada y la de salida ha de ser igual a la disminución de la carga en el inte-
rior del volumen. En consecuencia, se tiene que:
r r ¶q
òA
J ×dA = –
¶t
(13)

Veamos cómo podemos escribir esta ecuación en una forma más compacta. Por un lado, si denomina-
mos r a la densidad de carga en el volumen, la variación de la carga la podemos expresar en función
de la densidad como:
¶q

¶t
=–

¶t
(ò rdV ) = – ò ¶¶qt dV
V V
(14)

Por otro lado, del teorema de la divergencia, se tiene que:


r r r r
òA J ×dA = òV Ñ×JdV (15)

Llevando las expresiones (14) y (15) a (13), y agrupando términos, obtenemos que:
æ r r ¶r ö
ò çèÑ×J + ¶t ÷ødV = 0
V
(16)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 57


Volumen II. Física II

De donde se tiene que, al ser V un volumen arbitrario, se ha de cumplir que:

r r ¶r
Ñ×J + = 0 (17)
¶t

Esta ecuación recibe el nombre de ecuación de continuidad y se basa en el principio de conservación


de la carga eléctrica. Por tanto, no es mas que la formulación matemática de este principio en condi-
ciones no estacionarias: la carga eléctrica no puede salir de ningún lugar a no ser que disminuya la
cantidad que existe en ese mismo lugar.
En el caso de una corriente estacionaria (r = cte) la ecuación de continuidad se reduce a:
r r
Ñ×J = 0 (18)

Cualquier función vectorial cuya divergencia es igual a cero se dice que es solenoidal. Es por
esto por lo que decimos que la corriente estacionaria es solenoidal.

2. RESISTENCIA. LEY DE OHM


Al aplicarle una diferencia de potencial V entre los extremos de un trozo de material conductor,
como puede ser un alambre metálico, se produce una corriente eléctrica I. La cantidad de corriente
que circula por el conductor, para una diferencia de potencial dada, depende de las propiedades del
material y de su geometría.
Se define la resistencia eléctrica, R, de un material como la relación entre la diferencia de poten-
cial aplicado y la corriente que circula por él:

V
R= (19)
I

La resistencia eléctrica es una medida de la oposición que ejerce un trozo de material al flujo de
carga a través de él. En los materiales con mayor resistencia, una misma diferencia de potencial pro-
duce un flujo de cargas menor que en los materiales de menor resistencia. La unidad de resistencia en
el sistema internacional es el ohmio (W) que es igual a la resistencia de un material por la que circula
una corriente de un amperio (A) cuando la diferencia de potencial es un voltio (V):
V
1W = 1 (20)
A

El nombre de ohmio dado a la unidad de resistencia es en honor de George Simon Ohm (1787- 1854) que
fue el primero en estudiar sistemáticamente la relación entre la diferencia de potencial aplicada a un
conductor y la corriente que fluye por él. En 1826 publicó los resultados de sus investigaciones expe-
rimentales que establecían que para una gran variedad de materiales, entre los que se incluían la ma-
yoría de los metales, la resistencia era constante en un gran rango de diferencias de potencial. Esta
afirmación constituye la ley de Ohm, y que tradicionalmente se escribe como:

V = RI (21)

en donde R es independiente de la diferencia de potencial V.

58 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

La ley de Ohm no corresponde a un hecho fundamental de la naturaleza, sino que corresponde a


una expresión empírica que describe adecuadamente el comportamiento de muchos materiales en un
determinado rango de diferencias de potencial. Por consiguiente, el término ley probablemente no
sea demasiado correcto, en el sentido que su rango de validez es en muchos casos muy limitado.
Los materiales cuya resistencia es constante en un amplio rango de diferencias de potencial se
denominan óhmicos, y los que no obedecen la ley de Ohm se denominan no-óhmicos. Para los mate-
riales óhmicos la representación gráfica de la diferencia de potencial frente a la corriente corresponde
a una línea recta, mientras que para un material no-óhmico la relación entre V e I no es lineal (fig. 3).

V
No-óhmico

Óhmico

Figura 3. Característica tensión


corriente para un material óhmico y
I otro no-óhmico.

El recíproco de la resistencia se denomina conductancia y se representa por G:


1
G= (22)
R

La unidad de conductancia en el sistema internacional es el recíproco del ohmio, que se denomina


mho (ohm escrito al revés) y se representa como W–1, mho, o con una letra omega invertida É:
–1
1W = 1 mho = 1 É (23)

2.1. Resistividad y conductividad


La resistencia de un material depende no sólo de su composición sino también de su forma y de
su tamaño.
Experimentalmente se encuentra que si aplicamos una diferencia de potencial a una muestra de
un determinado material y medimos la corriente que circula por él, ésta se reduce a la mitad para una
muestra exactamente igual pero de longitud doble sometida a la misma diferencia de potencial. Si re-
pitiéramos este experimento para diferentes longitudes L de la muestra, encontraríamos que la resis-
tencia es directamente proporcional a su longitud: R µ L.
Por otro lado, si experimentamos ahora con muestras idénticas de un mismo material que sólo di-
fieren en su sección encontraríamos que la resistencia es inversamente proporcional a la sección del ma-
terial conductor: R µ 1/A.
Además de las variaciones con el tamaño, la resistencia de un material depende de la sustancia
que lo compone. Esta dependencia se representa con un coeficiente de proporcionalidad que denomi-
namos resistividad del material, r, que es independiente de su forma, y que sólo depende de su com-
posición. De todo esto se tiene, que la resistencia de un determinado material puede expresarse como:
L
R= r (24)
A

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 59


Volumen II. Física II

Por tanto, la resistividad puede expresarse para una muestra de material de sección homogénea A y de
longitud L como:
A
r= R (25)
L

Así pues, la resistividad tiene dimensiones de resistencia


por longitud, y su unidad en el sistema internacional será el
ohmio por metro (W · m).
r (10-8 W·m)

8 La resistividad de un material es una función de la


temperatura, y en muchos conductores metálicos varía casi
linealmente con la temperatura, como se muestra en la figu-
4 ra 4 para el cobre. En un intervalo amplio de temperaturas
podemos escribir:
0 r = r 0 [1+ a(T – T0 )] (26)
-200 0 400 800 1200

T (ºC) en donde r es la resistividad a la temperatura T, r0 es la resisti-


vidad a una temperatura de referencia (normalmente 20ºC), y
Figura 4. Variación de la resistividad a se denomina coeficiente térmico de la resistividad. En la ta-
con la temperatura del cobre. bla 1 se dan los valores de la resistividad y del coeficiente tér-
mico de la resistividad para algunos metales.
A bajas temperaturas, por debajo de 20 K, la dependencia de la resistividad de los metales con la
temperatura se aparta de la linealidad. En este rango de temperaturas la resistencia de una metal de-
pende fuertemente de las cantidades de impureza que contenga. De ahí, que la medida de la resistivi-
dad a bajas temperaturas sea un método para determinar el grado de impureza de los metales.

Material r (W · m) a (K–1)

Plata 1.6 ´ 10–8 3.8 ´ 10–3


Cobre 1.7 ´ 10–8 3.9 ´ 10–3
Aluminio 2.8 ´ 10–8 3.9 ´ 10–3
Tungsteno 5.5 ´ 10–8 4.5 ´ 10–3
Hierro 10 ´ 10–8 5.0 ´ 10–3
Plomo 22 ´ 10–8 4.3 ´ 10–3
Mercurio 96 ´ 10–8 0.9 ´ 10–3
Carbono 3500 ´ 10–8 –0.5 ´ 10–3
Germanio 0.45 –4.8 ´ 10–3
Silicio 640 –7.5 ´ 10–3
Madera 108 – –1014
Vidrio 1010 – –1014
Goma dura 1013 – –1016
Ámbar 5 ´ 1014
Azufre 1 ´ 1015

Tabla 1. Resistividad y coeficiente térmico


de algunos materiales a 20º C.

60 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

El recíproco de la resistividad se denomina conductividad y la representamos por s (no confun-


dir con la densidad superficial de carga):
1
s= (27)
r

De la expresión de la resistividad en función de la resistencia (25), obtenemos que la conductividad


puede escribirse como:
L
s= (28)
AR

La unidad de conductividad es el recíproco del ohmio por metro y se representa como (w · m)–1 o bien
también se escribe como mho · m–1, o como Ém–1.

2.2. Forma microscópica de la ley de Ohm


Supongamos un material conductor homogéneo e isótropo Z
como el de la figura 5, y consideremos un volumen elemental E
imaginario, de forma cúbica, de longitud l y sección transversal a,
alrededor de un punto P. Z a
P Z
La corriente eléctrica a través del volumen cúbico puede l J
escribirse en función de la densidad de corriente como I = Ja.
Por otro lado, la diferencia de potencial entre las caras del ele-
mento de volumen viene dada en función del campo eléctrico
como V = El. Por tanto, aplicando la ley de Ohm se tiene que: Figura 5. Material conductor con
una pequeña celda imaginaria
El= RJa (29) que rodea al punto P.

De donde se tiene que:


l
J= E (30)
aR

Expresión que, si tenemos en cuenta la relación (28), puede escribirse como:


J = sE (31)

Esta expresión nos relaciona el módulo de la densidad de corriente con el módulo del campo eléctri-
co. Si ahora hacemos que el volumen de forma cúbica tan pequeño como se quiera encontraremos una
relación puntual entre la densidad de corriente y el campo, que la podemos escribir en forma vectorial
como:
r r
J = sE (32)

Esta relación nos dice que la densidad de corriente es paralela al campo eléctrico lo que es cierto en el
caso de que tengamos un material isótropo y homogéneo como el que hemos considerado. En el caso
en que exista alguna dirección espacial privilegiada en el sólido, la conductividad escalar s habría
que sustituirla por un tensor.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 61


Volumen II. Física II

2.3. Modelo clásico de la conducción en metales


El entendimiento correcto de la resistividad de un material requiere de la mecánica cuántica. No
obstante, vamos a presentar un modelo sencillo que permite comprender la ley de Ohm, propuesto en
1900 por Paul Drude (1863-1906) y denominado modelo de electrones libres, modelo de Drude o
modelo clásico de la conducción eléctrica. El modelo predice la ley de Ohm y relaciona la conductivi-
dad de los conductores con el movimiento de los electrones libres en su interior.
Aunque este modelo presenta deficiencias fundamentales, nos va a permitir profundizar en el
concepto de resistividad, y, además, nos va a servir como ejemplo de cómo se procede en la construc-
ción de modelos en física y de cómo se pueden juzgar los éxitos y fracasos del mismo.
La hipótesis básica del modelo consiste en suponer que cuando los átomos de un elemento metálico
se unen para formar un sólido, los electrones de valencia, los electrones poco ligados a los átomos aisla-
dos, son separados de los átomos y pueden moverse libremente, mientras que los iones positivos perma-
necen inmóviles en el material. Es decir, se considera que un metal es una disposición regular de iones con
un gran número de electrones libres que pueden moverse en su interior. La densidad de estos electrones li-
bres ne es el producto del número de electrones de valencia por átomo por la densidad de átomos en el ma-
terial. Aunque esta densidad es muy grande y a pesar de la fuerte interacción electromagnética elec-
trón-electrón y electrón-ion, Drude aplicó a este gas de electrones libres los métodos de la teoría cinética
de un gas diluido con algunas modificaciones. Las hipótesis del modelo son las siguientes:
1. Entre colisiones se desprecian las interacciones de un electrón dado, con los iones (aproxima-
ción de electrones libres) y con los demás electrones (aproximación de electrones independien-
tes). De esta manera se supone que los electrones se mueven de acuerdo a la ley de Newton en
presencia de un campo eléctrico externo pero se desprecia los campos creados por los iones y el
resto de electrones.
2. Las colisiones son instantáneas, como en la teoría cinética, y cambian bruscamente la velocidad
de los electrones, debido a los choques con los iones del sólido y no al choque entre electrones.
3. Cada electrón experimenta una colisión con una probabilidad de 1/t por unidad de tiempo. Es
decir, que la probabilidad de que un electrón colisione en un intervalo de tiempo dt es dt/t. El
tiempo t se conoce con el nombre de tiempo de relajación o tiempo libre medio.
4. Los electrones alcanzan el equilibrio térmico con sus vecinos a través de las colisiones. Así, des-
pués de cada colisión los electrones salen con una velocidad que no depende de la velocidad con
la que chocaron, sino que salen en direcciones aleatorias y cuyo módulo de acuerdo a la tempe-
ratura predominante en el lugar donde se produjo la colisión. Cuanto más caliente sea la región
del choque, más rápido saldrán los electrones de la colisión.
En cualquier punto del metal, los electrones se mueven en todas direcciones y con una gran va-
riedad de energías térmicas. La densidad de corriente vendrá dada por:
r r
J = – ne u (33)
r
en donde u es la velocidad media de los electrones.
En ausencia de campo eléctrico, los electrones se mueven de forma aleatoria y la velocidad mediar
de los electrones es cero, por lo que no hay corriente eléctrica. En presencia de un campo eléctrico E ha-
brá una velocidad media opuesta al campo, debido a la carga negativa del electrón, r que podemos calcu-
lar como sigue. Entre dos colisiones la aceleración adquirida por el electrón será F / m, por lo que la ve-
locidad en el instante t después de la colisión vendrá dada por:
r r
r r F r eE
u= u0 – t = u0 – t (34)
m m
r
siendo u 0 la velocidad con la que sale de la última colisión.

62 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

Puesto
r que suponemos que un electrón surge de una colisión en una dirección aleatoria, el valor
medio de u 0 será cero. Por lo que resulta que:
r r
r eE eE
u =– t =– t (35)
m m

Ahora bien, el promedio de t es el tiempo de relajación o tiempo libre medio t. Por lo tanto se tiene
que:
r
r eE
u =– t (36)
m

Llevando esta expresión a (33) se obtiene que:


r æ ne 2 t ör
J =ç
ç
÷E
÷ (37)
è m ø

Comparando este resultado con la ecuación (32) resulta para la conductividad:

ne 2 t
s= (38)
m

De la expresión (36) vemos que el valor medio del vector velocidad de los electrones es un vec-
tor paralelo al campo eléctrico. Esta velocidad es la velocidad de arrastre:
r
r r eE
ud = u = – t (39)
m

En módulo se tiene que la velocidad de arrastre vendrá dada por:


r
r eE
ud = t (40)
m

Los valores típicos de esta velocidad de arrastre son de 10–4. Si tenemos en cuenta que los valo-
res típicos de la velocidad u0 son del orden de 106, el módulo de la velocidad de un electrón es aproxi-
madamente igual a la velocidad de salida de la colisión áuñ • áuoñ. En consecuencia, el tiempo de rela-
jación de los electrones será independiente del campo eléctrico aplicado al material. Puesto que en la
expresión de la conductividad encontrada según el modelo de Drude, dada por (38), todos los factores
son independientes del campo eléctrico aplicado resulta que el modelo satisface la ley de Ohm.
La conductividad también puede expresarse en función de otro parámetro que tiene gran interés,
que de nominamos camino libre medio l, y viene dado por:
l= u 0 t (41)

El camino libre medio es por tanto el espacio medio recorrido por un electrón entre dos colisiones
consecutivas. En función del camino libre medio, la conductividad se expresa como:

ne 2
s= l (42)
m u0

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 63


Volumen II. Física II

El modelo de Drude es un modelo bastante simple, por las hipótesis simplificadoras que comen-
tamos al principio. Por otro lado, las leyes que describen el comportamiento de un electrón en un me-
tal no son leyes clásicas como la segunda ley de Newton, sino que han de aplicarse las leyes de la me-
cánica cuántica.

2.4. Resistencia como elemento de circuito


Con el nombre de resistencia también se conoce a un elemento que comúnmente forma parte de un
circuito eléctrico. Consiste en una pieza de un material óhmico que tenga una resistencia eléctrica signi-
ficativa. En los circuitos se suele representa mediante una línea en zigzag. Las resistencias que se utili-
zan normalmente en circuitos son unos pequeños cilindros compuestos de grafito y arcilla cocidos con
dos terminales metálicos en sus extremos. Las resistencias se unen mediante buenos conductores al res-
to de elementos del circuito. El valor de una resistencia se indica mediante un código de bandas de colo-
res, en donde cada color corresponde a un dígito o a una potencia de 10 dependiendo de su posición. Las
dos primeras bandas corresponden a los dos primeros dígitos de un número entero y la tercera a la po-
tencia de 10 por la que hay que multiplicar ese entero para obtener el valor de la resistencia (fig. 6).

a) Figura 6. (a) Símbolo utilizado en los circuitos


eléctricos para representar a las resistencias;
(b) Códigos de colores de una resistencia: las dos
primeras bandas indican los dos primeros dígitos de
un número entero, la tercera banda la potencia de
b) diez por la que hay que multiplicar ese número
entero, y la cuarta la tolerancia.

Una cuarta banda indica el límite superior de la desviación estándar porcentual (denominado to-
lerancia) del proceso de fabricación. En la tabla 2 se dan estos códigos de colores.

Color Dígito Tolerancia

Negro 0
Marrón 1
Rojo 2
Naranja 3
Amarillo 4
Verde 5
Azul 6
Violeta 7
Gris 8
Blanco 9
Oro 5%
Plata 10%
Ninguno 20%

Tabla 2. Código normalizado de colores


para las resistencias.

64 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

2.4.1. Asociación de resistencias


Por regla general, los circuitos eléctricos contienen combinaciones de resistencias. Con frecuen-
cia resulta útil sustituir una combinación de resistencias por una equivalente definida como aquella
cuyo valor es tal que produce el mismo efecto externo que la combinación de resistencias. Es decir,
que su valor es tal que la corriente que pasa por ella es la misma que la que pasa por la combinación de
resistencias cuando se le aplica entre sus extremos la misma diferencia de potencial que a ésta. Por
tanto, la resistencia equivalente R0 de una combinación la calcularemos dividiendo la diferencia de
potencial V aplicada a la combinación por la corriente I que pasa por ella.

– Resistencias en serie. Supongamos una asociación de resistencias, como la mostrada en la


figura 7, en la que se tienen N resistencias Ri conectadas en serie. A través de todas las resis-
tencias circula la misma corriente I, de modo que la diferencia de potencial en la resistencia
Ri debe ser igual a:
Vi = IR i (43)

R1 R2 R3 R4 RN

Figura 7. Asociación de N V1 V2 V3 VN
resistencias en serie.

En consecuencia, la diferencia de potencial en los extremos de la combinación de resisten-


cias será:
N N

V = åVi = I å R i = IR 0 (44)
i= 1 i= 1

Por tanto, la resistencia equivalente R0 = V/I será igual a:


N

R0 = å Ri (45)
i= 1

V
– Resistencias en paralelo. Supongamos una combinación de R1
N resistencias Ri en paralelo como se muestra en la figura 8. I1
Por cada una de ellas circulará una corriente Ii, que según la R2
ley de Ohm vendrá dada por: I2
R3
V I I
Ii = (46) I3
Ri R4
La corriente que entra por un extremo de la combinación de
resistencias ha de ser igual a la suma de las que circulan por
cada resistencia. Por consiguiente, se ha de cumplir que en ré- IN
gimen estacionario: RN
N

I = åIi (47) Figura 8. Asociación de N


i= 1 resistencias en paralelo.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 65


Volumen II. Física II

Sustituyendo en esta expresión el valor de la corriente Ii dado por (46) se tiene que:
N
1 V
I =V å = (48)
i= 1
Ri R0

Por tanto, la resistencia equivalente R0 = V/I será igual a:


N
1 1
=å (49)
R 0 i= 1 R i

3. ENERGÍA DISIPADA EN LOS CONDUCTORES. LEY DE JOULE


Cuando una corriente eléctrica atraviesa un material, la energía eléctrica se transforma en ener-
gía térmica. El campo eléctrico aplicado al conductor produce una aceleración de los electrones, que
da lugar a un aumento de su energía cinética. Esta energía se convierte luego en energía térmica en
los choques de los electrones con la red de iones del conductor. Por tanto, los electrones adquieren
energía cinética del campo eléctrico y la transfieren en forma de energía térmica al material, mante-
niendo los electrones una velocidad media de arrastre en la dirección del campo eléctrico.

Z L
E
DQ

DQ Ab
Aa Figura 9. Carga que entra y sale en
Vb
Va una porción de conductor en un
determinado intervalo de tiempo.

Consideremos un trozo de un material conductor de longitud L y área transversal A como se indi-


ca en la figura 9. En un intervalo de tiempo Dt una carga DQ entra por la superficie Aa que se encuen-
tra al potencial Va mientras que otra carga igual sale por la superficie Ab que se encuentra al potencial
Vb. La situación es equivalente a la de una carga DQ que pasa de un potencial Va a un potencial Vb, por
tanto, se produce una variación de energía potencial de la carga igual a:
DU = DQ (Vb – Va ) = –VDQ (50)
en donde V = Va – Vb es la diferencia de potencial entre los puntos de entrada y salida de la carga.
La energía potencial perdida por los portadores de carga es igual a:
– DU = VDQ (51)

Esta energía potencial perdida es la que se transforma en energía cinética antes de que sea trans-
mitida al conductor en forma de energía térmica.
La energía perdida por unidad de tiempo, que es la potencia disipada en el conductor, vendrá
dada por:
DU DQ
P= – =V (52)
Dt Dt

66 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

Si tenemos en cuenta que la corriente que atraviesa el conductor es I = DQ/Dt, la potencia disipada,
que ha de ser igual a la potencia que ha de suministrarse para que se produzca el movimiento de car-
gas, es:

P = VI (53)

Este resultado se conoce como ley de Joule, y es un resultado general que es independiente del tipo de
material y de la naturaleza de los portadores de carga. La unidad de potencia en el SI es el vatio (W), por
tanto, según la expresión anterior:
J
1W = 1 = 1V×A
s

Si el material es óhmico, V = IR en donde R es una constante. Sustituyendo esta expresión en (53)


se tiene que para un material óhmico la potencia disipada es:

V2
P= (54)
R

O también:

P = I 2R (55)

Las expresiones (53), (54) y (55) nos proporcionan la potencia disipada en un conductor, y el uso de una
u otra depende del problema a tratar y de las variables que se conozcan. Las tres expresiones correspon-
den a la energía disipada en forma de calor debida a las colisiones de los portadores de carga en el inte-
rior del conductor, efecto que se conoce como calentamiento Joule, calentamiento óhmico o calenta-
miento I2R.

4. CIRCUITOS ELÉCTRICOS
Un circuito eléctrico es un conjunto de resistencias y condensadores (y otros elementos) unidos
mediante hilos conductores. En nuestro estudio nos limitaremos al caso en que la corriente circula
continuamente en una dirección; es decir, nos limitaremos al estudio de los circuitos de corriente con-
tinua (DC).
El flujo de corriente en los circuitos puede entenderse si aplicamos dos principios básicos: la
conservación de la carga y la conservación de la energía. En estos principios se fundamentan las dos
leyes enunciadas por Gustav Robert Kirchhoff (1824-1887) que constituyen la base para el análisis
de los circuitos de corriente continua. No obstante, estas leyes se pueden generalizar para estudiar
aquellos casos en que las condiciones varían de forma periódica (circuitos de corriente alterna, circui-
tos AC), o para estudiar los efectos transitorios en los circuitos.
En esta sección vamos a estudiar las leyes de Kirchhoff y las aplicaremos para estudiar algunos
circuitos elementales de corriente continua.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 67


Volumen II. Física II

4.1. Fuerza electromotriz


Las fuentes de energía eléctrica necesarias para mantener una corriente en un circuito se deno-
minan fuentes de fuerza electromotriz, abreviadamente fem. Aunque generalmente se utiliza el tér-
mino fuerza electromotriz, estas fuentes no son fuentes de fuerza, sino fuentes de energía. Una fuente
de fuerza electromotriz proporciona la energía eléctrica suficiente a los portadores de carga para que
puedan desplazarse a lo largo de todo el circuito.
Una fem puede ser una pila, que convierte energía química en eléctrica; una célula solar, que
convierte la energía solar en eléctrica; un termopar, que produce energía eléctrica como resultado de
una diferencia de temperaturas; o un gran generador rotatorio alimentado por un salto de agua, carbón
o energía nuclear que proporciona la energía utilizada en los hogares y en la industria. Aunque como
vemos existen muchos y muy distintos tipos de fem, utilizaremos el término batería para referirnos a
cualquier de ellas.
Consideremos un circuito simple formado por un hilo
E’ conductor conectado a una batería como se indica en la figu-
V_ –q +q V+ ra 10. Se produce una corriente eléctrica porque los electro-
T_ T+ nes son atraídos hacia el terminal positivo de la batería. Pues-
to que la dirección de la corriente se define como opuesta a la
E ’’ del movimiento de los electrones, resulta útil imaginar car-
E’ E’ gas positivas que se mueven atraídas hacia el terminal nega-
tivo de la batería. En el interior de la batería, mediante un de-
terminado proceso (químico en el caso de una pila) se llevan
las cargas positivas desde el terminal negativo al positivo. La
dl batería es por tanto un dispositivo que gasta energía en bom-
bear las cargas desde un terminal a otro. Por tanto, en el inte-
Figura 10. Circuito simple formado rior de la batería debe existir una fuerza media que actúa so-
por una batería y un hilo conductor. bre las cargas positivas para mover estas cargas desde el ter-
minal negativo al positivo en contra del campo electrostático
creado por la acumulación de carga en los terminales. Esa
r fuerza por unidad der carga la podemos representarr mediante
un campo eléctrico E'' que se opone al campo electrostático E'. Este campo electrostático E' hace que
las cargas se muevan a lo largo del hilo conductor pero se opone al flujo de cargas en el interior de la
batería.
Se define la fuerza electromotriz de la batería e en un trayecto cerrado C como el trabajo realizado
sobre una carga positiva unidadrpor la fuerza eléctrica total que actúa sobre
r lar carga
r cuando recorre di-
cho trayecto. Si denominamos E el campo total en un punto del circuito E = E' + E'' , entonces, la fuer-
za electromotriz es:
r r r r r r
e = òC E ×d l = òC E' ×d l+ òC E'' ×d l (56)
r r
Ahora bien, el campo electrostático E' es conservativo, por lo que òCE ×dl = 0; y por otra parte, el cam-
r
po E'' es cero fuera de la batería. Por lo tanto, la fuerza electromotriz es igual a:

r r
e = òCE'' ×dl = òT
T+
E'' ×dl (57)

en donde
r T– y T+ corresponden a los terminales negativo y positivo de la batería. Obviamente, el cam-
r
po E'' que debe suministrar continuamente a las cargas la energía suficiente para vencer al campo E'
no es un campo conservativo y por tanto no puede deducirse a partir de una función energía potencial.

68 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

La diferencia de potencial en los terminales de la batería es igual a la variación de potencial en el


hilo conductor:
T– r r T+ r r
V = V+ – V– = òT E' ×d l = – òT E' ×d l (58)
+ –

r
Esta expresión la podemos escribir en función del campo total E como:

T+ r r
V = e – òT E ×d l (59)

Esta expresión nos muestra que cuando se establece una corriente en el circuito la fem de la batería es
mayor que la diferencia de potencia entre sus terminales.
Veamos a continuación como podemos determinar el valor de la fuerza electromotriz de la bate-
ría. Si hacemos que la resistencia del conductor exterior sea muy grande o en el límite que sea infinita
(lo que es equivalente a desconectar el hilo conductor
r de uno de los terminales) la corriente por el cir-
cuito será cero. En este caso, el campo reléctrico E'' irá
r almacenando carga en los terminales de la ba-
tería hasta que el campo electrostático E' equilibre a E''. En estas condiciones, el campo total en el in-
terior de la batería será cero, por lo que de la expresión (59) se tendrá que:

V=e Si I = 0 (60)

Es decir que en circuito abierto la diferencia de potencial entre los terminales de la batería es igual a la
fuerza electromotriz, mientras que cuando circula corriente en el circuito, según (60), la diferencia de
potencial es menor que la fuerza electromotriz de la batería.
Podemos definir una resistencia interna de la batería, r, de manera que la potencia
r disipada por el
paso de una corriente I sea Pr = I2r. Como esta potencia procede del campo eléctrico E total en la bate-
ría, debe ser igual al trabajo realizado por éste en cada segundo:
T+ r r
Pr = I 2 r = I òT E ×d l (61)

De donde se tiene que:


r r
ò
T+

T–
E ×d l = Ir (62)

Llevando este resultado a la expresión (59) obtenemos que:

V = e – Ir (63)

La diferencia de potencial en los terminales de la batería se reduce de su valor en circuito abierto e


debido a la pérdida de energía por el paso de la corriente a través de la batería.
Una fuente de fuerza electromotriz también es una fuente de potencia eléctrica. La potencia cedida
por la batería es ritmo al que la fuente proporciona energía a los portadores. Puesto que la potencia es el
producto de la caída de potencial en la fuente por la corriente que pasa por ella, tendremos que:

Pe = Ie (64)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 69


Volumen II. Física II

Sustituyendo en esta expresión (59), se tiene que:


Po = IV = Ie – I 2 r (65)

La potencia de salida de la batería Po es la potencia de salida de la batería y corresponde a la rapidez con


que los portadores de carga ganan energía potencial eléctrica. Esta potencia es la diferencia entre la po-
tencia cedida por la batería Pe y la potencia disipada en su interior Pr debido a la resistencia interna:
Po = Pe – Pr (66)

4.2. Las reglas de Kirchhoff


Las reglas de Kirchhoff son unas reglas que nos permiten calcular las corrientes que pasan por
las distintas ramas de un circuito eléctrico. Estas reglas no son más que un esquema descriptivo para
satisfacer las leyes de conservación de la carga y de la energía en un circuito. Estas dos reglas las de-
nominamos regla de las mallas y regla de los nudos.

– Regla de las mallas. La regla de las mallas establece que la suma de las diferencias de po-
tencial a lo largo de cualquier camino cerrado (denominado malla) de un circuito es cero.
Matemáticamente la podemos expresar como:

åV = 0 (67)
malla

Puesto que el potencial está relacionado directamente con la energía potencial eléctrica de
los portadores de carga, la regla de las mallas no es más que una forma de expresar el prin-
cipio de conservación de la energía.
– Regla de los nudos. Un nudo es un punto de un circuito donde confluyen más de dos con-
ductores. La regla de los nudos establece que la suma de las corrientes que entran en un
nudo es igual a la suma de las corrientes que salen de él. Si consideramos que las corrientes
que entran en un nudo son negativas y las que salen positivas, la regla de los nudos puede
escribirse como:

åI = 0 (68)
nudo

Puesto que la carga no se puede acumular en ningún punto del circuito, la regla de los nudos
no es más que una forma de expresar la ley de conservación de la carga eléctrica.

4.2.1. Análisis de circuitos


Las dos reglas de Kirchhoff nos permiten analizar cualquier circuito formado por baterías y re-
sistencias y determinar el valor de la corriente que pasa por cada rama y el potencial en cada nudo del
circuito.
Un primer paso consiste en suponer los sentidos de los flujos de corriente, pues no se conocen de
antemano. Estos sentidos pueden elegirse arbitrariamente, pues si el circuito se analiza adecuadamente
los resultados obtenidos serán correctos, independientemente del sentido elegido previamente para las
corrientes. Una corriente negativa como resultado sólo indicará que el sentido real es contrario al su-
puesto inicialmente. Un aspecto importante a tener en cuenta es la relación entre el sentido de la corrien-
te que pasa por una batería y el valor algebraico que hemos de tomar del valor de su fuerza electromo-
triz. Tal como hemos visto anteriormente, si la corriente tiene lugar de manera que los portadores de

70 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

carga van desde el terminal negativo al positivo, la batería suministra potencia al circuito, y por tanto su
fuerza electromotriz ha de tomarse positiva. Si la corriente es en sentido tal que los portadores de carga
positivos, en el interior de la batería, van desde el terminal positivo al negativo, la batería está absor-
biendo energía del circuito y por tanto su fuerza electromotriz ha de considerarse negativa.
Existen tres métodos para realizar el análisis de un circuito mediante las reglas de Kirchhoff, que
conducen, obviamente, a los mismos resultados: análisis por ramas, por mallas y por nudos.
Para describir estos tres tipos de análisis consideremos el circuito de la figura 11, que contiene
cuatro nudos y seis ramas. Nuestro objetivo es determinar las corrientes que pasan por cada rama del
circuito, suponiendo conocidas las fuerzas electromotrices presentes en el mismo. Necesitaremos por
tanto seis ecuaciones independientes.
Rb 1 Rc
Ib Ic
Id
ed
I2 I3
Rd
Ib
Rf Id Re Ic
4
2 3
If If Ie Ie
Ia
Figura 11. Análisis de un I1 Ia
circuito mediante las reglas de
Kirchhoff. Ra ea

En el análisis por ramas se parte de las ecuaciones que nos proporciona la aplicación de la regla
de los nudos. Haciendo esto a los nudos marcados como 1, 2 y 3, se tiene que:
Nudo 1 I d +I c – I b = 0
Nudo 2 I b +I f – I a = 0 (69)
Nudo 3 I e +I a – I c = 0

Podríamos escribir una cuarta ecuación para el nudo 4 Id + Ie + If = 0, pero esta ecuación no es inde-
pendiente de las otras tres, ya que se puede obtener sumando aquellas. En general, si tenemos N nu-
dos, la regla de los nudos nos proporciona N-1 ecuaciones independientes.
Puesto que tenemos tres ecuaciones y seis incógnitas necesitamos obtener otras tres ecuaciones
independientes para resolver el problema. Estas ecuaciones las obtendremos aplicando la regla de las
mallas a las señaladas en la figura. Haciendo esto, se tiene que:
Malla 1 I f R f +I a Ra – I e Re = ea
Malla 2 I d Rd +I b Rb – I f R f = ed (70)
Malla 3 I d Rd +I e Re – I c Rc = ed

Al igual que antes, puede comprobarse que la ecuación correspondiente a cualquier otra malla posi-
ble se puede obtener como la suma de dos o tres de las ecuaciones anteriores. Estas tres ecuaciones
junto con las tres ecuaciones anteriores nos permiten obtener los valores de las corrientes por cada
una de las ramas del circuito.
Para obtener las tensiones en cualquier nudo, basta con fijar un nudo de referencia (normalmente
los conectados a tierra, potencial cero) y calcular las diferencias de potencial entre cada nudo y este

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 71


Volumen II. Física II

nudo de referencia. Así, como el nudo 4 está conectado a tierra V4 = 0, y los potenciales en los demás
nudos vienen dados por:
V1 = I d R d – e d
V2 = I f R f (71)
V3 = I e R e

En el análisis de mallas, en primer lugar, se reduce el número de ecuaciones necesarias para re-
solver la red a M = n – (N – 1) siendo n el número de incógnitas y N el número de nudos del circuito.
Para ello se le asigna una corriente Ii a cada una de las M mallas. En nuestro caso, se le asigna unas co-
rrientes I1, I2, e I3 a las mallas mostradas en la figura. A partir de estas corrientes se tiene que:
Ia = I1 Ib = I2 Ic = I3 (72)
Id = I2 – I3 Ie = I3 – I1 I f = I1 – I2 (73)

Puede verse que estas corrientes de malla hacen que se satisfagan las ecuaciones que se obtienen de la
regla de los nudos (69). Aplicando a cada una de las mallas la segunda regla se obtiene:
Malla 1 I 1 R a + ( I 1 – I 2 )R f – ( I 1 – I 3 )R e = e a
Malla 2 ( I 2 – I 1 )R f + I 2 R b + ( I 2 – I 3 )R d = e d (74)
Malla 3 ( I 3 – I 1 )R e + ( I 3 – I 2 )R d + I 3 R c = – e d

Tenemos tres ecuaciones con tres incógnitas que nos permiten obtener los valores de I1, I2, e I3; y a
partir de estos, mediante las expresiones (72) encontrar las corrientes en cada rama, y mediante las
expresiones (71) los valores de los potenciales en cada nudo.
La elección que se haga de las mallas es completamente arbitraria, con la condición que cada una
de las ramas debe estar contenida, al menos una vez, en una de las mallas.
El tercer método se denomina de los nudos. En este método de análisis se reduce el número de
ecuaciones a (N – 1) ecuaciones de nudos eliminado las ecuaciones de las mallas. Para ello se consi-
deran como incógnitas los potenciales en cada uno de los nudos V1, V2,..., VN-1. Si expresamos las co-
rrientes que salen de cada nudo en función de las diferencias de potencial en las ramas y de las con-
ductancias G, las ecuaciones de los nudos se escriben como:
Nudo 1 Gd (V1 + e d )+Gb (V1 – V2 )+Gc (V1 – V3 ) = 0 (75)
Nudo 2 G f V2 +Gb (V2 – V1 )+Ga (V2 – V3 – e a ) = 0 (76)
Nudo 3 GeV3 +Gc (V3 – V1 )+Ga (V3 – V2 + e a ) = 0 (77)

De esta manera, tenemos tres ecuaciones con tres incógnitas V1, V2 y V3 que podemos resolver. En el
planteamiento anterior hemos considerado que todas las corrientes salen de los nudos, algo que evi-
dentemente no puede ser real, por el principio de conservación de la carga. Esto significa que alguna
de las diferencias de potencial consideradas en las expresiones anteriores ha de ser negativa.
Una vez determinados los potenciales en los nudos, podemos encontrar las corrientes en cada
una de las ramas del circuito mediante las expresiones:
I a = Ga (V3 – V2 + e a ) I b = Gb (V2 – V1 ) (78)
I c = Gc (V1 – V3 ) I d = Gd (V1 + e d ) (79)
I e = GeV3 I f = G f V2 (80)

72 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

4.3. Circuitos equivalentes


En muchas ocasiones interesa conectar un elemento, como puede ser una resistencia o un circui-
to de dos terminales, a los dos terminales de salida de otro circuito más o menos complicado. El análi-
sis se simplifica si reducimos el sistema a otro más simple equivalente; entendiendo por equivalente
que produce los mismos efectos externos.
En una sección anterior vimos dos ejemplos sencillos de sustitución de una combinación de re-
sistencias en serie o en paralelo por una sola resistencia equivalente que produce el mismo efecto ex-
terno. En general, se puede demostrar a partir de las reglas de Kirchhoff que una red cualquiera puede
sustituirse por otra equivalente. Los sistemas más simples a los que se puede reducir un circuito cual-
quiera los proporcionan los teoremas de Thévenin y de Norton.

4.3.1. Teorema de Thévenin


El teorema de Thévenin establece que toda red lineal compuesta por resistencias y baterías pue-
de sustituirse por una sola fem eTh y una sola resistencia en serie RTh entre dos terminales cualesquiera
elegidos como terminales de salida (fig. 12).

RTh

eTh
Figura 12. Circuito
equivalente de Thévenin.

Los equivalentes de Thévenin pueden calcularse mediante la teoría de circuitos, pero existe un
método más sencillo para su determinación. Puesto que el circuito equivalente de Thévenin ha de
comportarse igual que el circuito real en cualquier situación, lo ha de hacer:
1. Cuando los terminales externos están abiertos; y
2. Cuando no existan fuentes de fuerza electromotriz en el circuito.
Veamos cómo podemos aplicar las reglas anteriores con un ejemplo. Supongamos un circuito
como el mostrado en la figura 13, conectado a una resistencia de carga RL. Lo que nos proponemos es
encontrar el circuito equivalente de Thévenin, aplicando el procedimiento anterior.

R1

e R2 RL
Figura 13. Cálculo del
equivalente de Thévenin de un
circuito.

La diferencia de potencia en circuito abierto en los terminales de salida del circuito debe ser igual a
la diferencia de potencial en los terminales de salida del circuito equivalente. Ahora bien, en éste, pues-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 73


Volumen II. Física II

to que en circuito abierto no pasa corriente por la resistencia, esta diferencia de tensión ha de ser igual a
la fem eTh. Por consiguiente, la fuerza electromotriz del circuito equivalente de Thévenin es igual a:
R2
eTh = e (81)
R1 +R2

Supongamos ahora la situación en la que no existen fuentes de fuerza electromotriz activas en el


circuito, lo que equivale a cortocircuitar todas las fuentes presentes. En este caso, el circuito equiva-
lente es una resistencia pura RTh que ha de ser igual a la resistencia equivalente del circuito original
entre los terminales de salida. Por consiguiente, se tiene que:
R1 R2
RTh = (82)
R1 +R2

Comprobemos ahora que la corriente que pasa por la resistencia de carga es la misma en ambos
casos. Para el circuito equivalente se tiene que:
eTh eR 2
I= = (83)
RTh + R L R L ( R 1 + R 2 )+ R 1 R 2

Aplicando las reglas de Kirchhoff al circuito original (fig. 14), se tiene que:
e = I 1 R 1 + ( I 1 – I 2 )R 2 (84)

0= ( I 2 – I 1 )R 2 + I 2 R L (85)

De la segunda de estas ecuaciones se tiene que:


R2 +RL
I1 = I2 (86)
R2

R1

RL
e I1 R2
I2
Figura 14. Aplicación de las reglas de
Kirchhoff para determinar el equivalente
de Thévenin de un circuito dado.

Y sustituyendo este resultado en la primera de las ecuaciones anteriores se tiene que:


R +R
e= 2 L I 2 R1 +I 2 RL (87)
R2

Puesto que la corriente que pasa por la resistencia de carga es I = I2 despejando de esta ecuación, obte-
nemos:
eR 2
I= (88)
R L ( R 1 + R 2 )+ R 1 R 2

Que es el mismo resultado que el encontrado utilizando el circuito equivalente de Thévenin.

74 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

4.3.2. Teorema de Norton


El teorema de Norton establece que toda red lineal com-
puestas de resistencia y fuerzas electromotrices puede sustituirse
por un solo generador de corriente IN en paralelo con una sola re- IN RN
sistencia RN entre dos puntos cualesquiera del circuito que se to-
man como terminales de salida (fig. 15).
Una fuente de corriente, que se representa con un círculo y
una flecha en su interior, es un elemento de circuito importante so- Figura 15. Circuito equivalente
bre todo en los circuito electrónicos. Una fuente de corriente pro- de Norton.
porciona una corriente fija del mismo modo que una fem propor-
ciona una diferencia de potencial constante en circuito abierto. Al
igual que las fem, las fuentes de corriente tienen ciertas pérdidas y cierta resistencia interna, de manera
que un generador o fuente de corriente se puede representar por un generador ideal y una resistencia en
paralelo (shunt) que drena parte de la corriente suministrada por la fuente. Por tanto, un generador de
corriente sólo proporciona toda la corriente cuando se encuentra cortocircuitado, de la misma manera
que una fem sólo proporciona toda su diferencia de potencial cuando se encuentra en circuito abierto.
Calculemos el circuito equivalente de Thévenin del circuito de Norton. Para ello apliquemos el
procedimiento estudiado en el apartado anterior. En circuito abierto, la tensión entre los terminales
viene dada por IN RN, que ha de ser igual a la fem del circuito de Thévenin:
eTh = I N R N (89)

Por otro lado, suprimiendo (haciendo cero) las fuentes de corriente, se tiene que:
RTh = R N (90)

Por tanto, existe una relación entre los circuitos equivalentes de Norton y de Thévenin. Las resisten-
cias son las mismas y el valor de la fem de Thévenin y de la fuente de corriente de Norton están rela-
cionadas por la expresión (89).
El procedimiento para encontrar el equivalente de Norton de un circuito cualquiera es el siguiente:
1. Calcular la corriente IN entre los terminales de salida cuando se encuentran cortocircuitados.
2. Calcular la resistencia equivalente RN entre los terminales cuando se igualan a cero todas las
fuentes de corriente y todas las fem del circuito.

Como vemos el procedimiento es similar al seguido para determinar los elementos del circuito
equivalente de Thévenin: en este caso, la corriente se calcula en cortocircuito, mientras que en aquél,
la diferencia de potencial se calcula en circuito abierto.

5. POLÍMETROS
Para medir las corrientes o diferencias de potencial en los elementos de un circuito, o los valores
de la resistencia de los materiales, se emplean una amplia variedad de aparatos de medida: amperíme-
tros, para la medida de corrientes, voltímetros para la medida de voltaje y ohmímetro para la medida
de la resistencia. Frecuentemente los tres aparatos se encuentran englobados en uno solo que denomi-
namos multímetro.
El componente principal de estos aparatos de medida es el galvanómetro que se representa en
circuitos con una letra G en el interior de un círculo. Un galvanómetro consiste en una bobina de hilo
suspendida en el campo de un imán. Cuando por la bobina pasa una corriente IG, ésta sufre una des-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 75


Volumen II. Física II

viación angular proporcional a dicha corriente. Si se coloca una aguja indicadora, puede calibrarse el
aparato de manera que la posición de la aguja sobre una escala nos proporcione el valor de la corriente
que pasa por el galvanómetro.
Un galvanómetro se caracteriza por dos parámetro que son muy importantes para su uso como
amperímetro o voltímetro: su resistencia interna RG, cuyos valores oscilan entre 1 y 10 ohmios, y la
corriente máxima IG,max que produce la desviación de la aguja al fondo de la escala, cuyo valor típico
es de 1 mA. Veamos a continuación cómo podemos utilizar un galvanómetro para la construcción de
amperímetros, voltímetros y ohmímetros.

5.1. Amperímetros
En la figura 16 se muestra el esquema de utilización de un galvanómetro como amperímetro.
En la mayoría de los casos la corriente que se desea medir es mayor que la corriente máxima del
galvanómetro, por lo que es necesario que parte de la corriente se desvíe del galvanómetro a través
de una resistencia situada en paralelo con él, que se denomina shunt o resistencia shunt y que va in-
corporada al aparato de medida. Si denominamos IE a la máxima corriente que hace que la aguja se
desvíe hasta el fondo de la escala (la cual corresponde a la corriente IG,max por el galvanómetro), se
debe tener que:
I E = I s + I G ,max (91)

RG
G
IG
A Is

Rs
e I R e I R
Figura 16. Utilización de
un galvanómetro como
amperímetro.

La diferencia de potencial en los terminales del amperímetro vendrá dada por:


RG I G ,max = I s R s = ( I E – I G ,max )R s (92)

Por tanto, se tiene que:


RG I G ,max RG I G ,max
Rs = • << RG (93)
I E – I G ,max IE

Es decir, que la resistencia shunt debe ser mucho más pequeña que la resistencia del galvanómetro. Los
amperímetros típicos suelen llevar varias resistencias shunt con un conmutador que permite seleccio-
nar la escala del amperímetro. La resistencia equivalente del amperímetro, denominada resistencia de
entrada es:
RG R s
RA = (94)
RG + R s

76 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

Pero, como Rs n RG la resistencia de entrada es aproximadamente igual a la resistencia shunt.

R A •R s (95)

Debido a esta pequeña resistencia de entrada, que suele ser menor que cualquier resistencia de carga
del circuito, el amperímetro no produce apenas distorsión en el circuito a medir, condición que es fun-
damental si deseamos tener una medida fiable y precisa de la corriente que circula por la resistencia
de carga.

5.2. Voltímetro
Puesto que la diferencia de potencial en los terminales del galvanómetro es proporcional a la co-
rriente IG que pasa por la bobina, también podemos utilizar un galvanómetro para determinar el valor de
la diferencia de potencial en los extremos de una resistencia, si se conecta en paralelo con ella.

RG
IG
e R V e R G

Rs

Figura 17. Utilización de un


galvanómetro como voltímetro.

Para que la presencia del galvanómetro no perturbe la corriente que pasa por la resistencia de
carga, y por tanto la medida de la diferencia de potencial sea correcta, hemos de conectar una resisten-
cia de valor elevado en serie con el galvanómetro. En la figura 17 se muestra la forma de utilizar un
galvanómetro para medir la diferencia de potencial entre los terminales de la resistencia R. Si desea-
mos que una diferencia de potencial VE corresponda con una desviación de la aguja hasta el fondo de la
escala del voltímetro (IG,max), se ha de tener que:
VE = I G ,max ( RG + R s ) (96)

De aquí, obtenemos que la condición que ha de cumplir la resistencia Rs es:


VE
Rs = – RG (97)
I G ,max

Y teniendo en cuenta que Rs o RG, aproximadamente se tiene que:


VE
Rs = (98)
I G ,max

Esta condición nos da el valor mínimo que ha de tener la resistencia Rs conectada en serie con al gal-
vanómetro para que el fondo de la escala corresponda a una tensión VE.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 77


Volumen II. Física II

La resistencia equivalente del voltímetro y de la resistencia problema R conectada en paralelo,


vendrá dada por:
R ( R s + RG ) RR s
R eq = • (99)
R s + RG + R R s + R

Si Rs o R la expresión anterior se reduce a Req = R y por consiguiente la conexión del voltímetro no pro-
ducirá ningún efecto significativo en la diferencia de potencial entre los terminales de la resistencia R.
Por regla general, los voltímetros disponen de un conmutador que permite elegir la resistencia
que ha de conectarse en serie con el galvanómetro, y por tanto disponer de varias escalas para las me-
didas de voltaje.

5.3. Ohmímetro
Un galvanómetro conectado en serie con una batería de fem conocida puede utilizarse para la
medida de resistencias. El circuito se muestra en la figura 18. En este circuito hemos colocado una re-
sistencia Rs, que en principio vammos a considerar cero, cuyo significado veremos más adelane.

RG
G

R W eG
R
Rs Figura 18. Utilización de
un galvanómetro como
ohmímetro.

La corriente por el galvanómetro (considerando Rs = 0) es:


eG
IG = (100)
R + RG

y por consiguiente el valor de la resistencia que se mide es:


eG
R= – RG (101)
IG

Si suponemos que R o RG esta expresión se reduce a:


eG
R= (102)
IG

Por tanto, la escala del galvanómetro, aunque no sea lineal, puede calibrarse para que nos proporcio-
ne directamente el valor de R.
Para poder disponer de varias escalas se conecta en serie una resistencia variable Rs, De esta ma-
nera se tiene que:
eG
R= – RG – R s (103)
IG

78 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Corriente eléctrica

Como la exactitud de la lectura depende de la constancia de la fem de la batería, este tipo de ohmíme-
tro no es de gran precisión, pero sirve para determinar de forma rápida, aunque sólo aproximada, una
resistencia desconocida.

6. DETERMINACIÓN DE RESISTENCIA MEDIANTE UN PUENTE


DE WHEATSTONE
Un puente de Wheatstone es un circuito que se emplea
C
para la determinación de resistencias mediante el método de
ajuste a cero. El nombre se debe al su probable inventor Char- R R1
les Wheatstone y el circuito es como el mostrado en la figura G
19. Supongamos que la resistencia desconocida es la resisten-
cia R. Las resistencias R1, R2 y R3 son resistencias variables
que se ajustan hasta que no circula corriente por el galvanóme- RG
A B
tro. En esta situación se tiene que VC = VD, por lo que:
R2 D R3
RI 1 = VA – VC = VA – VD = R 2 I 2 (104)
R 1 I 1 = VC – VB = VD – VB = R 3 I 2 (105)
e

Dividiendo ambas ecuaciones se tiene que:


Figura 19. Puente de Wheatstone.
R R
= 2 (106)
R1 R3

Por lo que resulta que:


R1 R2
R= (107)
R3

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 79


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano, Bogotá, 1971.


Feynman, R. P., Leighton, R. B. y Sand, M.: Física. Fondo Educativo Interame-
ricano, Bogotá, 1972.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall, Upper Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-
Hill, Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall, México, 1988.
Holliday, D. y Resnick, R.: Física. CECSA, México, 1983.
Holton, G. y Brush, S. G.: Introducción a los conceptos y teorías de las ciencias
físicas. Editorial Reverté, S.A., Barcelona, 1989.
Lorrain, P. y Corson, D. R.: Campos y ondas electromagnéticos. Selecciones
Científicas, Madrid, 1972.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté, Barcelo-
na, 1986.
Purcell, E. M.: Electricidad y magnetismo. Editorial Reverté, Barcelona, 1980.
Tipler, P. A.: Física. Editorial Reverté, Barcelona, 1992.

80 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

21
Campo magnético. Carácter no
conservativo del campo
magnético. Generación de campos
magnéticos y efectos sobre cargas
en movimiento. Aplicación a
dispositivos tecnológicos

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. CAMPO MAGNÉTICO
1.1. Antecedentes históricos
1.2. Efecto de los campos magnéticos sobre cargas en movimiento
1.2.1. Fuerza magnética sobre una carga eléctrica
1.2.2. Fuerza sobre una corriente eléctrica
1.2.3. Fuerza sobre una espira de corriente
1.2.4. Fuerza sobre imanes

2. FUENTES DEL CAMPO MAGNÉTICO


2.1. Ley de Biot-Savart
2.1.1. Campo magnético creado por una corriente rectilínea
2.1.2. Campo magnético creado por una espira de corriente
2.2. Ley de Ampère
2.2.1. Carácter no conservativo del campo magnético
2.2.2. Aplicaciones de la ley de Ampère
2.2.2.1. Campo creado por una corriente en un hilo conductor
rectilíneo
2.2.2.2. Campo magnético creado por un solenoide
2.3. Fuerza entre corrientes
2.4. Ley de Gauss para el campo magnético

3. ECUACIONES DIFERENCIALES DE LA MAGNETOSTÁTICA


3.1. Ley de Gauss en forma diferencial
3.2. Ley de Ampère en forma diferencial

4. APLICACIONES A DISPOSITIVOS TECNOLÓGICOS


4.1. Movimiento de una partícula cargada en el seno de un campo magnético
4.2. Selector de velocidades
4.3. Espectrómetro de masas
4.4. Ciclotrón
4.5. Galvanómetro de bobina móvil

BIBLIOGRAFÍA

82 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

1. CAMPO MAGNÉTICO
1.1. Antecedentes históricos
Las primeras pruebas sobre observaciones de fenómenos magnéticos aparecen en los escritos de
Tales de Mileto (640-546 a. C.). En ellos se hace mención a la atracción por parte de una piedra natu-
ral, denominada imán, de pequeños trozos de hierro. Esta piedra imán o magnetita es un óxido de hie-
rro (Fe3O4) que se encontraba antiguamente en una región cercana a Magnesia, ciudad de la antigua
Grecia Jónica, de donde proviene su nombre y también el término magnetismo.
El uso de una aguja imantada como brújula parece tener sus orígenes en el siglo XI de nuestra
era, y se cree que fue empleada por primera vez por los chinos o por los árabes. No obstante, aunque
no se sabe con certeza, hay indicios de que, ya por el año 2637 antes de Cristo, los chinos conocían los
fenómenos magnéticos y el alineamiento de los imanes en la dirección norte-sur. En 1269, Petrus Pe-
regrinus de Maricourt describió de forma detallada la brújula y su empleo en navegación, y descubrió
que una aguja que se deja libremente sobre un imán natural de forma esférica se orienta a lo largo de
líneas que pasan por puntos extremos de la esfera. A estos puntos, donde parecen concentrarse las
fuerzas, los denominó polos del imán.
A pesar de que durante muchos siglos se conocieron las fuerzas ejercidas por los imanes natura-
les, la primera investigación científica sobre los fenómenos magnéticos se debe a William Gilbert,
quien en 1600 dio a conocer sus resultados en la obra De magnete. Gilbert estudió sistemáticamente
los fenómenos eléctricos y magnéticos, y comprobó que cualquier imán, independientemente de su
forma, posee dos polos magnéticos donde la fuerza que ejerce el imán tiene una intensidad máxima.
Por otra parte, descubrió que la Tierra se comportaba como un inmenso imán con sus polos magnéti-
cos situados cerca de los polos geográficos norte y sur. De esta manera, una aguja imantada tiende a
alinearse sobre la superficie de la Tierra en la dirección norte-sur. Por esta razón, Gilbert denominó
polo norte al que señalaba hacia el polo norte geográfico y polo sur al que señalaba en la dirección sur.
Gilbert había demostrado que los polos del mismo nombre se repelen y los polos diferentes se
atraen. No obstante, fueron John Michell, en 1750, y, posteriormente, Charles Agustin Coulomb, en
1785, quienes hicieron un estudio cuantitativo de la atracción y repulsión de los polos magnéticos
mediante una balanza de torsión. Michell demostró que las fuerzas dirigidas de centro a centro de los
polos magnéticos eran directamente proporcionales a la intensidad de los mismos e inversamente
proporcionales al cuadrado de la distancia que los separaba, resultados que fueron confirmados luego
por Coulomb.
La ley de la fuerza entre polos magnéticos es similar a la existente entre cargas eléctricas, pero
hay una diferencia fundamental entre ambos fenómenos. Mientras que hay cargas de un signo u otro
por separado, los polos magnéticos se presentan siempre por parejas. Si dividimos un imán, el resul-
tado que obtenemos son dos imanes más pequeños, cada uno de ellos con un polo positivo y un polo
negativo. Hasta ahora, los esfuerzos por encontrar aisladamente un polo magnético, el monopolo
magnético, han resultado infructuosos.
La íntima relación entre electricidad y magnetismo no se conoció hasta 1819, cuando el físico
danés Hans Christian Oersted (1777-1851) descubrió que una corriente eléctrica en un alambre
conductor provocaba la desviación de una aguja imantada: la electricidad podía producir magnetis-
mo. Hasta ese momento, la electricidad y el magnetismo se consideraban fenómenos independien-
tes. Un año después del descubrimiento de Oersted, el francés André Marie Ampère llevó a cabo
una serie de experimentos que demostraron que las corrientes eléctricas atraían limaduras de hierro
y que dos corrientes paralelas se atraían entre sí. También inventó el solenoide para producir cam-
pos magnéticos y formuló un modelo teórico del magnetismo que constituye la base de la teoría ac-
tual. Según este modelo, las fuentes fundamentales del magnetismo no son los polos magnéticos
sino las corrientes eléctricas, y el magnetismo de un imán permanente se debe a las corrientes elec-
trónicas a nivel atómico.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 83


Volumen II. Física II

En el año 1831, el inglés Michel Faraday (1791-1867) y el norteamericano Joseph Henry (1797-
1878) encontraron, de forma independiente, que un campo magnético variable producía una corriente
eléctrica. Esta investigaciones experimentales fueron la base de la teoría de unificación de la electricidad y
el magnetismo, desarrollada por James Clerk Maxwell (1831-1879) en 1873. Nacía así el electromagne-
tismo. Esta nueva rama de la física se describe completamente mediante las denominadas ecuaciones de
Maxwell, las cuales, junto con las leyes de Newton, los principios de la termodinámica y la teoría de la re-
latividad restringida de Einstein, resumen toda la física clásica.
La teoría cuántica, desarrollada en el siglo XX, ha permitido elaborar teorías microscópicas que
explican las propiedades de los materiales magnéticos. El estudio del magnetismo en la materia sigue
siendo en la actualidad un campo de intensa investigación.

1.2. Efecto de los campos magnéticos sobre cargas en movimiento


Al igual que los fenómenos eléctricos pueden estudiarse introduciendo el concepto de campo
eléctrico, los fenómenos magnéticos pueden, a su vez, ser estudiados si definimos un campo mag-
nético B. De la misma forma que una masa crea un campo gravitatorio, o una carga eléctrica crea un
campo eléctrico que podemos detectar colocando en sus inmediaciones una carga eléctrica que experi-
menta una fuerza de atracción o repulsión, un imán o una corriente eléctrica crean un campo magnético
en todo el espacio.
La presencia de un campo magnético en un punto del espacio puede detectarse colocando una agu-
ja imantada. En presencia de un campo magnético, se observa que la aguja, como consecuencia de las
fuerzas magnéticas, gira y tiende a alinearse en una dirección determinada en el espacio, la dirección del
campo magnético. De esta manera, colocando la aguja en distinta posiciones, podemos encontrar la di-
rección del campo magnético. Otra manera de detectar la presencia de un campo magnético es utilizan-
do limaduras de hierro. El hierro y otros pocos materiales tienen la propiedad de convertirse en imanes
en presencia de un imán permanente. En consecuencia, en presencia de un campo magnético, las lima-
duras de hierro se convierten en pequeños imanes que puede utilizarse como elementos para la detec-
ción de una campo magnético. El campo magnético está orientado en la dirección en que se alinean las
limaduras y su intensidad es proporcional a la intensidad de las limaduras.
Al igual que el campo eléctrico, un campo magnético puede visualizarse mediante líneas de
campo magnéticos, que son líneas continuas paralelas en cada punto del espacio a la dirección
del campo magnético, y cuya densidad, el número de líneas por unidad de área, es proporcional a
la intensidad del campo magnético. En la figura 1 se muestra un ejemplo de las líneas de campo
magnético creado por una imán y una corriente eléctrica que circula por un conductor rectilíneo.
Podemos observar que, en el imán, las limaduras de hierro se alinean entre los polos del imán y,
por tanto, la líneas de campo magnético van de un polo a otro. De forma análoga a como se esta-
bleció para el campo eléctrico en el que las líneas de campo van de la carga positiva a la negativa,
para el campo magnético supondremos que las líneas de campo van del polo norte al polo sur.
Una diferencia importante entre el campo eléctrico y el magnético es que, mientras que en el
campo eléctrico las líneas de campo comienzan en una carga positiva y acaban en una negativa,
en un campo magnético las líneas de campo se cierran sobre sí mismas, como, por ejemplo, en el
caso del campo magnético creado por una corriente, tal como se puede ver en la figura. Esta ca-
racterística de las líneas de campo magnético es general para todos los campos magnéticos, inde-
pendientemente de la distribución de corriente que los genere, y es debido a la no existencia de
“cargas magnéticas puntuales” (monopolos magnéticos). En consecuencia, las líneas del campo
magnético son siempre líneas cerradas, y, por tanto, en un imán, las líneas de campo se cierran en
su interior.
A continuación, vamos a analizar los efectos que un campo magnético tiene sobre las cargas en
movimiento y la forma matemática de la fuerza magnética.

84 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

N S

Figura 1.
Líneas de campo magnético creado por
un imán y una corriente eléctrica que
circula por un conductor rectilíneo.

1.2.1. Fuerza magnética sobre una carga eléctrica


Los experimentos demuestran que una carga eléctrica en
el seno de un campo magnético se ve sometida a una fuerza, es
decir, es acelerada por el campo magnético. Un experimento
sencillo que permite observar este fenómeno puede hacerse
acercando un imán al haz de electrones que incide sobre la F
pantalla de un osciloscopio. S u
N
Consideremos un campo magnético B creado por un +q
imán, tal como se muestra en la figura 2, y una partícula con B
carga eléctrica q que se mueve con velocidad u. Los resultados
que se obtienen, realizando varios experimentos con diferentes
cargas, variando la dirección de su movimiento y también la
intensidad del campo magnético, acercando o alejando la car-
ga del imán, nos indican que: Figura 2. Fuerza que un campo
magnético ejerce sobre una
1. La fuerza experimentada por la partícula es proporcional partícula cargada.
a la carga q.
2. La fuerza es proporcional a la componente de la velocidad perpendicular al campo magnético u^.
Por tanto, si la velocidad es perpendicular al campo magnético, la fuerza es proporcional al módu-
lo de la velocidad u^ = u; y si la velocidad es paralela al campo magnético, la fuerza es nula.
3. La fuerza es proporcional a la intensidad del campo magnético.
4. La fuerza es perpendicular a la dirección del campo magnético y perpendicular a u.

Todas estas condiciones anteriores se pueden expresar matemáticamente como:


r r r
F = qu´ B (1)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 85


Volumen II. Física II

r r
Por consiguiente, la dirección de la fuerza es perpendicular al plano definido por los vectores u y B, y
su módulo viene dado por:
F = q uB sen q = qu^B (2)
r r
en donde q es el ángulo formado por los vectores u y B.
Esta ecuación define el campo magnético en función de la fuerza experimentada por una carga
móvil. En el SI, la unidad del campo magnético se denomina tesla (T), campo magnético tal que
una carga de un culombio que se mueve perpendicularmente a él a una velocidad de un metro por se-
gundo experimenta una fuerza de un newton.
N/ C
1T = 1 = 1N×A –1 m –1
m/ s
El tesla es una unidad de campo magnético bastante grande. Por ejemplo, el campo magnético terrestre,
aunque varía de un punto de la superficie terrestre a otro, es del orden de 5 ´ 10–5 T; los campos magné-
ticos próximos a grandes imanes pueden variar entre 0.1 T y 0.5 T; y los grandes electroimanes de los
laboratorios y la industria producen campos entre 1 T y 2 T. Por ello, normalmente se suele utilizar una
unidad más pequeña como unidad de campo magnético, el gauss (G):
–4
1 G = 10 T (3)
Esta unidad, el gauss, no es una unidad del sistema internacional y, en consecuencia, es necesario ha-
cer la conversión a teslas cuando utilizamos unidades en el sistema internacional.
Experimentalmente también se encuentra que una carga sometida a un campo magnético y un
campo eléctrico, simultáneamente, responde de forma independiente al campo eléctrico y al campo
magnético. De esta manera, lar fuerza que experimenta unarcarga q que se mueve con velocidad u en el
seno de un campo eléctrico E y de un campo magnético B viene dada por:
r r r r
[ (
F = q E + u´ B )] (4)

Esta ecuación se conoce como ley de la fuerza de Lorentz.

1.2.2. Fuerza sobre una corriente eléctrica


Puesto que una corriente eléctrica no es más que un conjunto de cargas que se mueven, es de es-
perar que un conductor por el que circula una corriente experimente una fuerza cuando se encuentra
inmerso en un campo magnético. La fuerza sobre el conductor será igual a la suma de todas las fuer-
zas que experimentan cada una de las cargas que circula por el mismo.
Supongamos un pequeño segmento de longitud dl y de sección A de un r hilo conductor, por el que
circula una corriente eléctrica I, que se encuentra en un campo magnético B (figura 3). Si llamamos n a
la densidad de portadores de carga en el conductor, el número de portadores contenidos en el segmento
considerado será igual a ndV = nAdl. Por otro lado, si la velocidad de arrastre de los portadores de carga
en el interior del conductor es ud, cada uno de los portadoresr de carga está sometido a una fuerza debida
r
al campo magnético que viene dada, según (1), por qu d ´ B. Si el segmento considerado es suficiente-
mente pequeño, podemos suponer que el campo magnético es el mismo en todos los puntos del seg-
mento. En este caso, la fuerza ejercida por el campo sobre el elemento conductor, que es la suma de las
fuerzas ejercidas sobre cada carga, vendrá dada por:
r r r
dF = n A q dl u d ´ B (5)

86 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

Z
F

dR

Figura 3. Elemento de un Z
hilo conductor en el seno de B
un campo magnético.

r
Esta expresión es conveniente escribirla en función de un vector desplazamiento d l de mó-
dulo igual a dl y dirección igual a la velocidad de arrastre de los portadores
r de carga y en función
r
de la corriente por el conductor. Si tenemos en cuenta que dlu d = u d d l, y que la corriente por el
conductor es I = nqAud, la expresión (5) la podemos escribir como:
r r r
dF = Id l´ B (6)
r
La fuerza neta sobre un elemento finito conductor se obtiene integrando dF sobre la longitud to-
tal del conductor. Si tenemos en cuenta que la corriente I es constante a lo largo de todo el conductor,
integrando (7) se obtiene que:
r r r
F = I ò d l´ B (7)

La integral anterior depende de la geometría del conductor y del campo magnético. Para un conductor
rectilíneo en el seno de un campo magnético uniforme, la integral puede hacerse de forma sencilla. En
este caso, la dirección del producto vectorial del integrando permanece constante. Si llamamos û a esa
dirección, la expresión (7) se puede escribir como:
r
F = IB sen q u$ ò0 dl
L
(8)

en donde q es el ángulo entre el conductor y la dirección del campo magnético. Si denominamos L a la


longitud del conductor, la expresión anterior queda como:
r
F = IBL sen q û (9)

Expresión que podemos escribir de forma vectorial como:


r r r
F = IL´ B (10)

1.2.3. Fuerza sobre una espira de corriente


Consideremos una espira rectangular de longitud
r a y de anchura b por la que circula una corrien-
te I, situada en un campo magnético uniforme B (figura 4). La espira puede girar alrededor de un eje
de rotación contenido en el plano de la misma.
Z
Z
F3 F3 Z
Z S
N I F2 N r
3
q S
Z
S r a
1
Figura 4. Fuerza que un campo F4 b a Z Z
B
magnético uniforme ejerce F1 Z
F1
sobre una espira de corriente.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 87


Volumen II. Física II

La fuerza sobre cada tramo de la espira la podemos calcular a partir de la expresión (8). Hacien-
do esto se tiene que:
F1 = IBa F2 = IBb sen a (11)
F3 = IBa F4 = IBb sen a (12)
r r
Las direcciones de cada una de las fuerzas son las mostradasr r en la figura. Las fuerzas F 1 y F 3 son igua-
les y opuestas, al igual que también lo son las fuerzas F 2 y F 4, por lo que la fuerza neta resultanter sobre r
la espira es cero. No obstante, hay una diferencia entre ambos conjuntos de fuerzas: las fuerzas F 2 y F 4
actúan a lo largor del mismo
r eje y por tanto no producen ningún momento sobre la espira; por el contra-
rio, las rfuerzas F 1 y F 3 no actúan sobre el mismo eje y sí producen un momento sobre la espira. El mo-
mento t de este par de fuerzas hace que la espira gire en el sentido de las agujas del reloj y es igual a:
r r r r r
t = r1 ´ F1 + r3 ´ F3 (13)
r r
donde r1 y r3 son los vectores perpendiculares al eje de giro de la espira con origen en el eje y extremo
en los tramos de la espira perpendiculares al campo magnético.
La orientación de la espira puede describirse adecuadamente mediante un vector unitario n$ per-
pendicular al plano de la espira, cuyo sentido estará dado por la regla de la mano derecha: se curvan
los dedos de la mano derecha en la dirección de la corriente en la espira, entonces el pulgar estirado
$ De esta manera, podemos
nos proporciona el sentido del vector unitario n. r asociar a la superficie de la
$ S = Sn.
espira S un vector en la dirección y sentido del vector unitario n, $ Si llamamos q al ángulo for-
mado por el vector unitario n$ con la dirección del campo magnético, como se muestra en la figura, el
módulo del momento de las fuerzas sobre la espira puede escribirse como:
t = r1 F1 sen q + r3 F3 sen q (14)
Teniendo en cuenta las expresiones de F1 y F3 dadas por (11) y (12), y que r1 = r3 = b/2, el momento
neto sobre la espira vendrá dado por:
b b
t=IaB sen q + IaB sen q = IabB sen q (15)
2 2
r r
Si tenemos en cuenta ahora que S = ab y que S ´ B = SB sen q, el resultado anterior lo podemos ex-
presar en forma vectorial como:
r r r
t = IS ´ B (16)

El resultado que hemos encontrado para una espira rectangular se puede generalizar a cualquier
espira plana, independientemente de cuál sea su forma geométrica. Para ello, basta considerar dicha
espira como la suma de un conjunto de espiras rectangulares por las que circula una corriente I igual a
la que circula por la espira, tal como se muestra en la figura 5. Las corrientes interiores se compensan
por parejas, quedando sólo la corriente neta I en el contorno exterior de la espira. Por tanto, la ecua-
ción (16) es válida para toda espira plana en un campo magnético uniforme, con independencia de la
forma geométrica que tenga.

Figura 5. Una espira de forma


cualquiera puede suponerse
formada por un conjunto de
espiras rectangulares.

88 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

En el caso en que tengamos una espira con N vueltas (una bobina), la corriente por la espira es NI
y, por tanto, el momento de las fuerzas ejercidas por el campo magnético se escribe como:
r r r
t = NIS ´ B (17)
siendo N, como hemos dicho anteriormente, el número de vueltas de la espira.
Se define el momento dipolar magnético m de una espira de superficie A, y por la que circula una
corriente I, como:
r r
m = NIS (18)

siendo N el número de vueltas. En el caso de una espira simple, N =1. En función del momento dipo-
lar magnético de la espira, el momento de las fuerzas magnéticas se escribe como:
r r r
t = m´B (19)

Por lo dicho anteriormente, vemos que sobre una espira de corriente en el seno de un campo mag-
nético uniforme actúa un par de fuerzas que tiende a alinear el momento dipolar magnético con el cam-
po magnético. La espira tiende a girar hacia una posición estable en la que su superficie sea perpendicu-
lar al campo magnético, y el momento de las fuerzas sea cero. En consecuencia, podemos utilizar una
espira por la que circula una corriente pequeña como el equivalente magnético de una “carga de prue-
ba” electrostática. Si en una región del espacio colocamos una espira y sobre ésta aparece un par de
fuerzas que tiende a hacerla girar hasta alcanzar una posición estable, podemos decir que en dicha re-
gión existe un campo magnético cuya dirección es perpendicular a la superficie de la espira cuando ésta
ha alcanzado el equilibrio.

1.2.4. Fuerza sobre imanes


Si colocamos un pequeño imán en una región en la que existe un campo magnético uniforme (fi-
gura 6), observamos que el imán no se desplaza, pero gira hasta que se orienta en el sentido del cam-
po. Por tanto, el imán se comporta como lo hace una espira situada en el seno de dicho campo. Puesto
que el imán no se desplaza, debe aparecer una fuerza igual y de sentido opuesto en cada polo del
imán, lo que da lugar a un par de fuerzas que tienden a alinearlo en la dirección del campo.

L
N F
F
S q

Figura 6. Fuerza que un campo B


magnético ejerce sobre un imán.

Para un imán permanente, se definen la intensidad de un polo magnético y el momento magnéti-


co del imán en función de las fuerzas y momentosr observados experimentalmente cuando se le coloca
en la región de un campo magnético uniforme B. Así, definimos la intensidad qmr del polo magnético
del imán de manera que la fuerza ejercida sobre el polo por un campo magnético B venga dada por:
r r
F = q mB (20)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 89


Volumen II. Física II

Por otra parte, el momento magnético de un imán se define como:


r r
m = |qm|L (21)
r
en donde L es el vector longitud que apunta desde el polo sur al polo norte. El momento de fuerzas
ejercido sobre un imán en el seno del campo magnético viene dado por:
r r r
t = m´ B (22)

Esta expresión nos permite determinar el momento magnético del imán midiendo experimentalmente
el momento resultante cuando se coloca el imán en la región de un campo magnético conocido. Poste-
riormente, a través de la expresión (21), se puede determinar la intensidad del polo magnético.

2. FUENTES DEL CAMPO MAGNÉTICO


En el apartado anterior centramos nuestra atención en el estudio de los efectos que los campos
magnéticos ejercen sobre las cargas en movimiento y sobre las corrientes eléctricas. En esta sección
nos centraremos en el estudio de los campos magnéticos producidos por las corrientes eléctricas.
El experimento realizado por Oersted puso de manifiesto que el paso de una corriente eléctrica
por un conductor producía desviaciones en la orientación de una aguja imantada. Este hecho supuso
la prueba experimental de que una corriente eléctrica origina un campo magnético que produce un
momento de fuerza sobre la aguja imantada. Es decir, que, además de los imanes permanentes, las co-
rrientes eléctricas son fuentes del campo magnético. Por otra parte, sabemos que, en última instancia,
el campo magnético creado por un imán es debido al movimiento de las partículas cargadas funda-
mentales de la materia.
En lo que sigue, vamos a estudiar el campo magnético creado por distribuciones geométricas
sencillas de corrientes estacionarias (corrientes que no cambian con el tiempo) y deduciremos las ex-
presiones matemáticas para dichos campos.

2.1. Ley de Biot-Savart


Unos pocos meses después de la publicación de los resultados del experimento de Oersted, Jean
Batiste Biot (1774-1862) y Felix Savart (1791-1841) presentaron a la Academia Francesa sus trabajos
sobre la dependencia de la fuerza magnética producida por una corriente con la distancia a la misma.
La ley de Biot-Savart es en magnetismo análoga a la ley de Coulomb en electrostática
r y estable-
ce que el campo magnético producido por un elemento infinitesimal de corriente d l por el que pasa
una corriente I, en un punto situado a una distancia r del mismo, viene dado por:
r
r m 0 Id l´ r$
dB = (23)
4p r 2
en donde r$ es el vector unitario en la dirección que va desde el elemento infinitesimal al punto donde
estamos calculando el campo y m0 es una constante que se conoce como permeabilidad del vacío y
su valor en unidades del SI viene determinado por la definición de amperio (A) y es:
m0 = 4p10 T · m · A
–7 –1
(24)

De la expresión anterior vemos que, al igual que el campo electrostático creado por una carga
puntual (fuente del campo electrostático), el campo magnético creado por un elemento infinitesimal
de corriente (fuente del campo magnético) es inversamente proporcional a la distancia al cuadrado al

90 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

punto donde se calcula el campo. Pero existe una diferencia importante entre la ley de Coulomb y la
ley de Biot-Savart:
r el campo eléctrico producido por una carga puntual es radial, mientras que la di-
rección de dB es perpendicular al elemento de corriente y al vector de posición que va desde dicho
elemento al punto donde calculamos el campo.
La ley de Biot-Savart dada por (23) nos proporciona la expresión del campo magnético creado
por un elemento de corriente infinitesimal. Pero a diferencia de lo que se tiene en electrostática, en
magnetismo no se tienen fuentes puntuales del campo magnético; es decir, no se tienen elementos de
corrientes infinitesimales en una corriente eléctrica estacionaria, sino que se tienen conductores fini-
tos. Para calcular el campo magnético creado por una distribución de corriente debemos integrar la
expresión (23) a lo largo de todo el conductor:
r
m 0 Id l´ r$
B= ò (25)
4p r 2
en donde la integral debe extenderse a todo el conductor.
Veamos a continuación algunos ejemplos sencillos de la aplicación de la ley de Biot-Savart.

2.1.1. Campo magnético creado por una corriente rectilínea


Supongamos un conductor rectilíneo por el que circula una corriente estacionaria I. Considere-
mos un elemento infinitesimal dl como el mostrado en la figura 7. El campo magnético creado por di-
cho elemento en un punto situado a una distancia R del conductor viene dado por la expresión (23).
Por tanto, la dirección del campo magnético es perpendicular al papel y dirigida hacia fuera:
m 0 Idz sen q
dB = (26)
4p r2

Para calcular el campo magnético producido por el conductor, debemos utilizar la forma integral de la
ley de Biot-Savart dada por (25). Ahora bien, esta expresión contiene una integral de una magnitud vec-
torial, por lo que se ha de tener cuidado con la dirección al realizar la integración vectorial. En general,
este cálculo es bastante complicado y sólo puede hacerse en los casos en que el circuito de integración
tenga una forma
r geométrica sencilla. En el caso que nos ocupa, de un conductor rectilíneo, el producto
vectorial d l´ r$, en cualquier punto del conductor, es un vector de dirección constante perpendicular al
papel y dirigido hacia fuera. Por consiguiente, la suma de todas las contribuciones de la integral tendrán
la misma dirección y su módulo vendrá dado por:
m 0 ¥ I sen q
B = ò dB = ò dz (27) z
4 p –¥ r 2
en donde hemos supuesto que el conductor es de longitud infinita.
Para calcular esta integral vamos a utilizar como variable I
de integración el ángulo a definido en la figura 7: sen q = cos a. R
a y
Por otra parte se tiene que:
z
z 1
tan a = Þ dz = R da (28) Z
r
R cos 2 a q
x
Y además: dl
R R2
cos a = Þ r2 = (29) Figura 7. Aplicación de la ley de
r cos 2 a Biot-Savart a un hilo conductor.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 91


Volumen II. Física II

Con todo esto, el integrando de la expresión (27) se escribe como:


sen q cos 2 a R cos a
d z = cos a da = da (30)
r 2
R 2
cos a
2
R
Por tanto:
m0I p 2
B= ò cos a da
4pR – p 2
(31)

Como la integral de la función coseno es la función seno, se tiene que:


m0I m I p p m I
B= [sen a] –pp/ 2/ 2 = 0 [sen – sen (– )] = 0 (32)
4pR 4pR 2 2 2pR

La dirección del campo en un punto del espacio es perpendicular al plano que contiene al hilo
conductor y a dicho punto, y el sentido lo encontramos aplicando la regla de la mano derecha. Si suje-
tamos el hilo conductor con la mano derecha de manera que el pulgar apunte en el sentido de la co-
rriente, los demás dedos curvados nos dan el sentido del campo magnético. En la figura 8 se muestra
la dirección del campo magnético en distintos puntos del espacio.

I
B B

B B
Figura 8. Dirección del campo magnético
creado por una corriente que circula por un
hilo conductor infinito.

En el caso de un conductor rectilíneo de longitud L, la expresión del campo magnético a una dis-
tancia R del hilo y a una altura z del centro del conductor (figura 9) vendrá dada, según (31), por:
m0I a2 m I
B= ò cos a da = 4p0R [sen a 2 +sen a 1 ]
4pR – a 1
(33)

en donde a1 y a2 son los ángulos mostrados en la figura.

a2 L/2
R
a1 z
y
I
rZ
q –L/2 Figura 9. Aplicación de la ley de
x Biot-Savart a un hilo conductor
rectilíneo de longitud finita.

92 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

Esta expresión la podemos escribir en función de la longitud del hilo L y la distancia al punto R
sin más que tener en cuenta que:
1
L– z
sen a 2 = 2 (34)
1
( L – z )2 + R 2
2
1
L+ z
sen a 1 = 2 (35)
1
( L+ z ) 2 + R 2
2
Llevando este resultado a la expresión (33), obtenemos que:
é 1 1 ù
m0I ê
ê 2
L– z
2
L+ z ú
ú
B= + (36)
2pR ê 1 1 ú
ê ( L – z )2 + R 2 ( L+ z ) 2 + R 2 ú
ë 2 2 û

Es decir, que el campo magnético en un punto del espacio depende de la distancia R al conductor, de
la distancia al centro del conductor y de la longitud L del mismo.
En el caso de un conductor muy largo en que L >> R, se tiene que a1 ® p/2 y a2 ® p/2, por lo que
el campo es aproximadamente el mismo que el de un hilo infinito.

2.1.2. Campo magnético creado por una espira de corriente


Consideremos ahora una espira circular de radio R por la
que circula una corriente estacionaria I (figura 10). Por simpli-
cidad, vamos a limitarnos a calcular el campo magnético en los dBz q Z
dB
puntos del eje z, perpendicular a la espira y que rpasa por su
centro. En la figura se observa la contribución dB de un ele- 90o
mento de corriente al campo total. La magnitud de esta contri-
bución viene dada por:
m 0 Idl q
dB = (37) ^
r
4p r 2 R
en donde se ha tenido en cuenta que el elemento de corriente I
es perpendicular al vector unitario r$. Esta contribución es la
misma parar todos los elementos de corriente, pero norla direc-
Figura 10. Aplicación de la ley de
ción de dB. Ahora bien, podemos descomponer dB en una Biot-Savart a una espira circular.
componente a lo largo del eje dBz = dB cos q y otra perpendi-
cular a dicho eje dB^ = dB sen q. Por simetría, se tiene que las
componentes perpendiculares de dos elementos de corriente en posiciones opuestas se cancelan,
por lo que la integral extendida a todo el conductor de esta componente es cero. En consecuencia, el
campo magnético total estará orientado en la dirección del eje z y su valor vendrá dado por:
m0 Idl m I cos q
B z = ò dB z = ò cos q = 0 ò dl (38)
4p ( z + R )
2 2
4p ( z 2 + R 2 )

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 93


Volumen II. Física II

en donde se ha tenido en cuenta que r2 = z2 + R2. La integral extendida a todo el conductor es igual a la
longitud de la espira ò dl = 2pR, y, por consideraciones geométricas, se tiene que:

R R
cos q = = (39)
r z +R 2
2

Sustituyendo lo anterior en la expresión de Bz, se tiene que:


m 0 IR 2
Bz = (40)
2( z 2 + R 2 ) 3 2

r r 2 $
r m= IA = IpR k.
Este resultado lo podemos expresar en función del momento magnético de la espira
$
Puesto que el campo magnético sólo tiene componente en la dirección del eje z (B = Bzk), podemos es-
cribir:
r m0 r
m
B= (41)
2p ( z 2 + R 2 ) 3 2

En el centro de la espira se tiene que z = 0, y, por tanto, el campo magnético toma su valor máximo:
m0I m m
Bz = = 0 3 (42)
2R 2pR

2.2. Ley de Ampère


En la sección 2.1.1. hemos visto que el campo magnético creado por una corriente I que circula
por un hilo recto viene dado por la expresión (32):
m0I
B=
2pR
en donde R es la distancia al conductor. También hemos visto que la dirección del campo en un punto
del espacio es perpendicular al plano que contiene al hilo conductor y a dicho punto, como se muestra
en la figura 8.
Calculemos la circulación del campo magnético a lo largo de una circunferencia de radio R si-
tuada en un plano normal al conductor (figura 11a). En notación vectorial, podemos expresar el cam-
po como:
r m I
B = 0 q$ (43)
2pR
siendor q$ el vector unitario en la dirección tangencial, como muestra la figura. Por otro lado, se tiene
que d l = Rdqq, $ por lo que la circulación del campo magnético vendrá dada por:
r r m0I
ò B ×d l = ò
2p
dq = m 0 I (44)
2p 0

Resultado que es independiente del radio de la circunferencia utilizada para la integración.


Consideremos ahora un camino de integración formado por dos arcos de circunferencias de ra-
dios R1 y R2 y dos tramos radiales como se muestra en la figura 11b, y calculemos la circulación del

94 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

campo magnético a lo largo de dicha trayectoria. La integral a lo largo de dicho camino la podemos
desdoblar en cuatro integrales a lo largo de cada uno de los tramos que la componen. De esta forma:
r r b r r c r r d r r a r r
ò B ×d l = òa B ×d l+ òb B ×d l+ òc B ×d l+ òd B ×d l (45)

Z Z
Z
B Z
B dl
dl
q Z
B c
R2 Z
b dl
R
Figura 11. Cálculo de la I I q
R1
circulación del campo a
magnético a lo largo de dos
circuitos que encierran una d
corriente I.

r r
r rmagnético B y el desplazamiento d l son perpendiculares, por lo
En los tramos radiales el campo
que su producto escalar es cero: B · d l = 0. Por tanto, la contribución de los tramos radiales a la circu-
lación del campo magnético es nula. Para calcular la integral del campo magnético a lo largo de los
arcos de circunferencia, tendremos en r cuenta
r que el campo a una distancia R del conductor viene
dado por (43) y que en estos tramos B y d l son paralelos. En consecuencia, tendremos que:
r r r d r r m I m0I
ò B ×dl = ò B ×d l+ òc B ×d l= 0 ò ò
b q 2p
dq + dq =
a 2p 0 2p q

m0I (46)
= ( q + 2p – q ) = m 0 I
2p
Por tanto, tenemos el mismo resultado que obtuvimos en el caso de un camino de integración circular.
En el caso de una trayectoria con forma arbitraria, como la mostrada en la figura 12, siempre es posi-
ble descomponerla en un número determinado de tramos radiales y circulares. Esta aproximación
será tanto más fiel al camino original cuanto mayor sea el número de tramos, siendo igual a aquélla en
el límite de un número infinito de tramos infinitesimales. El procedimiento para calcular la circula-
ción del campo magnético será igual que el que hemos seguido en el caso de dos tramos circulares y
dos tramos radiales. La contribución de los tramos radiales a la circulación del campo magnético es
cero, y la suma de las contribuciones de los tramos circulares es igual al producto de la permeabilidad
magnética por la corriente I.

Figura 12. La circulación a lo largo de una espira de


forma cualquiera se puede calcular como una
combinación de caminos radiales y circulares.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 95


Volumen II. Física II

Z
P B1 Veamos a continuación lo que ocurre si el camino de integra-
Z ción no enlaza a la corriente I; es decir, si la corriente no pasa a través
Z dl1 de la superficie limitada por la línea de integración. Supongamos, en
B2 Z primer lugar, un camino formado por dos tramos radiales y otros dos
M dl2 circulares como el mostrado en la figura 13. Como hemos visto ante-
riormente, la integral del campo magnético a lo largo de los tramos
Q N radiales es cero, por lo que la circulación del campo magnético a lo
I R1 largo de la línea cerrada se reduce a la integral
r rdel campo a lo largo de
los tramos circulares. Si denominamos B1 y B2 al campo magnético
R2 en cada uno de estos tramos, se tiene que:
r P r r Mr r
Figura 13. Circulación del ò B ×dl = òN B 1 ×d l 1 + òQ B 2 ×d l 2 (47)
campo magnético a lo largo de
un camino que no enlaza r r r r
ninguna corriente. Ahora bien, B1 res paralelo al desplazamiento d l, por lorque B1 · d l1 =
r 1; pero B2 es antiparalelo al desplazamiento d l2, por lo que
=r B1dl
B2 · d l2 = –B2dl2. Si ahora tenemos en cuenta que el campo magnéti-
co a una distancia R del conductor viene dado por (43), y que dl1 = R1dq1 y dl2 = R2dq1, obtenemos que:
r r q m I q m I
ò B ×d l = ò0 2p0R R 1dq 1 – ò0 2p0R R 2dq 2 = 0 (48)
1 2

Es decir, la circulación del campo magnético es cero.


Un camino de integración arbitrario siempre se puede considerar como una combinación de tra-
mos radiales y de arcos de circunferencia, tal como se vio anteriormente. Por lo tanto, para cualquier
camino de integración que no enlace a la corriente, la circulación del campo magnético es cero.
Los resultados encontrados anteriormente para la circula-
ción del campo magnético nos permiten establecer el resultado
general. Consideremos un camino cerrado arbitrario como el
I4
I3 mostrado en la figura 14, el cual enlaza algunas corrientes pero
I2 otras no. Estas corrientes pueden ser cualesquiera, no necesaria-
I1 mente deben circular por hilos conductores rectilíneos como las
consideradas anteriormente. La ley de Ampère establece que:
r r
ò B ×d l = m 0 I (49)

en donde la corriente I es la corriente neta enlazada por el camino


cerrado, es decir, la corriente que atraviesa cualquier superficie li-
mitada por el camino de circulación. En la figura 14 se muestra
un conjunto de circuitos de corrientes y un camino de integración.
La aplicación de la ley de Ampère nos proporciona la relación en-
Figura 14. Camino arbitrario que tre la circulación del campo magnético a lo largo del camino de
enlaza diversas corrientes.
integración y las corrientes enlazadas por dicho camino:
r r
ò B ×d l = m 0 ( I 1 – I 2 + I 3 ) (50)
en donde el signo de cada corriente viene dado por la regla de la mano derecha: se curvan los dedos de
la mano derecha de manera que sigan la dirección del camino de integración; el pulgar extendido nos
indica el sentido de una corriente que contribuye positivamente.
La ley de Ampère para campos magnéticos puede considerarse análoga a la ley de Gauss para el
campo eléctrico. Todo campo magnético creado por una corriente estacionaria debe satisfacer la ley
de Ampère. Matemáticamente, se puede demostrar, de forma general, que todo campo magnético ob-
tenido mediante la ley de Biot-Savart satisface la ley de Ampère. Es decir, la ley de Biot-Savart es

96 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

equivalente a la ley de Ampère, de la misma forma que la ley de Coulomb para el campo eléctrico es
equivalente a la ley de Gauss.
De la misma forma que la ley de Gauss permite encontrar fácilmente el campo eléctrico produci-
do por distribuciones simétricas de carga, la ley de Ampère es útil para encontrar el campo magnético
creado por corrientes estacionarias que poseen un alto grado de simetría. En los apartados siguientes
veremos algunos ejemplos de la aplicación de la ley de Ampère en casos sencillos.

2.2.1. Carácter no conservativo del campo magnético


r
Por definición, un campo C es conservativo si su circulación a lo largo de cualquier línea cerrada
es cero:
r r
ò C×d l = 0 (51)

Como hemos visto para el campo magnético, la ley de Ampère establece que la circulación del
campo magnético a lo largo de una línea cerrada es igual a la corriente enlazada por el camino de inte-
gración multiplicada por la permeabilidad del vacío. En consecuencia, el campo magnético no es
conservativo.
r
Una definición alternativa de campo conservativo C es que sea irrotacional, es decir, que:
r r
Ñ´C = 0 (52)

Posteriormente, veremos que la ley de Ampère en forma diferencial establece que el rotacional del
campo magnético es igual al producto de la permeabilidad del vacío por la densidad de corriente, lo
que indica que el campo magnético no es un campo irrotacional. Por tanto, a diferencia de lo que ocu-
rre con el campo eléctrico, el campo magnético es un campo no conservativo.

2.2.2. Aplicaciones de la ley de Ampère


En este apartado vamos a estudiar algunos ejemplos de utilización de la ley de Ampère para de-
terminar el campo magnético producido por corrientes estacionarias que poseen un alto grado de si-
metría, y, por tanto, el valor del campo magnético es constante a lo largo de cierto contorno o región
en el espacio.
Comenzaremos nuestro estudio por el campo creado por una corriente I que circula por un hilo
conductor alargado.

2.2.2.1. Campo creado por una corriente en un hilo conductor rectilíneo

I
B B B
a
dl
Figura 15. Aplicación de la ley de B R
B
Ampère a un hilo rectilíneo:
a) para puntos exteriores al
conductor,
b) para puntos interiores. a) b)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 97


Volumen II. Física II

Consideremos un hilo conductor de radio a por el que circula una corriente I. Podemos aplicar la
ley de Ampère para determinar el campo magnético en un punto alejado una distancia R, R > a del con-
ductor (figura 15a). El primer paso para aplicar esta ley es elegir un camino de integración para calcular
la circulación del campo magnético, y su elección ha de hacerse atendiendo a criterios de simetría, de
manera que el cálculo de la circulación del campo sea fácil de realizar. En el caso que nos ocupa, la si-
metría del problema sugiere que el campo magnético, en módulo, ha de ser igual en todos los puntos
que se encuentren a una misma distancia del conductor. Por tanto, tomaremos como camino para calcu-
lar la circulación del campo eléctrico un camino circular de radio R. Puesto que el campo magnético ha
de ser perpendicular al plano que contiene al conductor y al punto en rdonde r se calcula, el campo ha de
ser paralelo al desplazamiento a lo largo del camino de integración B · d l = Bdl. Entonces, la ley de
Ampère puede escribirse como:
r r
ò B ×d l = ò Bdl = B ò dl = B 2pR = m 0 I (53)

en donde hemos tenido en cuenta que la integral de dl a lo largo de todo el camino es la longitud de di-
cho camino 2pR y que, al ser R > a, el camino de integración enlaza toda la corriente que circula por
el conductor. De esta expresión se obtiene que:
m0I
B= (R > a) (54)
2pR

El resultado que hemos obtenido, evidentemente, es igual al que obtuvimos aplicando la ley de
Biot-Savart y dado por la expresión (32).
Consideremos ahora un punto en el interior del conductor a una distancia R del eje que pasa por
su centro R < a de su centro (figura 15b). Procediendo como antes y eligiendo como camino de inte-
gración una circunferencia de radio R, la aplicación de la ley de Ampère nos proporciona la relación:
r r
ò B ×d l = ò Bdl = B ò dl = B 2pR = m 0 I R (55)

en donde IR es la corriente enlazada por el camino de integración, que corresponderá a una parte de la
corriente I que circula por el conductor. Si esta corriente está distribuida uniformemente en la sección
del conductor, la densidad de corriente J será constante e igual a:
I
J= (56)
pa 2
La corriente IR vendrá dada entonces por:
I R2
I R = JpR 2 = pR 2 = I 2 (57)
a pa 2
a
Sustituyendo este resultado en la expresión (55) se tiene que:
m0I/2pa m 0 IR
B= (R < a) (58)
B 2pa 2
De esta ecuación se tiene que el campo magnético en el interior
del conductor es una función lineal de la distancia al eje del
mismo R. El campo es nulo en el eje del hilo y alcanza su valor
a 2a 3a 4a r máximo en la superficie del conductor B = m0I/2pa. En el exte-
rior del hilo conductor, el campo magnético decrece inversa-
Figura 16. Campo magnético mente con la distancia R al eje. Este comportamiento se refleja
creado por un hilo conductor en
función de su distancia al centro.
en la figura 16.

98 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

2.2.2.2. Campo magnético creado por un solenoide


Un solenoide es un dispositivo electromagnético constitui-
do por un alambre muy largo arrollado en espiral (figura 17). Un
solenoide genera un campo magnético intenso y uniforme en la
I I
región del espacio comprendida entre sus espiras de la misma
forma que un condensador plano genera un campo eléctrico uni-
forme entre sus placas. El parámetro que se utiliza para describir Figura 17. Un solenoide es un
un solenoide es el número de vueltas por unidad de longitud, n. dispositivo electromagnético
Si denominamos N al número de vueltas y L a la longitud del so- constituido por un alambre muy
lenoide, n = N/L. largo arrollado en espiral.

El campo magnético producido por un solenoide es básicamente el mismo que produciría un conjun-
to de espiras circulares situadas paralelamente y por las que circula la misma corriente. Podemos com-
prender el campo magnético creado por un solenoide si tenemos en cuenta que la forma del campo creado
por una espira circular en un plano perpendicular (figura 18a) es similar, en las cercanías del alambre, al
campo creado por una corriente rectilínea. Si unimos varias espiras para formar un solenoide (figura 18b),
en la vecindad de cada espira, el campo es similar al de una espira aislada. Entre dos espiras, el campo
magnético se cancela debido a la dirección opuesta del campo creado por las espiras vecinas. En la zona
interior del solenoide, en la zona cercana al eje, los campos magnéticos producidos por las espiras indivi-
duales se suman para producir un campo magnético casi uniforme. En el caso en que las espiras se colocan
muy cerca unas de otras (figura 19), el campo magnético es prácticamente uniforme en el interior del sole-
noide y en dirección paralela a la del eje del solenoide. En la re-
gión exterior, el campo magnético es muy pequeño comparado
con el campo en el interior, debido a que los campos creados por
la parte de arriba de las espiras tiende a cancelarse con el campo
creado por la parte de abajo de las espiras.

a) b) Figura 19. Campo magnético


producido por un solenoide.
Figura 18. Campo magnético producido por a) una espira
circular, y b) un conjunto de espiras circulares.

Z
Utilicemos ahora la ley de Ampère para determinar el cam-
d dl c
po magnético en el interior del solenoide. Para ello considere-
mos un solenoide muy largo (infinitamente largo en el caso
ideal) de longitud L y formado por N espiras por las que circula
una corriente I. Elijamos como camino para calcular la circula- Z a Z b
ción del campo magnético una trayectoria alejada del extremo B dl
del solenoide, con dos tramos paralelos al eje y otros dos per- xxxxxxxxxxxxxxxxx
pendiculares al mismo, como se muestra en la figura 20. La cir-
culación a lo largo de esta trayectoria puede escribirse como la
suma de las integrales de línea en cada uno de los tramos:
Figura 20. Aplicación de la ley de
r r b r r c r r d r r a r r
ò B ×d l = òa B ×d l+ òb B ×d l+ òc B ×d l+ òd B ×d l (59) Ampère para determinar el campo
magnético producido por un
solenoide.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 99


Volumen II. Física II

El campo magnético en el interior del solenoide es paralelo al eje del mismo y, por tanto, es perpendicular
al desplazamiento elemental en los tramos interiores bc y da. Por otra parte, el campo magnético es prácti-
camente nulo entre las espiras y en el exterior del solenoide. En consecuencia, la segunda, la tercera y la
cuarta integral de la expresión anterior son nulas. La circulación del campo magnético se reduce, pues, a:
r b r r
ò B ×dl = òa B ×d l = Bl (60)

siendo l la longitud
r del tramo ab; y en donde hemos tenido en cuenta que el campo es paralelo al des-
plazamiento d l en el interior del solenoide y es prácticamente uniforme. La aplicación de la ley de
Ampère conduce a:
Bl = m 0 N l I (61)
siendo I la corriente por cada espira y Nl el número de espiras que enlaza el circuito de integración. Si de-
nominamos n al número de espiras por unidad de longitud, n = Nl/l, de la expresión anterior se tiene que:
B = m0n I (62)
Esta expresión nos da el campo magnético en el interior del solenoide. Vemos que el campo magnéti-
co sólo depende del número de espiras por unidad de longitud n y de la corriente que circula por el so-
lenoide. Es decir, el campo no depende de la posición en el interior del solenoide y es, por tanto, un
campo uniforme. Lo que acabamos de decir es estrictamente cierto en el caso de un solenoide ideal
infinitamente largo; no obstante, es una buena aproximación del valor del campo magnético en el in-
terior de un solenoide real, de longitud finita, en puntos alejados de sus extremos.
Si comparamos las figuras 1 y 19, observamos que las líneas de campo magnético en el exterior
de un solenoide son casi iguales a las de un imán de barra. De hecho, un solenoide se comporta como
un imán con uno de sus extremos actuando de polo norte y el otro de polo sur.
Una aplicación práctica sencilla que puede llevarse a cabo en el laboratorio es la construcción de
un timbre. El esquema es el mostrado en la figura 21. Consta de un solenoide alimentado por una pila
y de una barra de hierro, sujeta a un resorte, que se coloca parcialmente en el interior del solenoide. Al
cerrar el interruptor, el solenoide actúa como un imán atrayendo a la barra de hierro, que golpea en la
campana. Cuando abrimos el interruptor, desaparece el campo magnético en el interior del solenoide,
y el resorte hace que la barra de hierro vuelva a su posición original.

I I
E Figura 21. Esquema de
un timbre.

2.3. Fuerza entre corrientes


En los apartados anteriores, hemos estudiado la fuerza que un campo magnético ejerce sobre un
conductor por el que circula una corriente I y también hemos estudiado el campo magnético creado
por una corriente que circula por un conductor rectilíneo. Veamos en este apartado cómo a partir de
esos resultados podemos determinar la fuerza magnética que ejercen entre sí dos conductores por los
que circula una determinada corriente.

100 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

Consideremos dos conductores rectilíneos por los que circulan unas corrientes I1 e I2 respectiva-
mente, como se muestra en la figura 22. Vamos a suponer que la distancia R entre los conductores es
lo suficientemente pequeña comparada r con su longitud, de manera que podamos considerar que los
conductores son infinitos. Llamemos B2 al campo magnético creado por la corriente I2 que circula por
un conductor. La fuerza que este campo magnético ejerce sobre un elemento de longitud l del con-
ductor por el que circula la corriente I1 viene dada por la ecuación (10), que podemos escribir como:
r r r
F = I 1 l´ B 2 (63)

I2
I1

l
F B2

Figura 22. Conductores rectilíneos


por los que circulan unas R
corrientes I1 e I2.
r r
Puesto que el campo magnético B 2 es perpendicular al elemento de longitud l, la expresión ante-
rior nos conduce a:
F = I1lB2 (64)
r r
La dirección de la fuerza es perpendicular a l y a B 2 y es la mostrada en la figura.
El campo magnético producido por la corriente I2 en la posición donde se encuentra el alambre I1
viene dado, según (32) o (54), por:
m I
B= 0 2 (65)
2pR
Sustituyendo este resultado en la expresión anterior, obtenemos que la fuerza ejercida por el campo
magnético creado por I2 sobre el trozo l del conductor por el que pasa una corriente I1 es:
m I I
F= 0 1 2 l (66)
2pR

Procediendo de forma análoga, podemos encontrar que la fuerza que ejerce el campo magnético
creado por I1 sobre un trozo l del conductor por el que pasa la corriente I2 también viene dada por la
expresión (66), y su dirección es opuesta a la de la fuerza que se ejerce sobre el conductor de corriente
I1. En consecuencia, la expresión (66) proporciona la fuerza de atracción que experimenta un trozo de
longitud l de cualquiera de los dos conductores debido al campo magnético creado por el otro con-
ductor. También puede demostrarse fácilmente que, si los sentidos de las corrientes son opuestos, en-
tonces, las fuerzas entre los conductores son repulsivas.
La expresión (66) se utiliza para definir el amperio como unidad de corriente en el SI. Si la co-
rriente que pasa por cada uno de los hilos conductores es un amperio (I1 = I2 = 1 A), y estos están sepa-
rados un metro (R = 1 m), la fuerza que experimenta un metro de hilo conductor (l = 1 m), es:
m
F = 0 N= 2×10–7 N (67)
2p

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 101


Volumen II. Física II

Se define el amperio como la corriente que al pasar por dos conductores rectos y paralelos muy lar-
gos, separados una distancia de un metro, produce sobre cada uno de ellos una fuerza por unidad de
longitud igual a 2 · 10–7 N/m.
Una vez definido el amperio, se define el culombio, unidad de carga en el SI, como la carga que
pasa por unidad de tiempo por un punto de un circuito en el que existe una corriente estacionaria de un
amperio:
1C=1A·1s (68)

El motivo de definir en primer lugar el amperio y a partir de él definir el culombio es una cues-
tión operacional. Podríamos definir el culombio a partir de la ley de Coulomb, que nos da la fuerza
entre dos cargas puntuales, después de definir e0. Sin embargo, es realmente muy difícil realizar este
tipo de experimentos con cargas puntuales. Por otra parte, es también muy difícil obtener una cierta
cantidad de carga determinada que se desee. Sin embargo, obtener una cierta cantidad de corriente a
través de un hilo conductor es fácil insertando una resistencia variable y ajustándola conveniente-
mente. Por consiguiente, es mucho más fácil realizar la medida de la fuerza entre dos conductores por
los que se hace circular una determinada cantidad de corriente que la medida entre cargas concretas; y
es por esta cuestión meramente operacional por lo que se define en primer lugar el amperio y a partir
de él el culombio.

2.4. Ley de Gauss para el campo magnético


r el campo eléctrico el flujoreléctrico FE, se define el flujo
Análogamente a como se define para
magnético FB de un campo magnético B, a través de una superficie S como:
r r
F B = òSB ×dS (69)
r
en donde dS es el vector asociado a un elemento diferencial de superficie y dirección normal a la mis-
ma. La unidad del flujo magnético es el weber (Wb):
2
1 Wb = 1 T · 1 m

En términos de las líneas de campo, el flujo a través de una superficie es proporcional al núme-
ro de líneas que la cruzan. Puesto que las líneas del campo magnético son líneas cerradas, para cual-
quier superficie cerrada, se tiene que toda línea de campo que atraviesa hacia adentro la superficie
vuelve a atravesarla hacia afuera. Es decir, que el flujo magnético a través de una superficie cerrada
es cero:
r r
F B = ò B ×dS = 0 (70)

Esta expresión constituye la ley de Gauss para el campo magnético.


La ley de Gauss para el campo eléctrico expresa una importante relación entre el flujo del
camporeléctrico
r a través de una superficie cerrada y la carga eléctrica encerrada en dicha superfi-
cie ò E ×dS = Q e 0 ; por tanto, el flujo del campo eléctrico es distinto de cero si hay carga encerrada
por la superficie. Esta ley nos indica que la carga eléctrica es la fuente del campo electrostático. Las
líneas del campo eléctrico tienen su origen en una carga eléctrica positiva y terminan en una carga
eléctrica negativa. Por el contrario, el flujo del campo magnético a través de cualquier superficie ce-
rrada es cero. Es decir, no existe el equivalente magnético de la carga eléctrica que correspondería a

102 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

un polo magnético aislado o monopolo magnético. Si este polo magnético existiese, las líneas del
campo magnético no se cerrarían sobre sí mismas.

N S

Figura 23. Líneas de campo


en un imán.

En un imán, estamos acostumbrados a dibujar las líneas de campo en el exterior del imán tal
como si salieran de un polo, el polo norte, y terminaran en otro, el polo sur. La realidad es que las lí-
neas de campo magnético son continuas en el interior del imán. Las líneas que salen del polo norte del
imán y entran por el polo sur retornan al polo norte por el interior del imán (figura 23). De esta manera
se satisface la ley de Gauss para el campo magnético, y el flujo a través de cualquier superficie cerra-
da es cero.

3. ECUACIONES DIFERENCIALES DE LA MAGNETOSTÁTICA


En esta sección vamos a ver cómo se pueden escribir de forma diferencial la ley de Gauss y la ley
de Ampère estudiadas anteriormente.

3.1. Ley de Gauss en forma diferencial


La ley de Gauss es posible escribirla en forma diferencial de manera que describa una región mi-
croscópica del espacio. Para ello, consideremos un volumen dV = dxdydz (figura 24) y calculemos el
flujo a través de la superficie.

z Bx(x–dx/2,y,z)
Z
B(x,y,z)
dz

dy
dx
Bx(x+dx/2,y,z)
Figura 24. Aplicación de
la ley de Gauss a un x y
elemento de volumen.

Comenzaremos por calcular el flujo a través de las superficies normales a la dirección del eje x.
Si el campo en el centro del cubo es:
r
B ( x, y, z ) = B x ( x, y, z )i$ + B y ( x, y, z ) $j + B z ( x, y, z )k$ (71)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 103


Volumen II. Física II

el flujo a través de las caras posterior y anterior en la dirección del eje x será, respectivamente:
æ dx ö æ dx ö
dF Bçx – , y, z ÷= – B xçx – , y, z ÷dydz =
è 2 ø è 2 ø
(72)
æ dx ¶B x ö
= –çB x ( x, y, z ) – ÷dydz
è 2 ¶x ø

æ dx ö æ dx ö
dF Bçx+ , y, z ÷=+B xçx+ , y, z ÷dydz =
è 2 ø è 2 ø
(73)
æ dx ¶ B x ö
=çB x ( x, y, z )+ ÷dydz
è 2 ¶x ø

El flujo global a través de esas superficies será:


æ dx ö æ dx ö ¶B
dF Bx = dF Bçx – , y, z ÷+dF Bçx+ , y, z ÷= x dxdydz (74)
è 2 ø è 2 ø ¶x

Procediendo de forma análoga, se encuentra que los flujos a través de las caras perpendiculares a
los ejes y y z vienen dados por:
¶B y
dF By = dxdydz (75)
¶y

¶B z
dF Bz = dxdydz (76)
¶z

El flujo total a través de toda la superficie será igual a:


æ ¶B x ¶B y ¶B z ö
dF B = dF Bx +dF By +dF Bz =ç ÷
ç ¶x + ¶y + ¶z ÷dxdydz (77)
è ø

Aplicando el teorema de Gauss, se tiene que:


æ¶B x ¶B y ¶B z ö
ç ÷
ç ¶x + ¶y + ¶z ÷dxdydz = 0 (78)
è ø

Dividiendo por el elemento de volumen dV = dxdydz, obtenemos finalmente que:

¶B x ¶B y ¶B z
+ + =0 (79)
¶x ¶y ¶z

Expresión que es la forma diferencial de la ley de Gauss para el campo magnético.


La ley der Gauss en su forma diferencial puede escribirse de forma más compacta si utilizamos el
vector nabla Ñ, definido como:
r ¶ ¶ ¶
Ñ = i$ + $j + k$ (80)
¶x ¶y ¶z

104 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

De la definición del vector nabla, se tiene que:


r r æ¶ ¶ ¶ ö
÷×(B x i$ + B y $j + B z k$) =
ç i$ + $j + k$ ÷
Ñ×B =ç
è¶x ¶y ¶z ø
(81)
¶B x ¶B y ¶B z
+ +
¶x ¶y ¶z

r r
El valor de Ñ×B = 0 calculado para cualquier vector se denomina divergencia del r vector, en
nuestro caso divergencia del campo magnético, y también se escribe a veces como div B. Sustituyen-
do el resultado anterior en la ecuación (79), la ley de Gauss en forma diferencial puede escribirse
como:
r r
Ñ×B = 0 (82)

3.2. Ley de Ampère en forma diferencial


Consideremos una trayectoria muy pequeña abcd de forma rectangular, situada en el plano XY y
de lados dx dy (figura 25). La ley de Ampére, aplicada a este contorno, establece que:
r r
ò B ×d l = m 0dI (83)

Z
La circulación del campo magnético a lo largo de dicha z B(x,y,z)
Bx(x,y–dy/2,z) a
trayectoria en el sentido indicado puede escribirse como la dx d
suma de cuatro términos, uno para cada uno de los lados: b
r r b r r c r r d r r a r r dy c
ò B ×d l = òa B ×d l+ òb B ×d l+ òc B ×d l+ òd B ×d l (84)
Z
J Bx(x,y+dy/2,z)

Si el campo en el centro del cubo es: x y


r
B ( x, y, z ) = B x ( x, y, z )i$ + B y ( x, y, z ) $j + B z ( x, y, z )k$ (85)
Figura 25. Aplicación de la ley de
la contribución de la integral en el tramo ab a la circulación del Ampère a un camino infinitesimal.
campo vendrá dada por:
r æ dy ö r
ò B ×dl = òa B çx, y – , z ÷×d l
b b
(86)
a è 2 ø
r r r r
si tenemos en cuenta que en este tramo d l = dxî, entonces B · d l = B · îdx = Bxdx, por lo tanto, la inte-
gral anterior queda como:
r r æ dy ö
ò
b
B ×d l = B xçx, y – , z ÷dx (87)
a è 2 ø
r r r
De forma
r análoga, para la integral a lo largo del tramo cd, se tiene que d l = –dxî, por lo que B · d l =
= –B · îdx = –Bxdx. En consecuencia, la integral vendrá dada por:
r r æ dy ö
ò
d
B ×d l = – B xçx, y+ , z ÷dx (88)
c è 2 ø

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 105


Volumen II. Física II

Sumando las dos contribuciones anteriores se tiene que:


r r d r r é æ dy ö æ dy öù
ò B ×d l+ òc B ×d l = –êB xçx, y+ , z ÷– B xçx, y – , z ÷údx =
b

a ë è 2 ø è 2 øû
(89)
¶B
= – x dxdy
¶y

Procediendo de forma análoga, para los tramos bc y da se obtiene que:

r r a r r é æ dx ö æ dx öù
ò B ×d l+ òd B ×d l =+êB yçx+ , y, z ÷– B yçx – , y, z ÷údy =
c

b ë è 2 ø è 2 øû
(90)
¶B y
=+ dxdy
¶x

Combinando los dos resultados anteriores se tiene que:

r r æ ¶B y ¶B x ö
ò B ×d l =çç ¶x –
¶y ÷
÷dxdy (91)
è ø

Por otra parte, la corriente elemental dI encerrada por el camino abcd puede escribirse en fun-
ción de la densidad de corriente como:
r r
dI = J · dS = Jzdxdy (92)
r
en donde hemos tenido en cuenta que dS es un vector asociado al elemento infinitesimal de superficie
dxdy y cuya dirección la obtenemos mediante la regla de la mano derecha: curvando los dedos en di-
rección de la circulación del campo, el pulgar extendido indica el sentido del vector unitario normal a
la superficie. Por otra parte, es evidente que sólo la componente Jz de la densidad de corriente contri-
buirá a una corriente a través de la superficie limitada por el contorno acbd, puesto que las componen-
tes Jx y Jy corresponderán a corrientes paralelas a dicha superficie. Sustituyendo los resultados
obtenidos en (91) y (92) en la expresión (83), se tiene que:

æ¶B y ¶B x ö
ç ÷
ç ¶x – ¶y ÷dxdy = m 0 J zdxdy (93)
è ø

Eliminando a ambos lados de la ecuación anterior el factor dxdy, obtenemos la ley de Ampère en for-
ma diferencial:

¶B y ¶B x
– = m0J z (94)
¶x ¶y

El resultado anterior lo hemos obtenido suponiendo que el camino de integración para calcular
la circulación del campo magnético se encontraba situado en el plano XY. Podemos encontrar resulta-

106 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

dos similares si consideramos que dicho camino se encuentra en los planos YZ y ZX. Mediante un pro-
ceso análogo al descrito anteriormente, encontraríamos que:
¶B z ¶B y
– = m0J x (95)
¶y ¶z

¶B x ¶B z
– = m0J y (96)
¶z ¶x

Las ecuaciones (95), (96) y (94) se pueden combinar en una sola ecuación vectorial. Vemos que
los segundos miembros de estas ecuaciones son las componentes del vector densidad de corriente
multiplicadas por la permeabilidad del vacío. Por otro lado, los primeros términos
r pueden considerar-
se como las componentes de un vector obtenido a partir del campo magnético B combinando sus deri-
vadas espaciales en la forma adecuada.
r r Este vector,
r por definición, se denomina rotacional del campo
magnético y se escribe como Ñ´B o bien rotB. Utilizando este vector rotacional, las ecuaciones ante-
riores se escriben como:
r r r
Ñ´ B = m 0 J (97)

Esta relación es la ley de Ampère en forma diferencial, y proporciona una relación local entre el
campo magnético en un punto del espacio y la densidad de corriente en dicho punto. Observemos que
esta ecuación relaciona el campo magnético con las corrientes de forma similar a como la ley de
Gauss para el campo eléctrico relaciona el campo eléctrico en un punto del espacio con la densidad de
carga (fuentes del campo eléctrico) en dicho punto. Por tanto, podemos decir, como ya se ha indicado
a lo largo de este tema, que las corrientes eléctricas constituyen las fuentes del campo magnético.

4. APLICACIONES A DISPOSITIVOS TECNOLÓGICOS


A continuación, vamos a ver algunas aplicaciones de interés de las fuerzas magnéticas sobre
partículas cargadas en movimiento o sobre espiras de corriente. Comenzaremos
r por estudiar el movi-
miento de una partícula cargada en el seno de un campo magnético B uniforme y, posteriormente, ve-
remos algunos dispositivos tecnológicos de interés.

4.1. Movimiento de una partícula cargada en el seno de un campo magnético


Hemos visto que la fuerza magnética que actúa sobre una partícula cargada en el seno de un
campo magnético viene dada por:
r r r
F = qu´ B
r r
Por tanto, la fuerza magnética es siempre perpendicular a la velocidad de la partícula (F ×u = 0) y, por
consiguiente, no realiza trabajo sobre la partícula lo que implica que su energía cinética es constante.
La fuerza magnética sólo cambia la dirección de la velocidad de la partícula, pero no su módulo.
r r
Si el campo magnético B es uniforme y perpendicular a la velocidad de la partícula, la fuerza F
es una fuerza centrípeta que hace que la partícula se mueva en una órbita circular (figura 26). En efec-
to, la aceleración de la partícula vendrá dada por:
r r
r F q r r du
a = = u´ B = (98)
m m dt

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 107


Volumen II. Física II

q Z
u
Z
u Z
F
q
Z
B

Figura 26. Órbita de una partícula


cargada en el seno de un campo
magnético.

Expresión que podemos escribir como:


r
du q r r r r
= – B ´ u = w´ u (99)
dt m
Esta ecuación corresponde a un movimiento de rotación alrededor de un eje paralelo al campo mag-
nético y cuya velocidad angular viene dada por:
r q r
w= – B (100)
m
en donde el signo menos indica que la velocidad angular y el campo magnético son antiparalelos. El
módulo de la velocidad angular con la que la partícula gira alrededor de la dirección del campo mag-
nético es:
qB
w= (101)
m
La velocidad angular de la partícula sólo depende del valor del campo magnético y de la relación q/m
entre la carga y la masa de la partícula. El funcionamiento de unos de los primeros aceleradores de
partículas, denominado ciclotrón, se basa en esta propiedad, por lo que a esta velocidad angular se le
suele denominar frecuencia de ciclotrón wc = qB/m.
El radio de la órbita circular vendrá dado por:
mu
R= (102)
qB
r
Si la partícula incide con una velocidad que no es perpendicular al campo magnético
r B, podemos
descomponer dicha velocidad r en una componente perpendicular al campo magnético u^ y una com-
ponente paralela al campo u||:
r r r
u = u|| + u^ (103)
r r r
Puesto que la fuerza sobre la partícula cargada viene dada por F = qu´ B, teniendo en cuenta la se-
gunda ley de Newton, se tiene que:
r r
r F q r r du
a = = u´ B = (104)
m m dt

108 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

Utilizando la descomposición de la velocidad dada por (103), e igualando componente a componen-


te, se tiene que:
r
du^ qr r
= u^ ´ B (105)
dt m
r
du || qr r
= u || ´ B (106)
dt m

El movimiento, debido a la componente perpendicular, es el mismo que el discutido anteriormente.


La ecuación (105) corresponde a un movimiento de rotación alrededor de un eje paralelo al campo
magnético:
r
du^ q r r r r
= – B ´ u^ = w´ u^ (107)
dt m
cuya velocidad angular viene dada por:
r q r
w= – B (108)
m
en donde, al igual que en caso anterior, el signo menos indica que la velocidad angular y el campo
magnético son antiparalelos. El módulo de la velocidad angular con la que la partícula gira alrededor
de la dirección del campo magnético es:
qB
w= (109)
m
El radio del movimiento circular vendrá dado por:
mu^
R^ = (110)
qB

r r
Por otro lado, puesto que u|| y B son paralelos, de la ecuación (106) se tiene que:
r
du ||
=0 (111)
dt
La velocidad paralela al campo magnético no se verá afectada por él y, por tanto, permanecerá
constante.
De la composición de estos dos movimientos resulta que la trayectoria de la partícula será una
trayectoria helicoidal como la mostrada en la figura 27.

Z
u
q Z
B
Figura 27. Órbita de una
partícula cargada en el
seno de un campo
magnético, si la velocidad
y el campo no son
perpendiculares.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 109


Volumen II. Física II

El movimiento de las partículas cargadas en el seno de un campo magnético no uniforme es bas-


tante más complejo que el visto anteriormente. En la figura 28 se muestra una estructura de campos
magnéticos que se conoce con el nombre de botella magnética. Consiste en una configuración con
campos magnéticos intensos en los extremos y más débil en el centro. Un estudio detallado del movi-
miento de una partícula cargada en una estructura de este tipo indica que la partícula se mueve si-
guiendo una trayectoria en forma de hélice y queda atrapada, oscilando hacia adelante y hacia atrás
entre dos puntos P y P’ como se indica en la figura. Este tipo de configuraciones son útiles para confi-
nar los plasmas en los reactores de fusión nuclear.
Z

Z
B
u
P P'

Figura 28. Botella magnética.

Un fenómeno como el descrito anteriormente tiene lugar en el espacio exterior como consecuen-
cia del campo magnético terrestre. La Tierra tiene un campo magnético semejante al de un gran imán,
dirigido desde el polo sur geográfico al polo norte. Un gran número de partículas cargadas que pro-
vienen del Sol, y que forman lo que se denomina viento solar, alcanzan las inmediaciones de la Tie-
rra. Debido a las colisiones en la vecindad de la Tierra, reducen su velocidad y son atrapadas por el
campo magnético terrestre. Estas partículas describen trayectorias en forma de hélice o espiral alre-
dedor de las líneas del campo magnético terrestre. Estas líneas se hacen más densas en las zonas cer-
canas a los polos, lo que produce que las partículas vuelvan sobre su camino inicial. De esta manera,
una partícula cargada que se mueve en espiral desde el polo sur
Protones al polo norte experimenta una reflexión en las cercanías del
polo norte regresando de nuevo hacia el polo sur. Es decir, es
como si en las cercanías de los polos existiesen unos espejos
magnéticos. Las partículas cargadas describen un movimiento
oscilatorio entre ambos polos y se acumulan en unas determi-
nadas regiones del espacio que se denominan cinturones de
Van Allen (figura 29). Hay dos de estos cinturones: uno que
Electrones contiene protones y se encuentra situado a una altura media so-
Figura 29. Cinturones de bre la superficie terrestre de 3000 km, y otro que contiene elec-
Van Allen. trones, situado a una distancia media de la Tierra de 15000 km.

4.2. Selector de velocidades


La fuerza que
r experimenta una partícula
r cargada en una región del espacio en la que existe un
campo eléctrico E y un campo magnético B viene dada por la fuerza de Lorentz (4):
r r r r
[ (
F = q E + u´ B )] (112)

Esta fuerza neta sobre la partícula cargada será cero si:


r r r
E =-u´ B (113)

110 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

Por tanto, la primera condición que han de satisfacer los cam- Z


quB B Ä
pos eléctrico y magnético es que sean perpendiculares entre sí
y que la velocidad
r de la partícula sea perpendicular al campo Z
eléctrico E. En la figura 30 se muestra una configuración de u Z
q E
este tipo, denominada de campos cruzados. En nuestro caso,
consiste en un campo eléctrico uniforme creado por un con-
densador de placas paralelas en cuya región existe un campo qE
magnético uniforme perpendicular al campo eléctrico (en la fi-
gura, en sentido de entrada al papel, y representado por Ä). Figura 30. Selector de velocidad.

Si una partícula de carga q positiva incide en esta región


con una velocidad u, las fuerzas eléctrica y magnética tienen
sentidos contrarios, como se indica en la figura (si la carga fuera negativa los sentidos de ambas fuerzas
se invertirían). De la expresión (113) encontramos que, fijados los valores del campo eléctrico y magné-
tico, el módulo de ambas fuerzas, eléctrica y magnética, será igual si la velocidad de la partícula es:
E
u= (114)
B

En consecuencia, cualquier partícula con una velocidad igual a la dada por la expresión (114) atrave-
sará la región de los campos eléctrico y magnético sin desviarse, independientemente de su masa y de
su carga. Las partículas con una velocidad inferior se desviarán en la dirección del campo eléctrico, y
las partículas con velocidades mayores se desviarán en la dirección de la fuerza magnética. Por esta
razón, a un dispositivo de campos eléctrico y magnético cruzados se le denomina selector de veloci-
dades: sólo aquellas partículas, cualquiera que sea su masa y carga, cuya velocidad sea igual a (113)
pasan por el selector sin que su velocidad experimente alguna modificación.

4.3. Espectrómetro de masas


En la naturaleza, los elementos no se encuentran formados por una sola clase de átomos idénticos,
sino que, por regla general, están formados por átomos de diferentes masas, pero con propiedades quími-
cas idénticas, denominados isótopos. Los isótopos de un determinado elemento tienen todos el mismo nú-
mero atómico e idéntica estructura electrónica, pero difieren en el número de neutrones del núcleo. Así,
por ejemplo, el magnesio natural está formado por el 78,7% de 24Mg, el 10,1% 25Mg y el 11,2% de 26Mg.
Un espectrómetro de masas, también denominado espectrógrafo de masas, es un dispositivo
que sirve para detectar la existencia de isótopos y medir sus masas. El primer espectrómetro de ma-
sas fue diseñado en 1919 por Francis William Aston y, posteriormente, fue mejorado por Kenneth
Bainbridge y otros.
Z
B
En la figura 31 se muestra de forma esquemática un es-
pectrómetro de masas. Para analizar cualquier elemento me-
diante un espectrómetro de masas, en primer lugar, se ioniza, Z
de manera que los átomos adquieran una carga neta y, por tan- Bu
Película
to, puedan desviarse al atravesar una región de campo eléctrico – +
Z fotográfica
o magnético. Los iones se producen bien mediante calenta- Eu
miento o por medio de una corriente eléctrica en la fuente. Una
vez que los átomos han sido ionizados, se hacen pasar a través
de un selector de velocidades. De esta manera, sólo aquéllos Selector de
cuya velocidad sea u = Eu/Bu pasarán por una rendija que da
r ac-
velocidad
ceso a una región en donde existe un campo magnético B uni-
Figura 31. Esquema de un
forme (en la figura, perpendicular al papel y hacia fuera · ). En espectrómetro de masas.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 111


Volumen II. Física II

esta región, los iones describen una trayectoria circular, cuyo radio depende de su masa. Por tanto, los
iones de distinta masa e igual carga golpearán sobre una placa fotográfica, situada a tal efecto, en dis-
tintas posiciones. Según la expresión (102), la masa de las partículas vendrá dada por:
qBR
m= (115)
u
Puesto que las cantidades a la derecha de la igualdad anterior son todas medibles experimentalmente,
podemos determinar la masa de cada isótopo.
Por otra parte, si sustituimos la placa fotográfica por un electrómetro con una abertura capaz de
admitir el haz de iones de cada isótopo, podemos determinar la carga total debida a cada uno de ellos
y, por tanto, determinar las abundancias relativas de los isótopos en el elemento.

4.4. Ciclotrón
El ciclotrón es un acelerador de partículas inventado por Ernest O. Lawrence (1901-1958) de la
Universidad de Berkeley (California) en 1932. Las partículas o iones acelerados, de alta energía, pue-
den utilizarse como proyectiles para bombardear núcleos y producir reacciones nucleares de las que
obtener información sobre el núcleo atómico.
Un ciclotrón se compone fundamentalmente de dos cavidades semicilíndricas de cobre en las
que se har hecho el vacío y que se denominan des, debido a su forma (figura 32). Un campo magnético
intenso B perpendicular al plano de las des mantiene a las partículas cargadas en trayectorias circula-
res. Si se aplica una diferencia de potencial entre las des cada vez que las partículas pasan por el espa-
cio que hay entre ellas, irán adquiriendo velocidad en cada paso. Puesto que la frecuencia de ciclotrón
es constante wc = qB/m, conforme las partículas aumentan su velocidad, también aumentan su radio
de giro R = mu/qB. Al cabo de muchas revoluciones, las partículas adquieren suficiente energía y al-
canzan la parte más externa del ciclotrón.
B

Partículas aceleradas

Figura 32. Ciclotrón.

Observemos que para que las partículas no pierdan energía, la diferencia de tensión aplicada al
espacio vacío entre las des ha de ser alterna. Cuando las partículas se mueven hacia la derecha, la di-
ferencia de potencial ha de ser tal que las partículas se aceleren, mientras que medio ciclo después,
cuando las partículas se mueven hacia la izquierda, la diferencia de tensión ha de ser de signo opuesto
para que las partículas no pierdan velocidad. Por tanto, la frecuencia de esta tensión de alterna ha de
ser exactamente igual a la frecuencia de ciclotrón. De esta manera, cada vez que las partículas pasan
por el espacio entre las des adquieren una energía cinética igual a:
DK = qV (116)

112 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

siendo V la diferencia de tensión entre las des y su valor típico, 105 V. Puesto que el radio es propor-
cional a la cantidad de movimiento de las partículas cargadas, la cantidad máxima de energía que
pueden adquirir las partículas está limitada por el radio r del ciclotrón:

1 ( qBr ) 2
K max = mu 2max = (117)
2 2m

en donde elrradio r está a su vez limitado por el tamaño del imán disponible para producir el campo
magnético B. El primer ciclotrón construido tenía un radio de 1,25 pulgadas y conseguía acelerar los
protones hasta alcanzar una energía de 80 keV.
Hasta ahora, hemos considerado que las partículas cargadas en el interior de un ciclotrón se com-
portan como partículas clásicas. Se puede demostrar que a velocidades relativistas, la frecuencia del ci-
clotrón viene dada por la misma expresión que en el campo de velocidades bajas wc = qB/m. Sin
embargo, la masa m de la partícula es ahora la masa relativista m = m0/ 1– u 2 / c 2 , siendo m0 la masa en
reposo y c la velocidad de la luz en el vacío. Una consecuencia de esta dependencia de la masa con la
velocidad de la partícula es que, a velocidades relativistas, la masa de la partícula incrementa con la ve-
locidad, con lo cual disminuye la frecuencia del ciclotrón. Por consiguiente, si la frecuencia de la ten-
sión aplicada a las des permanece constante, conforme aumenta la velocidad de las partículas cargadas,
se produce un desfase entre la fuente de tensión y el movimiento de las partículas. Esto hace que exista
un límite máximo de la energía que pueden alcanzar las partículas cargadas en un ciclotrón. Por ejem-
plo, para un protón con una tensión de 500 kV, la máxima energía que puede alcanzarse es de 22 MeV.
Para alcanzar energías mayores que este límite relativista, es necesario utilizar sistemas electró-
nicos sofisticados que reduzcan la frecuencia de la tensión aplicada a las des cuando las partículas al-
cancen velocidades muy altas. Un ciclotrón modificado a tal objeto se denomina sincrociclotrón. Con
un aparato de estas características, es posible alcanzar energías del orden de 1 GeV.
Para obtener energías mayores se ha desarrollado un nuevo tipo de acelerador denominado sin-
crotrón. En un sincrotrón, la forma de controlar el aumento de la masa relativista de las partículas con
la velocidad es aumentando gradualmente el campo magnético en el acelerador. De esta manera, se
consigue que las partículas describan trayectorias circulares de forma constante.

4.5. Galvanómetro de bobina móvil


El galvanómetro es el componente básico de la mayor parte de los medidores, tales como ampe-
rímetros, voltímetros y ohmímetros. Un galvanómetro de bobina móvil se compone de una bobina de
hilo conductor fino, generalmente de forma rectangular y montada en una armadura de hierro dulce,
suspendida entre dos piezas de acero imantadas permanentemente (figura 33). Las piezas del imán
permanente tiene formas polares, de manera que el campo magnético tiene dirección radial en la re-
gión donde oscila la bobina y es perpendicular a los lados axiales
L de la bobina. La bobina y su soporte pueden girar libremente 1 0 1
alrededor de un eje unido a un resorte en espiral. 2 2
Cuando por la bobina circula una corriente I en los lados
axiales de la misma, se ejerce una fuerza igual a F = ILB que pro-
duce un par de fuerzas igual a: N S
t = NIWLB = NISB (118)
en donde S es la superficie de la bobina y N es el número de espi- Figura 33.
ras de la bobina. Galvanómetro.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 113


Volumen II. Física II

Este par hace girar la bobina un ángulo q hasta que este par es compensado por el momento de
torsión restaurador del muelle que es proporcional al ángulo q girado:
tr = kq (119)
en donde k es la constante elástica del resorte. Igualando las dos expresiones anteriores, obtenemos
que:
NSB
q= I (120)
k

Por consiguiente, el ángulo girado por la aguja del galvanómetro es directamente proporcional a la
corriente I que circula por él.
Para calibrar el galvanómetro, se toman una serie de medidas de q para valores de I conocidos y
los datos se ajustan a una recta. Esto nos permite encontrar el valor del ángulo girado por la aguja para
cualquier valor de la corriente, y, por tanto, podremos calibrar directamente la escala del aparato en
amperios o voltios, dependiendo del uso que se le vaya a dar al galvanómetro.

114 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campo magnético

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Feynman, R. P., Leighton, R. B. y Sand, M.: Física. Fondo Educativo Iberoame-
ricano. Bogotá, 1972.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall. Upper Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall. México, 1988.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Holton, G. y Brush, S. G.: Introducción a los conceptos y teorías de las ciencias
físicas. Editorial Reverté, S.A. Barcelona, 1989.
Lorrain, P. y Corson, D. R.: Campos y ondas electromagnéticos. Selecciones
Científicas. Madrid, 1972.
Purcell, E. M.: Electricidad y magnetismo. Editorial Reverté. Barcelona, 1980.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté. Barcelona,
1986.
Tipler, P. A.: Física. Editorial Reverté. Barcelona, 1992.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 115


TEMA

22
Campos eléctricos y magnéticos
dependientes del tiempo.
Leyes de Maxwell. Inducción
electromagnética. Inducción
mutua. Autoinducción

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. CAMPOS ELÉCTRICOS Y MAGNÉTICOS DEPENDIENTES DEL TIEMPO


1.1. Ley de Faraday
1.2. Ley de Lenz
1.3. Fem inducida en un conductor en movimiento
1.4. Generadores
1.5. Campo eléctrico inducido por un campo magnético variable
1.5.1. Corrientes de Foucault o en remolino
1.6. Ley de Faraday en forma diferencial

2. CAMPO ELECTROMAGNÉTICO
2.1. Corriente de desplazamiento de Maxwell
2.2. Ley de Ampère-Maxwell en forma diferencial
2.3. Ecuaciones de Maxwell

3. INDUCCIÓN MUTUA

4. AUTOINDUCCIÓN

BIBLIOGRAFÍA

118 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

1. CAMPOS ELÉCTRICOS Y MAGNÉTICOS DEPENDIENTES


DEL TIEMPO
En los temas anteriores hemos estudiado los principios de los campos eléctricos y magnéticos
independientes del tiempo, es decir, en condiciones estáticas. En otras palabras, hemos estudiado los
principios de la electrostática y de la magnetostática. En este tema estudiaremos los campos eléctri-
cos y magnéticos que dependen del tiempo. Veremos que un campo magnético que varía con el tiem-
po genera un campo eléctrico, y viceversa, un campo eléctrico variable con el tiempo genera un cam-
po magnético. Estudiaremos las dos leyes por las que se rige este fenómeno denominado inducción
electromagnética: la ley de Faraday o ley de Faraday-Henry, y la ley de Ampère-Maxwell.

1.1. Ley de Faraday


En el tema 21 analizamos dos fenómenos que ponen en evidencia la íntima relación entre la electrici-
dad y el magnetismo: una corriente eléctrica por un conductor produce un campo magnético, y un campo
magnético ejerce una fuerza sobre una corriente eléctrica o cargas en movimiento. Ambos descubrimien-
tos tuvieron lugar entre los años 1820 y 1821. Diez años después, Michael Faraday (1791-1867) en Ingla-
terra y Joseph Henry (1797-1878) en Estados Unidos descubrieron de forma independiente un fenómeno
de gran importancia tanto teórica como práctica: un campo magnético variable genera (induce) una co-
rriente eléctrica.
Si la experiencia de Oersted puso de manifiesto la relación entre la electricidad y el magnetismo,
el descubrimiento de Faraday y Henry supuso el punto de partida para comprender los fenómenos
electromagnéticos, es decir, la interdependencia entre los campos eléctricos y magnéticos que varían
con el tiempo.

Galvanómetro
Interruptor Hierro

Figura 1. Esquema del montaje + –


experimental utilizado por Faraday
para inducir una fuerza Batería
electromotriz.

El hecho de que una corriente eléctrica que circulaba por un hilo conductor produjese un campo
magnético hizo pensar a Faraday que un campo magnético estacionario podría producir una corriente
eléctrica. Con este objetivo, Faraday dispuso un montaje experimental como el mostrado en la figura 1.
Se hace circular una corriente por una bobina conectada a una batería. Esta corriente producía un
campo magnético que se veía incrementado por el núcleo de hierro. Faraday esperaba que, si la bate-
ría era de suficiente capacidad, se crearía un campo magnético intenso capaz de producir una corrien-
te eléctrica en una segunda bobina. Para detectar la corriente en esta bobina se conectaba un galvanó-
metro. Cuando la corriente por la primera bobina era estacionaria, Faraday no observó corriente indu-
cida alguna sobre la segunda bobina. Sin embargo, observó que la aguja del galvanómetro se
desviaba de forma apreciable cuando cerraba el interruptor del circuito. De la misma forma, la aguja
se desviaba en sentido contrario cuando se abría el interruptor. Por tanto, la corriente estacionaria en
la primera bobina no producía ninguna corriente inducida en la segunda. Esta corriente inducida sólo
se generaba al iniciarse la corriente en la primera bobina o al finalizar la corriente.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 119


Volumen II. Física II

Con estos resultados, Faraday concluyó que si bien un campo magnético estático no produce
ninguna corriente eléctrica, sí la puede producir un campo magnético variable con el tiempo. A las
corrientes generadas de esta forma se les denomina corrientes inducidas, y a dicho fenómeno, induc-
ción electromagnética. Puesto que por el circuito circula una corriente eléctrica, esto implica la exis-
tencia de una fuerza electromotriz inducida e.

I I

u N

S u
S

Figura 2. Cuando un imán se mueve hacia una bobina se induce una


corriente en ésta. La corriente es de signo contrario cuando el imán se
aleja de la bobina.

Un experimento sencillo como el expuesto en la figura 2 muestra de forma clara la importancia


de la variación de un campo magnético para producir una corriente eléctrica. Si movemos un imán
permanente en el interior de una bobina, en ésta se induce una corriente eléctrica, la cual puede detec-
tarse mediante un galvanómetro. Se observa que al acercar el imán a la bobina se genera una corriente
que hace que la aguja del galvanómetro se desvíe en una dirección. Al alejar el imán de la bobina, la
aguja del galvanómetro se desvía en dirección contraria, por lo que la corriente se induce en sentido
contrario. Este mismo efecto se observa si se mantiene el imán fijo y es la bobina la que acercamos o
alejamos de la barra imantada.
Los estudios experimentales llevaron a Faraday a establecer que la fem inducida por un campo
magnético variable depende, en primer lugar, de la rapidez del cambio del campo magnético: cuanto
más rápidamente varía el campo, mayor es la fuerza electromotriz inducida. Por otro lado, Faraday
observó que la fem inducida no es proporcional a la variación del campo con respecto al tiempo, sino
que es proporcional a la variación
r con respecto al tiempo del flujo magnético FB. El flujo magnético
de un campo magnético B, a través de una superficie S, viene definido por analogía al flujo del campo
eléctrico, como:
r r
F B = òS B ×dS (1)
r
en donde dS es el vector asociado a un elemento diferencial de superficie y dirección normal a la mis-
ma. La unidad del flujo magnético es el weber (Wb):
2
1Wb = 1 T · 1 m

Como vimos en el tema anterior, en términos de las líneas de campo, el flujo a través de una su-
perficie es proporcional al número de líneas que la cruzan. Puesto que las líneas del campo magnético

120 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

son líneas cerradas, para cualquier superficie cerrada se tiene que toda línea de campo que atraviesa
hacia adentro la superficie vuelve a atravesarla hacia afuera. Es decir, el flujo magnético a través de
una superficie cerrada es cero:
r r
F B = òSB ×dS = 0 (2)

expresión que constituye la ley de Gauss para el campo magnético.


La relación entre la variación del flujo magnético y la fuerza electromotriz inducida en un circui-
to constituye la ley de inducción de Faraday, que matemáticamente se expresa como:

dF B
e= – (3)
dt

El signo menos de la expresión anterior está relacionado con el sentido de la fem inducida en el cir-
cuito, y que comentaremos posteriormente (ley de Lenz).
Puesto que, en el SI, la unidad de fuerza electromotriz es el voltio (V), la ley de Faraday nos pro-
porciona una relación entre la unidad de flujo magnético, el weber (Wb) y el voltio:
1Wb
1V=
1s
Si el circuito es una bobina compuesta por N vueltas, cada vuelta se comporta como una espira y
podemos aplicar la ley de Faraday para calcular la fem inducida sobre cada una de ellas. Puesto que
las diferentes vueltas están conectadas en serie, la fem total inducida sobre la bobina será igual a la
suma de las fuerzas electromotrices inducidas sobre cada una de las vueltas. En consecuencia, tendre-
mos que la fem inducida sobre una bobina será:

dF B
e= – N (4)
dt

en donde N es el número de vueltas de la bobina.


El flujo del campo magnético que atraviesa una espira o una vuelta de una bobina es el flujo
del campo magnético total. A este campo contribuye tanto el campo externo, que induce la corrien-
te, como el campo magnético que genera dicha corriente inducida. En los apartados finales vere-
mos cuál es el efecto que produce la corriente inducida sobre sí misma. Por el momento, considera-
remos que las corrientes inducidas son lo suficientemente pequeñas como para suponer que la con-
tribución de estas corrientes al flujo es despreciable frente al flujo debido a las fuentes del campo
magnético externas.

1.2. Ley de Lenz


Como hemos indicado anteriormente, el signo negativo de la ley de Faraday está relacionado con
el sentido de la fuerza electromotriz inducida y, por tanto, con el sentido de la corriente inducida. Este
sentido viene dado por un principio físico general atribuido a Heinrich Friedrich Lenz (1804-1865), de-
nominado ley de Lenz, que podemos enunciar como sigue:
La fem tiene una dirección y un sentido tal que el campo magnético producido por la co-
rriente inducida se opone al cambio del flujo magnético que genera la corriente.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 121


Volumen II. Física II

Veamos cómo se aplica la ley de Lenz al ejemplo de la figura 2. Al acercar el imán a la bobina, al
ser el campo magnético en la bobina más intenso, el flujo magnético aumenta. Esta variación del flujo
induce una fem en la bobina que produce una corriente eléctrica inducida, la cual genera a su vez su
propio campo magnético. Para oponerse al cambio de flujo magnético del imán la corriente inducida
debe tener el sentido mostrado en la figura. De esta manera, el campo magnético inducido tiende a
disminuir el flujo magnético que atraviesa la bobina. Si el imán se desplaza alejándose de la bobina,
el flujo magnético producido por el imán que atraviesa la espira disminuye, por lo que la corriente in-
ducida debe tener el sentido indicado. De esta manera, el campo magnético inducido tiende a aumen-
tar el flujo a través de la espira.
La ley de Lenz es una exigencia del principio de conservación de la energía. En efecto, suponga-
mos que esta ley no se cumpliera. Entonces, la corriente inducida produciría un campo magnético
cuyo flujo tendría la misma dirección que el cambio original. Este cambio daría lugar a un aumento
de la corriente inducida que a su vez produciría un aumento del flujo, y así sucesivamente. Por tanto,
si en el instante inicial el imán se encuentra a una gran distancia de la fuente y le suministramos un pe-
queño empuje, el momento magnético inducido en la espira atraería al imán, el cual aumentaría su ve-
locidad al mismo tiempo que aumentaría la corriente inducida en la espira. En consecuencia, tanto la
energía cinética del imán como el calor generado por efecto Joule en la espira irían aumentando sin la
presencia de una fuente de energía. lo que violaría el principio de conservación de la energía. Por tan-
to, la ley de Lenz, y no su contraria, es consistente con dicho principio de conservación.

1.3. Fem inducida en un conductor en movimiento


Hemos visto que la ley de Faraday establece que la fem inducida en un circuito es proporcional a
la variación del flujo magnético por una superficie apoyada en dicho circuito. Ahora bien, el flujo es
el producto vectorial del vector campo magnético por el vector superficie. La ley de Faraday puede
escribirse también como:
dF r r
e = – B = – d òS B ×dS = – d òS B ×cos q dS (5)
dt dt dt
siendo q el ángulo que forma el vector superficie con el campo magnético. Observamos de esta expre-
sión que en el seno de un campo magnético uniforme es posible inducir una fem de dos maneras: por
el cambio de área del circuito o por el cambio en su orientación espacial.
Veamos a continuación un ejemplo de fuerza electromotriz inducida por un campo magnético
uniforme debido al cambio del área del circuito. Supongamos un conductor en forma de U, sobre el
cual se desplaza una varilla conductora. Supongamos también que el circuito se encuentra en un cam-
po magnético uniforme perpendicular (representado en la figura 3 por u). El flujo del campo magné-
tico a través de la superficie delimitada por el circuito es:
r r
F B = òS B ×dS = B òS dS = BS (6)

Z
B
I
I u
l
x Figura 3. Una varilla conductora se mueve hacia la
derecha sobre un conductor ren U en el seno de un
campo magnético uniforme B que apunta hacia fuera
de la página.

122 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

en donde S es una función que depende del tiempo. Si llamamos l a la separación entre los brazos del
conductor en U, y x a la distancia de la varilla móvil al extremo del conductor en U, el área limitada
por el circuito en un instante de tiempo dado será:
S(t) = lx(t) (7)

Por tanto, el flujo del campo magnético viene dado por:

FB = BS = BRx (8)

Según la ley de Faraday, la magnitud de la fuerza electromotriz inducida en el circuito vendrá dada
por:
dF B dx
| e|= = BR (9)
dt dt

Si la velocidad de la varilla es u, la distancia recorrida en un intervalo de tiempo dt es dx = udt, por lo


que sustituyendo en la expresión anterior, se tiene que:

|e| = BRu (10)

Para determinar el signo de la corriente inducida utilizaremos la ley de Lenz. Puesto que el cam-
po magnético inducido se opone a la variación del flujo magnético, debe ser antiparalelo al campo
magnético externo. Es decir, el campo magnético inducido es perpendicular al papel y mirando hacia
adentro, y la corriente inducida ha de circular en el circuito en sentido horario, y por tanto, en la vari-
lla esta corriente se dirige hacia abajo, en la figura.
Si llamamos I a la corriente que circula por
r elr circuito,
r el campo magnético ejercerá una fuerza
sobre esta corriente, la cual vendrá dada por F = I l´ B. El módulo de dicha fuerza será F = IRB y su
sentido, aplicando la regla de la mano derecha, perpendicular a la varilla y hacia la izquierda, opo-
niéndose al movimiento de la varilla. Por consiguiente, esta fuerza tiende a frenar el movimiento de la
varilla hasta detenerla. Para mantener la varilla moviéndose con velocidad constante, y, por tanto,
mantener la corriente en el circuito, será necesario ejercer una fuerza externa dirigida hacia la derecha
y de módulo igual a IRB. La potencia suministrada por esta fuerza será:
r r
P = F ×u = Fu = IlBu =| e| I (11)

Es decir, la potencia suministrada por la fuerza externa será igual a la potencia suministrada por la
fem a las cargas. La fuente de energía eléctrica asociada a la fuerza electromotriz es el trabajo externo
realizado por la fuerza aplicada a la varilla para que mantenga su velocidad constante.
El ejemplo que acabamos de estudiar muestra de forma sencilla que la ley de Faraday constituye
la base para la transformación de energía mecánica en energía eléctrica, y pone de manifiesto la gran
importancia que el fenómeno de inducción electromagnética ha tenido en el desarrollo social.

1.4. Generadores
Como hemos comentado, la ley de Faraday constituye el principio para la conversión de energía
mecánica en energía eléctrica. Esta conversión es la que tiene lugar, por ejemplo, en los generadores
eléctricos o en los alternadores de los automóviles.
La mayor parte de la energía eléctrica utilizada por la sociedad se produce en los generadores o
dinamos de las centrales eléctricas y tiene lugar en la forma de corriente alterna. Si bien estos disposi-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 123


Volumen II. Física II

tivos son el resultado de un importante desarrollo tecnológico, el principio básico de la generación de


una corriente alterna puede entenderse estudiando el comportamiento de una espira simple que gira
en el seno de un campo magnético.

Z
S
N
Z
q
B

S
Figura 4. Una espira que
gira con velocidad
angular w en el seno de
un campo magnético
uniforme genera una fem
sinusoidal.

Consideremos un generador básico de corriente alterna constituido por una espira conductora
que gira en el seno de un campo magnético uniforme, como se muestra en la figura 4. Vamos a supo-
ner que la espira es una espira rectangular plana que gira alrededor de un eje, contenido en el plano de
la espira, perpendicular al campo magnético. Los extremos de la espira están conectados a unos ani-
llos que giran con la espira, y el contacto eléctrico se realiza mediante unas escobillas conductoras
deslizantes en contacto con los anillos.
r Si llamamos q al ángulo que, en unr instante de tiempo determinado, forma el campo magnético
B con el vector superficie de la espira S, el flujo magnético que atraviesa la espira es:
r r r r
F B = òS B ×dS = B ×S = BS cos q (12)

Puesto que la espira se encuentra girando de forma continua, el ángulo q varía con el tiempo y, por lo
tanto, el flujo a través de la espira cambia con el tiempo. Por consiguiente, se induce una fuerza elec-
tromotriz, que vendrá dada por la ley de Faraday:
dF B d cos q
e= – = – BS (13)
dt dt

Si suponemos que la espira gira con una velocidad angular w constante, entonces, para cualquier ins-
tante de tiempo se tiene que:
q = a + wt (14)
siendo a el ángulo que forma la espira y el campo magnético en el instante inicial. Sustituyendo esto
en la expresión anterior, se tiene que:
e = BSw sen(wt + a) (15)

En el caso en que sea una bobina de N espiras la que gira en el seno del campo magnético, la ex-
presión anterior se transforma en:

e = NBSw sen(wt + a) (16)

124 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

Las ecuaciones (15) y (16) indican que la fem inducida en la espira oscila sinusoidalmente con
una frecuencia angular w igual a la velocidad angular con la que gira la espira en el campo magnético.
El valor máximo de la fuerza electromotriz, o valor de pico, es:
emáx = NBSw (17)

Este valor se obtiene cuando sen(wt


r + a) = 1, es decir, cuando el vector superficie de la espira es
perpendicular al campo magnético B. Conforme gira la espira, la función sen(wt + a) varía entre –1 y
+1, y la fem oscila entre un valor de –emáx y +emáx. La corriente inducida en la espira también oscila a
la misma frecuencia que la fem, y recibe el nombre de corriente alterna (abreviadamente ac o AC). Su
nombre indica que el sentido de la corriente cambia en cada semiciclo. A un generador de corriente de
este tipo se le denomina generador de corriente alterna o generador ac, y en los diagramas de circuitos
se representa por ~.
El sentido de la corriente inducida en la espira viene dado por la ley de Lenz. En el intervalo de
tiempo en el que el ángulo q crece desde 0 hasta 90º (0 < q < 90º), el flujo a través de la espira disminuye
FB = BS cos q, de manera que la corriente inducida debe oponerse a esa disminución. El sentido de la
corriente debe ser tal, que se oponga a la disminución de ese flujo y, por tanto, en la espira de la figura 4
giraría en sentido antihorario. Entre 90º y 180º el flujo sigue disminuyendo, se hace negativo, por lo que
la corriente sigue llevando esa misma dirección. El flujo alcanza el valor mínimo (máximo negativo)
cuando la espira forma ángulo de 180º con el campo magnético. Al seguir girando, la espira comienza a
aumentar el flujo (tiende a hacerse menos negativo) hasta alcanzar el valor cero cuando q = 270º, por lo
que la corriente se invierte con el fin de contrarrestar este aumento de flujo. Este sentido de la corriente
se mantiene hasta que q = 360º, ya que a partir de este instante el flujo se hace positivo y sigue aumen-
tando hasta que la espira se sitúa de nuevo en posición perpendicular al campo magnético q = 360º.
En un generador de corriente alterna, la energía mecánica de rotación de la espira o de la bobina
se convierte en energía eléctrica. En los generadores reales, más complicados técnicamente pero ba-
sados en este mismo principio, la energía mecánica proviene normalmente de un salto de agua o de
una turbina de vapor.

1.5. Campo eléctrico inducido por un campo magnético variable


La fem inducida en un conductor en movimiento en el seno de un campo magnético uniforme
puede explicarse por la fuerza magnética que actúa sobre los portadores de carga, que se mueven con
el conductor con velocidad promedio igual a la de éste.
Consideremos de nuevo el ejemplo estudiado en la sección 1.3. Sabemosrque sobre una partícula
dercarga q, que se mueve con velocidad u en el seno de un campo magnético B, actúa una fuerza igual
r r
a F = qu´ B. Por consiguiente, cuando la varilla conductora se mueve sobre el conductor en U con
velocidad u, los electrones de la barra se mueven con una velocidad promedio igual a esa velocidad.
r r
En consecuencia, como u^B, cada electrón de la varilla experimenta una fuerza igual a F = euB, diri-
gida hacia arriba en la varilla de la figura 3. Si la varilla conductora no estuviera en contacto con el
conductor en U, los electrones se acumularían en el extremo superior de la varilla, dejando una carga
positiva igual en el extremo inferior, lo cual daría lugar a un campo eléctrico en la varilla. Si la varilla
se apoya en el conductor en U, los electrones se moverán por todo el circuito dando lugar a una co-
rriente convencional en el sentido de las agujas del reloj. Podemos determinar la fem inducida calcu-
lando el trabajo que hay que realizar para mover un electrón desde un extremo de la barra al otro. Este
trabajo será igual a la fuerza sobre la carga por la distancia W = Fl = euBl. Puesto que la fem es el tra-
bajo realizado por unidad de carga, se tiene que e = Blu, que es el mismo resultado que el encontrado
en (10). Vemos que la corriente inducida y la fem inducida pueden explicarse como consecuencia de
la fuerza magnética sobre las cargas en movimiento.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 125


Volumen II. Física II

La explicación de la corriente inducida dada anteriormente es válida para el caso de un conduc-


tor en movimiento en el seno de un campo magnético. Consideremos ahora la situación en la que se
tiene una espira en reposo en el seno de un campo magnético variable con el tiempo. Por la ley de Fa-
raday se inducirá una fem en el circuito y aparecerá una corriente inducida. ¿Cómo podemos explicar
en este caso esta corriente eléctrica inducida? Es decir, ¿qué fuerza produce la corriente en el circui-
to? Evidentemente, no puede ser una fuerza magnética, ya que, a diferencia del caso anterior, inicial-
mente la velocidad promedio de losr portadores
r r dercarga es cero. Ahora bien, la fuerza que actúa sobre
una carga eléctrica es, en general, F = q( E + u´ B ), de manera que si existiera un campo eléctrico en
el conductor, los portadores de carga podrían moverse por la espira debido a la fuerza eléctrica, aun
encontrándose inicialmente en reposo. Hemos de concluir, entonces, que existe una fuerza eléctrica
sobre los portadores de carga y que, por consiguiente, se debe inducir un campo eléctrico en la espira
cuando el campo magnético varía con el tiempo.
La fem inducida puede interpretarse como el trabajo realizado por la fuerzareléctrica
r por unidad
de carga. Si tenemos en cuenta que el trabajo realizado sobre una carga es W = Š F · d l, tenemos que:
r r
e = W = 1 ò F ×d l (18)
q q
r r
Como la fuerza eléctrica y el campo eléctrico están relacionados por F = qE, la expresión anterior
puede escribirse en la forma:
r r
e = ò E ×d l (19)

donde el camino de integración se extiende a lo largo del conductor.


La fuerza electromotriz inducida es, por tanto, una consecuencia del campo eléctrico inducido
por el campo magnético variable con el tiempo. Ahora bien, existe una diferencia fundamental entre
este campo eléctrico inducido y el campo electrostático creado por una distribución estática de car-
gas. Como se vio en el tema 19, un campo electrostático es un campo conservativo, y, por tanto, el tra-
bajo
r realizado
r por unidad de carga para desplazar una carga a lo largo de una línea cerrada es cero
ò E×d l = 0. Sin embargo, para el campo eléctrico inducido por un campo magnético variable, se tie-
ne que la integral a lo largo de una línea cerrada es distinta de cero (19). Por consiguiente, el campo
eléctrico inducido no es conservativo. Combinando la ecuación (19) con la ley de inducción de Fara-
day (3) podemos expresar esta ley en función del campo eléctrico inducido en vez de la fem inducida:
r r dF B
ò E×d l = – dt
(20)

La expresión anterior la hemos deducido suponiendo un conductor (espira) en una región donde
existe una campo magnético variable. No obstante, como demuestra la experiencia, esta expresión es
válida incluso si no hay conductor en la región del campo magnético. Es decir, un campo magnético va-
riable induce en cualquier
r r punto del espacio un campo eléctrico. Si tenemos en cuenta que el flujo mag-
nético es FB = òS B ×dS , y puesto que una fem sólo tiene sentido en un conductor,
r podemos rescribir el
resultado anterior de forma más general en función de los campos eléctrico E y magnético B como:
r r d r r
ò E ×d l = – dt ò S
B ×dS (21)

expresión que constituye la forma integral de la ley de Faraday. En esta expresión, la integral de lí-
neas se extiende a cualquier camino cerrado, y el flujo magnético se calcula para cualquier superficie
apoyada en el camino de integración. El sentido de la integración de línea y el del vector superficie es-
tán relacionados mediante la regla de la mano derecha. Si cerramos los dedos de esta mano en lar di-
rección del camino de integración, el pulgar extendido indica el sentido del vector superficie dS .

126 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

1.5.1. Corrientes de Foucault o en remolino


En los apartados anteriores hemos visto que las corrientes inducidas por un campo magnético
variable se establecían en circuitos concretos. En el caso de un conductor extenso, un flujo variable
también produce unas corrientes circulantes que se distribuyen sobre el conductor y que se denomi-
nan corrientes de Foucault o corrientes en remolino.
Consideremos un trozo de metal que se mueve en una región en la que hay un campo magnético
que es perpendicular al conductor, como se muestra en la figura 5. En ella se indican dos regiones: en
la región superior el flujo del campo magnético aumenta, puesto que esta región se acerca a la zona de
campo magnético, por lo que la corriente inducida tiende a que el flujo disminuya (ley de Lenz); en la
región inferior, el flujo del campo magnético disminuye al alejarse el conductor de la zona del campo
magnético, por lo que la corriente, que tiene sentido contrario al de la región superior, tiende a que el
flujo no disminuya. Estos sentidos de las corrientes se muestran en la figura.

Figura 5. En una lámina de


metal que se mueve en un
campo magnético se inducen u I
unas corrientes, denominadas
de Foucault.

Mediante una experiencia sencilla puede demostrarse la existencia de estas corrientes de Fou-
cault. Coloquemos una placa de aluminio entre los polos de un imán permanente, de manera que sólo
parte de la placa se encuentre dentro de la región del imán (figura 6). Si tiramos de la placa hacia la
derecha, el flujo de campo magnético tiende a disminuir, por lo que aparecen unas corrientes de Fou-
cault que tienden a que el flujo no disminuya. Consideremos la curva de la figura. Parte del área ence-
rrada por la curva está dentro del imán y parte fuera. Al estirar de la lámina el flujo a través de la curva
disminuye. Como la corriente en la parte interior de los imanes es hacia abajo, existirá una fuerza ha-
cia la izquierda. Esta fuerza se puede apreciar si el campo magnético del imán es un campo magnético
intenso.

Z
N v
Z
Figura 6. Si una lámina I v
I
metálica situada en un campo S
magnético se desplaza en la Z
F
dirección dada por u, aparece
una fuerza sobre la corriente b)
inducida que se opone al a)
movimiento.

Las corrientes de Foucault producen un calentamiento en el conductor por el efecto Joule, por lo
que son unas corrientes indeseables en la mayoría de los casos. Para reducir este efecto lo que hay que

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 127


Volumen II. Física II

hacer es eliminar los caminos de las corrientes de Foucault. Esto se puede conseguir haciendo ranuras
en el conductor o, también, insertando láminas de material aislante entre láminas de éste.
Una típica demostración de cátedra de las corrientes de Foucault es la mostrada en la figura 7. El
montaje consta de una lámina de metal sujeta mediante un hilo que se hace oscilar entre los polos de
un imán permanente. Si el campo magnético es intenso, las oscilaciones se amortiguan muy rápida-
mente, a causa de las fuerzas que el imán ejerce sobre el conductor debido a las corrientes de Foucault
inducidas. Si sustituimos la lámina de metal por una lámina ranurada, las corrientes de Foucault se re-
ducen considerablemente, y la lámina oscila sin apenas amortiguamiento.

N
Z
B
u2 Figura 7. Si dejamos oscilar una
u1
S placa metálica entre los polos de un
Z Z
F F electroimán, el movimiento es
F
frenado por las fuerzas magnéticas
que actúan sobre las corrientes de
Foucault inducidas en la placa
conductora.

1.6. Ley de Faraday en forma diferencial


r Consideremos una región del espacio donde existe un campo magnético variable con el tiempo,
B. Tal como hemos visto anteriormente, la ley de Faraday puede aplicarse a cualquier camino de inte-
gración. Si la aplicamos a una trayectoria infinitesimal abcd de forma rectangular, situada en el plano
XY y de lados dx dy (figura 8), se tendrá que:
r r d r r
ò E ×d l = – dt ò B ×dS S
(22)

z
Ex(x, y – dy/2, z) E(x, y, z)
a
dx d
b
dy c
Ex(x, y + dy/2, z)
x y

Figura 8. Aplicación de la ley de Faraday a un circuito


infinitesimal.

La circulación del campo eléctrico a lo largo de dicha trayectoria en el sentido indicado puede
escribirse como la suma de cuatro términos, uno para cada uno de los lados:
r r b r r c r r d r r a r r
ò E ×d l = òa E ×d l+ òb E ×d l+ òc E ×d l+ òd E ×d l (23)

128 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

Si el campo en el centro de la espira rectangular es:


r
E ( x, y, z ) = E x ( x, y, z )i$ + E y ( x, y, z ) $j + E z ( x, y, z )k$ (24)

la contribución de la integral en el tramos ab a la circulación del campo vendrá dada por:


r r b ræ dy ö r
ò
E ×d l = òa Eçx, y – ÷×d l
b
(25)
a è 2ø
r r r
si tenemos en cuenta que en este tramo dl= dxi,$ entonces E ×d l = E ×i$dx = E dx, por lo que la integral
x
anterior queda como:
r r æ dy ö
ò
b
E ×d l = E xçx, y – , z ÷dx (26)
a è 2 ø

r r r
$
r De forma análoga, para la integral a lo largo del tramo cd se tiene que d l= –dxi, por lo que E · d l =
= –E · i$dx = –Exdx. En consecuencia, la integral vendrá dada por:
r r æ dy ö
ò
d
E ×d l = – E xçx, y+ , z ÷dx (27)
c è 2 ø

Sumando las dos contribuciones anteriores se tiene que:


r r d r r é æ dy ö æ dy öù
ò E ×d l+ òc E ×d l = –êE xçx, y+ , z ÷– E xçx, y – , z ÷údx =
b

a ë è 2 ø è 2 øû
(28)
¶E
= – x dxdy
¶y

Procediendo de forma análoga para los tramos bc y da se obtiene que:


r r a r r é æ dx ö æ dx öù
ò E ×d l+ òd E ×d l =êE yçx+ , y, z ÷– E yçx – , y, z ÷údy =
c

b ë è 2 ø è 2 øû
(29)
¶E y
=+ dxdy
¶x

Combinando los dos resultados anteriores se tiene que:


r r æ ¶E y ¶E x ö
ò E ×d l =çç ¶x –
¶y ÷
÷dxdy (30)
è ø

Calculemos ahora el flujo magnético a través de la superficie limitada por la espira. Puesto que
ésta se encuentra en el plano XY, aplicando la regla de la mano derecha, se tiene
r que el vector normal a
la superficie será el vector unitario k$ en la dirección del eje Z; es decir, dS = dSk.
$ Por tanto, el flujo
magnético a través de la espira vendrá dado por:
r r r
òSB ×dS = òSB ×k$dS = B z òSdS = B zdxdy (31)

en donde hemos tenido en cuenta que el área de la espira es dS = dxdy.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 129


Volumen II. Física II

Sustituyendo las ecuaciones (30) y (31) en la expresión (22), se tiene que:


æ¶E y ¶E x ö ¶B z
ç ÷
ç ¶x – ¶y ÷dxdy = – ¶t dxdy (32)
è ø

Eliminando a ambos lados de la ecuación anterior el factor dxdy, obtenemos la ley de Faraday en for-
ma diferencial:
¶E y ¶E x ¶B
– =– z (33)
¶x ¶y ¶t

El resultado anterior lo hemos obtenido suponiendo que el camino de integración para calcular
la circulación del campo eléctrico se encontraba situado en el plano XY. Podemos encontrar resulta-
dos similares si consideramos que dicho camino se encuentra en los planos YZ y ZX. Mediante un pro-
ceso análogo al descrito anteriormente, encontraríamos que:
¶E z ¶E y ¶B
– =– x (34)
¶y ¶z ¶t

¶E x ¶E z ¶B y
– =– (35)
¶z ¶x ¶t

Las ecuaciones (34), (35) y (33) se pueden combinar en una sola ecuación vectorial. Vemos que
los segundos miembros de estas ecuaciones son las derivadas temporales de las componentes del
campo magnético, cambiadas de signo. Por otro lado, los primeros términos r pueden considerarse
como las componentes de un vector obtenido a partir del campo eléctrico E combinando sus deriva-
das espaciales en la forma adecuada.
r r Este vector,
r por definición, se denomina rotacional del campo
eléctrico y se escribe como Ñ´E o bien rotE. Utilizando este vector rotacional, las ecuaciones ante-
riores se escriben como:
r
r r ¶B
Ñ´ E =- (36)
¶t

Esta relación es la ley de Faraday o de Faraday-Henry en forma diferencial, y proporciona una rela-
ción local entre el campo eléctrico en un punto del espacio y la variación temporal del campo magné-
tico en dicho punto. Por tanto, pone de manifiesto, de forma clara, la interrelación entre las compo-
nentes eléctrica y magnética de un campo electromagnético.

2. CAMPO ELECTROMAGNÉTICO
Los dos descubrimientos más importantes en los que se basa la teoría de los campos electromag-
néticos variables con el tiempo fueron los realizados por Michael Faraday y James Clerk Maxwell. El
descubrimiento de Faraday, estudiado anteriormente, fue un descubrimiento experimental y puso de
manifiesto que la electricidad y el magnetismo están fundamentalmente unidos: un campo magnético
variable con el tiempo induce un campo eléctrico. El descubrimiento de Maxwell estuvo motivado
por la idea de simetría del universo y fue este convencimiento lo que le condujo a la conclusión teóri-
ca que el inverso de la ley de Faraday también era cierto: un campo eléctrico variable con el tiempo
induciría un campo magnético. En este sentido, la variación del flujo del campo eléctrico debería de-

130 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

sempeñar el mismo papel que las corrientes de conducción. Maxwell denominó corriente de despla-
zamiento a esta variación, con respecto al tiempo, del flujo del campo eléctrico y combinó esta co-
rriente con la de conducción en una corriente total, que demostró que era continua.
A continuación, vamos a estudiar el concepto de corriente de desplazamiento introducido por
Maxwell, y veremos cómo la introducción de esta corriente en la ley de Ampère permite generalizarla
y que esta ley sea también válida en el caso de corrientes discontinuas.

2.1. Corriente de desplazamiento de Maxwell


El descubrimiento de Oersted de que las corrientes eléctricas son una fuente de los campos mag-
néticos se describe matemáticamente mediante la ley de Ampère, estudiada en el tema 21:
r r
ò B ×d l = m 0 I (37)

Ahora bien, esta ley sólo es válida para el caso de corrientes continuas que circulan por un con-
ductor. Existen otras distribuciones de corrientes que no satisfacen la ley de Ampère enunciada en la
forma anteriormente descrita. Por lo tanto, esta ley debe ser modificada de manera que tenga un ca-
rácter más general y sea válida en cualquier situación. Esta generalización fue realizada por Maxwell
y supuso un reforzamiento en la unión entre los fenómenos eléctricos y magnéticos. Para ello, Max-
well introdujo el concepto de corriente de desplazamiento, ligado a la variación del flujo del campo
eléctrico. Estudiemos a continuación el argumento de Maxwell.
Supongamos una situación, como la descrita en la figura 9, en la que se tiene una corriente dis-
continua. En ella se tiene un condensador de placas planas paralelas que se encuentra en proceso de
carga, por lo que se produce un flujo de carga hacia la placa positiva mientras que de la placa nega-
tiva fluye hacia afuera una cantidad de carga igual. Consideremos ahora un circuito de integración
C y dos superficies S1 y S2 que se apoyan en dicho contorno. A través de la superficie S1 circula una
corriente, la corriente de carga del condensador, y se satisface la ley de Ampère dada por (37): la
circulación del campo magnético a lo largo del circuito C es igual al producto de la permeabilidad
del vacío m0 por la corriente que atraviesa la superficie S1. Sin embargo, si consideramos la superfi-
cie S2, la circulación del campo magnético a lo largo del circuito C es distinta de cero e igual a la
calculada en el caso anterior, pues existe un campo magnético en la región alrededor del hilo con-
ductor; pero no hay ninguna corriente de conducción que atraviese la superficie S2, por lo que el se-
gundo miembro de la ecuación (37) es cero. Por consiguiente, si tomamos la superficie S2, la ley de
Ampère no se satisface.

S2
S1
Z
E
I
Figura 9. Corriente discontinua de q –q
carga de un condensador.

Maxwell observó que, si bien no pasa corriente a través de la superficie S2, el flujo del campo
eléctrico a través de ella cambia con el tiempo: conforme se almacena la carga en las placas del con-
densador, el campo eléctrico entre ellas varía, y también lo hace el flujo eléctrico en la región situada
entre ellas. Este hecho condujo a Maxwell a resolver la ausencia de corriente eléctrica a través de S2,
estableciendo que la variación del campo eléctrico entre las placas del condensador es equivalente a
una corriente eléctrica, que denominó corriente de desplazamiento, ID.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 131


Volumen II. Física II

El campo eléctrico en un condensador de placas planas paralelas es uniforme entre las placas y
pequeño en el exterior de las mismas. La dirección del campo apunta desde la placa positiva a la nega-
tiva y su magnitud es:
1 q
E= (38)
e0 A

en donde q es la carga almacenada en las placas, A la superficie de cada placa y e0 la permitividad del
vacío. De esta ecuación se tiene que la carga almacenada en cualquier instante de tiempo es:
q = e0AE (39)

Tomando derivadas con respecto al tiempo, se tiene que:


dq dE
= e0 A (40)
dt dt

Ahora bien, la variación de la carga en las placas del condensador ha de ser igual a la corriente que cir-
cula hacia o desde el condensador; es decir, dq/dt = I. Por otro lado, como el campo eléctrico en el
condensador es uniforme entre las placas y pequeño en el exterior de las mismas, esto significa que el
flujo a través de cualquier superficie entre ellas es aproximadamente igual a FE = EA. Por consi-
guiente, se tiene que:
dE dF E
I = e0 A = e0 (41)
dt dt

Esta ecuación indica que cualquiera que sea la corriente que circula hacia el condensador es igual a la
variación del flujo entre las placas del condensador multiplicada por la permitividad del vacío. Por
tanto, si reemplazamos la corriente de conducción I en la ley de Ampère por la suma:
dF E
I +e 0
dt
entonces, la ley de Ampère se satisface para cualquier superficie que se apoye en el circuito de inte-
gración C. Para la superficie S1 sólo se tiene el término I de la suma anterior; mientras que para cual-
quier superficie situada entre las placas del condensador sólo se tiene el término del cambio del flujo
eléctrico e0dFE/dt. Maxwell lo denominó corriente de desplazamiento:

dF E
I D = e0 (42)
dt

En consecuencia, la ley de Ampère, modificada por Maxwell, queda establecida como:


r r
ò B ×d l = m 0 ( I + I D ) (43)

es decir, al término correspondiente a las corrientes verdaderas enlazadas por el camino de integra-
ción hay que sumarle la corriente de desplazamiento enlazada por el mismo camino. Sustituyendo el
valor de la corriente de desplazamiento dado por (42) en la ecuación anterior se tiene que:
r r dF E
ò B ×d l = m 0 I + m0e0
dt
(44)

132 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

Esta ecuación, conocida también como ley de Ampère-Maxwell, pone de manifiesto que, además de
por una corriente de conducción I, un campo magnético puede ser generado por un campo eléctrico
variable con el tiempo.
Aunque la ecuación (44) se ha obtenido para un caso particular, su validez es general. El término
del campo magnético inducido por la variación con el tiempo de un campo eléctrico es, por regla ge-
neral, bastante pequeño, sobre todo en aquellos casos en que los campos varíen muy lentamente con
el tiempo. Sin embargo, que la variación de un campo eléctrico produzca un campo magnético es de
crucial importancia para las ondas electromagnéticas.

2.2. Ley de Ampère-Maxwell en forma diferencial


La ley de Ampère-Maxwell descrita en el apartado anterior puede escribirse en forma diferen-
cial y obtener así una relación local entre las variaciones espaciales y temporales de los campos mag-
néticos y eléctricos en cualquier punto del espacio. Para obtener la forma diferencial de la ecuación
de Ampère-Maxwell procederemos de igual forma a como lo hicimos para obtener la ley de Ampère
en el tema 21.
Consideremos una trayectoria muy pequeña abcd de forma rectangular, situada en el plano XY y
de lados dx y dy (figura 10). La ley de Ampère-Maxwell, aplicada a este contorno, establece que:

r r dF E
ò B ×d l = m dI + m
0 0 e0
dt
(45)

z
Bx(x, y – dy/2, z) B(x, y, z)
a
dx d
b
dy c
Z Bx(x, y + dy/2, z)
J
Figura 10. Aplicación de la
ley de Ampère a un circuito x
infinitesimal. y

Comenzaremos por calcular el primer miembro de esta ecuación. La circulación del campo
magnético a lo largo de la trayectoria especificada, y en el sentido indicado, puede escribirse como la
suma de cuatro términos, uno para cada uno de los lados:
r r b r r c r r d r r a r r
ò B ×d l = òa B ×d l+ òb B ×d l+ òc B ×d l+ òd B ×d l (46)

Si el campo en el centro de la superficie limitada por el camino de integración es:


r
B ( x, y, z ) = B x ( x, y, z )i$ + B y ( x, y, z ) $j + B z ( x, y, z )k$ (47)

la contribución de la integral en el tramo ab a la circulación del campo vendrá dada por:


r r b ræ dy ö r
ò B ×d l = òa Bçx, y – , z ÷×d l
b
(48)
a è 2 ø

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 133


Volumen II. Física II

r r r r
Si tenemos en cuenta que en este tramo d l = dxî, entonces B ×d l = B ×i$dx = B x dx, y por lo tanto, la in-
tegral anterior queda como:
r r æ dy ö
ò
b
B ×d l = B xçx, y – , z ÷×dx (49)
a è 2 ø

r r r
rDe forma análoga, para la integral a lo largo del tramo cd se tiene que d l = –dxî, por lo que B · d l =
= – B ×i$dx = – B x dx. En consecuencia, la integral vendrá dada por:

r r æ dy ö
ò
d
B ×d l = – B xçx, y+ , z ÷×dx (50)
c è 2 ø

Sumando las dos contribuciones anteriores se tiene que:


r r d r r é æ dy ö æ dy öù
ò B ×d l+ òc B ×d l = –êB xçx, y+ , z ÷– B xçx, y – , z ÷ú×dx =
b

a ë è 2 ø è 2 øû
(51)
¶B
= – x dxdy
¶y

Procediendo de forma análoga para los tramos bc y da se obtiene que:


r r a r r é æ dx ö æ dx öù
ò B ×d l+ òd B ×d l =êB yçx+ , y, z ÷– B yçx – , y, z ÷ú×dy =
c

b ë è 2 ø è 2 øû
(52)
¶B y
=+ dxdy
¶x

Combinando los dos resultados anteriores se llega a:

r r æ ¶B y ¶B x ö
ò B ×d l =çç ¶x –
¶y ÷
÷dxdy (53)
è ø

Calculemos ahora los dos términos del segundo miembro de la ecuación (45). En cuanto al térmi-
no correspondiente a la corriente de conducción, se tiene que la corriente elemental dI encerrada por el
camino abcd puede escribirse en función de la densidad de corriente como:
r r
dI = J ×dS = J zdxdy (54)
r
en donde hemos tenido en cuenta que dS es un vector asociado al elemento infinitesimal de superficie
dxdy y cuya dirección la obtenemos mediante la regla de la mano derecha: curvando los dedos en di-
rección de la circulación del campo, el pulgar extendido indica el sentido del vector unitario normal a
la superficie. Por otra parte, es evidente que sólo la componente Jz de la densidad de corriente contri-
buirá a una corriente a través de la superficie limitada por el contorno abcd, puesto que las componen-
tes Jx y Jy corresponderán a corrientes paralelas a dicha superficie.
Calculemos ahora el flujo eléctrico a través de la superficie limitada por la espira. Puesto que
ésta se encuentra en el plano XY, aplicando la regla de la mano derecha, se tiene que el vector normal a

134 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

r
$ Por tanto,
la superficie de la espira será el vector unitario k$ en la dirección del eje Z; es decir, dS = dSk.
el flujo eléctrico a través de la espira vendrá dado por:
r r r
òSE ×dS = òSE ×k$dS = E z òSdS = E zdxdy (55)

en donde hemos tenido en cuenta que el área encerrada por el camino de integración es dS = dxdy.
Sustituyendo las ecuaciones (53), (54) y (55) en la expresión (45), se tiene que:
æ¶B y ¶B x ö ¶E z
ç ÷
ç ¶x – ¶y ÷dxdy = m 0 J zdxdy+ m 0 e 0 ¶t dxdy (56)
è ø

Eliminando a ambos lados de la ecuación anterior el factor dxdy, obtenemos la ley de Ampère-Maxwell
en forma diferencial:
¶B y ¶B x ¶E
– = m0J z + m0e0 z (57)
¶x ¶y ¶t

El resultado anterior lo hemos obtenido suponiendo que el camino de integración para calcular
la circulación del campo magnético se encontraba situado en el plano XY. Podemos encontrar resulta-
dos similares si consideramos que dicho camino se encuentra en los planos YZ y ZX. Mediante un pro-
ceso análogo al descrito anteriormente, encontraríamos que:
¶B z ¶B y ¶E
– = m0J x + m0e0 x (58)
¶y ¶z ¶t

¶B x ¶B z ¶E y
– = m0J y + m0e0 (59)
¶z ¶x ¶t

Las ecuaciones (58), (59) y (57) se pueden combinar en una sola ecuación vectorial. Vemos que
los segundos miembros de estas ecuaciones son las componentes del vector densidad de corriente mul-
tiplicadas por la permeabilidad del vacío y las derivadas temporales de las componentes del campo
eléctrico multiplicadas por la permeabilidad y permitividad del vacío. Por otro lado, los primeros térmi-r
nos pueden considerarse como las componentes de un vector obtenido a partir del campo magnético B
combinando sus derivadas espaciales en la formaradecuada.
r Este rvector, por definición se denomina ro-
tacional del campo magnético y se escribe como Ñ´B o bien rotB. Utilizando este vector rotacional, las
ecuaciones anteriores se escriben como:

r
r r ær ¶E ö
ç
Ñ´ B = m 0çJ + e 0 ÷ (60)
¶ ÷
è t ø

Esta ecuación es la ley de Ampère-Maxwell en forma diferencial, y proporciona una relación lo-
cal entre el campo magnético en un punto del espacio y la densidad de corriente y la variación tempo-
ral del campo eléctrico en dicho punto. Observemos que esta ecuación relaciona el campo magnético
con sus fuentes de forma similar a como la ley de Gauss para el campo eléctrico relaciona el campo
eléctrico en un punto del espacio con la densidad de carga (fuentes del campo eléctrico) en dicho pun-
to. Por tanto, vemos que, además de las corrientes eléctricas, los campos eléctricos variables con el
tiempo son también fuentes del campo magnético. Por tanto, esta ley pone de manifiesto de forma
clara la interrelación entre las componentes eléctrica y magnética de un campo electromagnético.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 135


Volumen II. Física II

2.3. Ecuaciones de Maxwell


La teoría electromagnética no fue desarrollada en sus inicios en términos de campos eléctricos y
magnéticos. Esta idea de campo fue introducida posteriormente por Michael Faraday. No obstante, el
concepto de campo no fue utilizado de forma generalizada hasta que Maxwell mostró que todos los
fenómenos eléctricos y magnéticos podían describirse con sólo cuatro ecuaciones diferenciales que
involucraban a los campos eléctricos y magnéticos. En su artículo de 1864 titulado “Teoría dinámica
del campo electromagnético”, Maxwell presentó las célebres ecuaciones, que hoy denominamos
ecuaciones de Maxwell, que unificaban los campos eléctricos y magnéticos. Estas ecuaciones consti-
tuyen la base teórica del electromagnetismo clásico y relacionan los campos eléctricos y magnéticos
con sus fuentes: las cargas eléctricas, las corrientes y los campos variables. Su papel en este campo es
tan fundamental como lo son las leyes de Newton en la mecánica clásica: todos los problemas del
electromagnetismo clásico pueden resolverse mediante las ecuaciones de Maxwell, de la misma ma-
nera que todos los problemas de la mecánica clásica pueden resolverse mediante las leyes de Newton.
Las ecuaciones de Maxwell en su forma integral son:

– Ley de Gauss para el campo eléctrico:


r r q
ò E ×dS = e (61)
0

– Ley de Gauss para el campo magnético:


r r
ò B ×dS = 0 (62)

– Ley de Ampère-Maxwell:
r r d r r
ò B ×d l = m 0 I + m0e0
dt
ò E ×dS (63)

– Ley de Faraday-Henry:
r r d r r
ò E ×d l = – dt ò B ×dS (64)

La ley de Gauss para el campo eléctrico es equivalente para campos estáticos a la ley de Cou-
lomb. Establece una relación entre el flujo del campo eléctrico a través de una superficie cerrada con
la carga eléctrica encerrada en el interior de dicha superficie. Esta ley indica que las líneas de campo
eléctrico divergen de las cargas eléctricas positivas y convergen en las cargas eléctricas negativas.
La ley de Gauss para el campo magnético establece que el flujo del campo magnético a través de
una superficie cerrada es cero. Esta ley indica que las líneas de campo magnético son líneas cerradas;
es decir, no divergen ni convergen en ningún punto del espacio. En consecuencia, establece la inexis-
tencia de los polos magnéticos aislados, denominados monopolos magnéticos.
La ley de Ampère-Maxwell establece que la circulación del campo magnético a lo largo de un ca-
mino cerrado es proporcional a la suma de dos términos: el primero de ellos es la corriente que atraviesa
la superficie limitada por el camino de integración, el segundo término es la rapidez con la que varía con
el tiempo el flujo del campo eléctrico a través de dicha superficie. Esta ley indica que las corrientes eléc-
tricas no son las únicas fuentes del campo magnético, también lo son los campos eléctricos variables
con el tiempo. Es decir, un campo eléctrico que varía con el tiempo produce un campo magnético.
La ley de Faraday-Henry establece que la circulación del campo eléctrico a lo largo de un cami-
no cerrado es proporcional a la rapidez con la que varía con el tiempo el flujo del campo magnético a
través de dicha superficie. Esta ley indica que un campo magnético que varía con el tiempo produce
un campo eléctrico.

136 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

Estas ecuaciones pueden también escribirse en forma de ecuaciones diferenciales en la forma:

– Ley de Gauss para el campo eléctrico


r r r
Ñ×E = (65)
e0
en donde r es la densidad de carga eléctrica.
– Ley de Gauss para el campo magnético
r r
Ñ×B = 0 (66)
– Ley de Ampère-Maxwell
r
r r r ¶E
Ñ´ B = m 0 J + m 0 e 0 (67)
¶t
– Ley de Faraday-Henry
r
r r ¶B
Ñ´ E = – (68)
¶t

Las ecuaciones de Maxwell muestran una cierta simetría entre el campo eléctrico y el campo
magnético. Pero esta simetría no es completa debido a que los monopolos magnéticos no existen, al
menos nor se han detectado experimentalmente. Observemos que la ley de Faraday no contiene un tér-
mino m0J (o m0I en su forma integral) como consecuencia de que no hay cargas magnéticas puntuales
que puedan dar lugar a corrientes magnéticas. Sin embargo, en el vacío, donde no hay cargas eléctri-
cas, la simetría de las ecuaciones de Maxwell es total.
Las ecuaciones de Maxwell constituyen un conjunto completo y consistente de ecuaciones que
sintetizan el electromagnetismo. Todo el electromagnetismo se encuentra incluido en estas cuatro
ecuaciones, por lo que son uno de los grandes logros de la física y de la inteligencia humana.
Por otra parte, estas ecuaciones predicen la existencia de ondas electromagnéticas, que Maxwell
identificó con la luz. Por lo que las ecuaciones de Maxwell no sólo significaron la unificación de la
electricidad y el magnetismo, sino que unifican el electromagnetismo y la óptica.
Las ecuaciones de Maxwell se satisfacen también en el límite de velocidades altas, es decir, en el
dominio de la relatividad, algo que no ocurre con las leyes de la mecánica clásica. Sin embargo, tiene
sus limitaciones: las interacciones electromagnéticas entre partículas elementales se deben tratar de
acuerdo con las leyes de la mecánica cuántica. Esta teoría recibe el nombre de electrodinámica cuántica.

3. INDUCCIÓN MUTUA
Hemos visto que un campo magnético variable con el tiempo induce una fem en un circuito, y
también que una corriente por un circuito produce un campo magnético. Como consecuencia de am-
bos resultados, es de esperar que una corriente variable por un circuito induzca una corriente y una
fem en un segundo circuito situado en las proximidades del primero. Por su parte, esta corriente en el
segundo circuito producirá un campo magnético que inducirá una corriente en el primero. Este fenó-
meno se denomina inducción mutua entre circuitos.
Consideremos dos bobinas conductoras situadas cerca una de la otra, tal como se muestra en la
figura 11. Supongamos que por la bobina 1 circula una corriente variable I1. Esta corriente producirá
un campo magnético variable y, por consiguiente, un flujo variable a través de la bobina 2, por lo que

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 137


Volumen II. Física II

sobre ésta se inducirá una fuerza electromotriz e21. Denominamos F21 al flujo sobre cada una de las
espiras de la bobina 2 debido al campo magnético creado por la bobina 1. Si N2 es el número de espi-
ras de la bobina 2, el flujo total a través de ella es N2F21, cantidad que se denomina número de enlaces
de flujo. Si en las proximidades de las bobinas no existen materiales magnéticos, el campo magnético
B1 es proporcional a la corriente I1 que lo crea (según la ley de Biot-Savart). Por tanto, el flujo F21 y
N2F21 serán proporcionales a I1. Esta relación lineal entre N2F21 y I1 puede expresarse definiendo
una constante M21 denominada inductancia mutua:
N2F21 = M21I1 (69)

Figura 11. Una corriente


I1 e21 variable en una bobina induce
una fem en la otra bobina.

La fem e21 inducida en la bobina 2 por la corriente variable en la bobina 1, según la ley de induc-
ción de Faraday, es:
dF
e21 = – N 2 21 (70)
dt

Sustituyendo en esta ecuación la expresión del flujo magnético F21 dada por (69), se tiene que:
dI
e21 = – M 21 1 (71)
dt

Esta expresión relaciona la fem inducida en bobina 2 con la corriente que circula por la bobina 1,
y establece que la fem inducida es proporcional a la rapidez con la que varía la corriente I1 en la bobi-
na 1. La constante de proporcionalidad M21 depende de la forma de la bobina, su tamaño, el número
de espiras, la separación entre las bobinas y su orientación relativa. Así, por ejemplo, cuanto más cer-
ca se encuentren las bobinas, mayor será el flujo que atraviesa su superficie y por tanto mayor será el
valor de la inductancia mutua M21.
Consideremos ahora el caso inverso: si circula una corriente variable I2 por la bobina 2, se indu-
cirá una fem e12 sobre la bobina 1. Esta fem vendrá dada por:
dI 2
e12 = – M 12 (72)
dt
en donde M12 es la inducción mutua de la bobina 2 con respecto a la bobina 1.
Los coeficientes de inductancia mutua M12 y M21 sólo pueden calcularse en algunos casos simples,
por lo que, en general, se determinan experimentalmente. Estos cálculos muestran que para una disposi-
ción cualquiera dada de las bobinas se tiene que M12 = M21. Por consiguiente, podemos eliminar los sub-
índices en los coeficientes de inductancia mutua y representar ambos por M. De esta manera, podemos
escribir la fem inducida en cada una de las bobinas debida a los cambios de corriente en la otra como:
dI
e12 = – M 2 (73)
dt
dI 1
e21 = – M (74)
dt

138 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

En el SI, la unidad de inductancia mutua es el henry o henrio (H), llamado así en honor del esta-
dounidense Joseph Henry:
Wb T×m 2
1H= 1 =1
A A

El henrio es una unidad de inductancia bastante grande, por lo que normalmente se suele utilizar sub-
múltiplos de esta unidad: el milihenrio (mH) o microhenrio (mH).
La inductancia mutua tiene muchas aplicaciones prácticas, por ejemplo, en transformadores, en
marcapasos cardíacos, etc. Sin embargo, en algunas ocasiones pueden ser un problema. Aunque por
regla general la inductancia mutua es casi siempre pequeña, a menos que las bobinas sean muy gran-
des o tengan núcleos de hierro, en aquellas ocasiones en que las señales son pequeñas pueden surgir
problemas. Su efecto se puede minimizar utilizando cables blindados, en los que un conductor cilín-
drico conectado a tierra rodea a otro conductor.

4. AUTOINDUCCIÓN
El fenómeno de inducción estudiado en el apartado anterior también puede aplicarse al caso de una
sola bobina por la que circula una corriente I variable con el tiempo. Esta corriente genera un campo
magnético variable y el cambio del flujo magnético a través de su superficie induce una fem y una co-
rriente que se opone al cambio de flujo (ley de Lenz). A este fenómeno se le denomina autoinducción.
Si el número de espiras de la bobina es N y el flujo del campo magnético a través de cada espira es
F, el flujo total a través de la bobina será igual a NFB. Según la ley de Biot-Savart, el campo magnético
creado por la corriente I que circula en la bobina es proporcional a dicha corriente; por lo que el flujo a
través de la bobina también será proporcional a I. Esta proporcionalidad entre el flujo y la corriente la
podemos expresar mediante el coeficiente de autoinducción L o autoinductancia, en la forma:
NFB = LI (75)

La fem e inducida en la bobina, según la ley de inducción de Faraday, es:


dF B
e = –N (76)
dt

Sustituyendo en esta ecuación la expresión del flujo magnético FB dada por (75), se tiene que:

e = – L dI (77)
dt

Esta expresión relaciona la fem inducida en bobina con la corriente que circula por ella, y establece
que la fem inducida es proporcional a la rapidez con la que varía la corriente I en la bobina. El signo
menos determina el sentido de la fem inducida, de acuerdo con la ley de Lenz. Así, un aumento de la
corriente en la bobina da lugar a un aumento del flujo a través de ella y, por tanto, da lugar a una fem
cuyo sentido se opone al aumento de la corriente.
La autoinductancia L sólo se puede calcular en algunos casos simples, por lo que, en general, su
valor se determina experimentalmente. En el caso de un solenoide alargado de longitud l, sección trans-
versal S y con un número de vueltas por unidad de longitud n, el campo magnético B en el interior del
mismo viene dado por B = m0 nI. Cada vuelta la podemos considerar como una espira plana de superfi-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 139


Volumen II. Física II

cie S, por lo que el flujo a través de ella es FB = m0 nIS. Si el solenoide tiene una longitud l, el número de
vueltas o espiras es N = nl. Por tanto, aplicando la expresión (75) se tiene que nlm0 nIS = LI. Despejan-
do L de esta expresión se tiene finalmente que la autoinducción del solenoide vendrá dada por:
L = m0n lS
2
(78)

Vemos pues, que la autoinducción del solenoide depende de su longitud y superficie, y del número de
vueltas por unidad de longitud n. Es interesante hacer notar que la expresión que acabamos de obtener
es una expresión aproximada y que sólo es exacta en el caso de un solenoide ideal infinitamente largo.

140 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Campos eléctricos y magnéticos dependientes del tiempo

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Feynman, R. P., Leighton, R. B. y Sand, M.: Física. Fondo Educativo Iberoame-
ricano. Bogotá, 1972.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall. Upper Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall. México, 1988.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Holton, G. y Brush, S. G.: Introducción a los conceptos y teorías de las ciencias
físicas. Editorial Reverté, S.A. Barcelona, 1989.
Lorrain, P. y Corson, D. R.: Campos y ondas electromagnéticos. Selecciones
Científicas. Madrid, 1972.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté. Barcelona,
1986.
Purcell, E. M.: Electricidad y magnetismo. Editorial Reverté. Barcelona, 1980.
Tipler, P. A.: Física. Editorial Reverté. Barcelona, 1992.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 141


TEMA

23
Generación de corrientes
alternas. Generadores y
motores. Transformadores y
transporte de la corriente
eléctrica. Influencia de la
electricidad en el cambio de
las condiciones de vida

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. GENERACIÓN DE CORRIENTES ALTERNAS


1.1. Parámetros de la corriente alterna

2. GENERADORES Y MOTORES
2.1. Generadores eléctricos
2.2. Motores de corriente alterna

3. TRANSFORMADORES Y TRANSPORTE DE LA CORRIENTE ELÉCTRICA


3.1. Transformador estático
3.2. Transporte de la corriente eléctrica
3.3. Estaciones transformadoras y distribución
3.4. Protección de la red eléctrica

4. INFLUENCIA DE LA ELECTRICIDAD EN EL CAMBIO DE LAS


CONDICIONES DE VIDA

BIBLIOGRAFÍA

144 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

1. GENERACIÓN DE CORRIENTES ALTERNAS


La ley de Faraday constituye el principio para la conversión de energía mecánica en energía
eléctrica. Esta conversión es la que tiene lugar, por ejemplo, en los generadores eléctricos o en los al-
ternadores de los automóviles.
La mayor parte de la energía eléctrica utilizada por la sociedad se produce en los generadores o
dinamos de las centrales eléctricas y tiene lugar en la forma de corriente alterna. Si bien estos disposi-
tivos son el resultado de un importante desarrollo tecnológico, el principio básico de la generación de
una corriente alterna puede entenderse estudiando el comportamiento de una espira simple que gira
en el seno de un campo magnético.

S
N q
B

S
Figura 1. Una espira que
gira con velocidad
angular w en el seno de
un campo magnético
e uniforme genera una fem
sinusoidal.

Consideremos un generador básico de corriente alterna constituido por una espira conductora
que gira en el seno de un campo magnético uniforme, como se muestra en la figura 1. Vamos a supo-
ner que la espira es una espira rectangular plana que gira alrededor de un eje, contenido en el plano de
la espira, perpendicular al campo magnético. Los extremos de la espira están conectados a unos ani-
llos que giran con la espira, y el contacto eléctrico se realiza mediante unas escobillas conductoras
deslizantes en contacto con los anillos.
r Si llamamos q al ángulo que, en unr instante de tiempo determinado, forma el campo magnético
B con el vector superficie de la espira S, el flujo magnético que atraviesa la espira es:
r r r r
F B = òS B ×dS = B ×S = BS cos q (1)

Puesto que la espira se encuentra girando de forma continua, el ángulo q varía con el tiempo y,
por lo tanto, el flujo a través de la espira cambia con el tiempo. Por consiguiente, se induce una fuerza
electromotriz, que vendrá dada por la ley de Faraday:

dF B d cos q
e= – = – BS (2)
dt dt

Si suponemos que la espira gira con una velocidad angular w constante, entonces, para cualquier
instante de tiempo se tiene que:

q = a + wt (3)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 145


Volumen II. Física II

siendo a el ángulo que forma la espira y el campo magnético en el instante inicial. Sustituyendo esto
en la expresión anterior, se tiene que:
e = BSw sen(wt + a) (4)

En el caso en que sea una bobina de N espiras la que gira en el seno del campo magnético, la ex-
presión anterior se transforma en:
e = NBSw sen(wt + a) (5)

Las ecuaciones (4) y (5) indican que la fem inducida en la espira oscila sinusoidalmente con una
frecuencia angular w igual a la velocidad angular con la que gira la espira en el campo magnético. El
valor máximo de la fuerza electromotriz, o valor de pico, es:

emáx = NBSw (6)

r + a) = 1, es decir, cuando el vector superficie de la espira es per-


Este valor se obtiene cuando sen(wt
pendicular al campo magnético B. Conforme gira la espira, la función sen(wt + a) varía entre –1 y +1,
y la fem oscila entre un valor de –emáx y +emáx. La corriente inducida en la espira también oscila a la
misma frecuencia que la fem, y recibe el nombre de corriente alterna (abreviadamente ac o AC). Su
nombre indica que el sentido de la corriente cambia en cada semiciclo. A un generador de corriente de
este tipo se le denomina generador de corriente alterna o generador ac, y en los diagramas de circuitos
se representa por ~ .
El sentido de la corriente inducida en la espira viene dado por la ley de Lenz. En el intervalo de
tiempo en el que el ángulo q crece desde 0 hasta 90º (0 < q < 90º), el flujo a través de la espira disminu-
ye FB = BS cos q, de manera que la corriente inducida debe oponerse a esa disminución. El sentido de
la corriente debe ser entonces el contrario al de las agujas del reloj: en la espira de la figura 1. Entre
90º y 180º el flujo sigue disminuyendo, se hace negativo, por lo que la corriente sigue llevando esa
misma dirección. El flujo alcanza el valor mínimo (máximo negativo) cuando la espira forma ángulo
de 180º con el campo magnético. Al seguir girando, la espira comienza a aumentar el flujo (tiende a
hacerse menos negativo) hasta alcanzar el valor cero cuando q = 270º, por lo que la corriente se in-
vierte con el fin de contrarrestar este aumento de flujo. Este sentido de la corriente se mantiene hasta
que q = 360º, ya que a partir de este instante el flujo se hace positivo y sigue aumentando hasta que la
espira se sitúa de nuevo en posición perpendicular al campo magnético q = 360º.
En la figura 2 se muestra el flujo y la fuerza electromotriz inducida para
r distintas orientaciones
del plano de la espira en relación con la dirección del campo magnético B.

F
N
2 1
B e FB
3 S
4 q8
B 7 S 1 2 3 4 5 6 7 8
5 6
w wt
e

Figura 2. Flujo magnético y fem inducida en la espira en distintos instantes


de tiempo.

146 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

1.1. Parámetros de la corriente alterna


La expresión (4) nos proporciona el valor instantáneo de la fuerza electromotriz inducida en los
bornes de salida. A partir de esta expresión podemos obtener algunos parámetros que son útiles para
caracterizar una señal de corriente alterna.
– Valor máximo: como hemos visto anteriormente, el valor máximo de pico o de cresta de
una señal de corriente alterna es el máximo valor que puede tomar la fem entre los bornes
de salida. Este valor es:
e máx = NBSw (7)
– Valor pico a pico: a menudo, en vez de utilizar el valor de pico de una señal de alterna, es
frecuente utilizar el valor pico a pico de la señal, definido como dos veces el valor máximo:
e pp = 2e máx = 2NBSw (8)
– Valor medio: el valor medio de una señal sinusoidal pura es cero. Ahora bien, se define el
valor medio como la media algebraica de los valores instantáneos en un semiperíodo:

e med = 2 ò0 e máx sen wt dt


T/2
(9)
T
Teniendo en cuenta que la función coseno es la derivada de la función seno, se tiene inme-
diatamente que:
e máx 2 e máx 4 e máx
e med = – 2 ò
T/2
d (cos wt ) = – [cos wt ]T0 / 2 = (10)
T w 0 T w T w
Teniendo en cuenta que T = 2p/w, resulta que la relación entre el valor medio y el valor má-
ximo de la señal de alterna es:

e med = 2 e máx (11)


p
– Valor eficaz: este parámetro es característico de una corriente alterna y se define como
aquel valor que llevado a corriente continua produce el mismo efecto calorífico. Este valor
es el valor cuadrático medio (abreviadamente r.m.s.):
1 T
e ef = ò ( e sen wt )2 dt (12)
T 0 máx
La integral de la expresión anterior puede escribirse como:
e máx
2

e 2ef = ò
T
sen 2 wt dt (13)
T 0

Haciendo el cambio de variable wt = a, la integral anterior se escribe como:


e 2máx
e 2ef = ò
2p
sen 2 a dt (14)
Tw 0

Para calcular la integral tendremos en cuenta que el coseno del ángulo doble viene dado por:
cos 2a = cos a – sen a
2 2
(15)
Y por otra parte se tiene que:
sen a + cos a = 1
2 2
(16)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 147


Volumen II. Física II

De ambas expresiones, obtenemos que:


1
sen 2 a = (1– cos 2a ) (17)
2
Sustituyendo este resultado en la integral (14) se tiene que:
e 2máx
e 2ef = ò
2p
(1– cos 2a ) da (18)
2Tw 0

Teniendo en cuenta ahora que la derivada de la función seno es la función coseno, la inte-
gral anterior la podemos escribir como:
e máx
2
ì 1 2p ü
e 2ef = íò da – ò d(sen 2a )ý
2p
(19)
2Tw î 0 2 0 þ
Realizando las integrales se tiene que:
e 2máx ì 1 ü e2 e2
e 2ef = í[ a] 20p – [sen 2a] 20p ý= máx 2p = máx (20)
2Tw î 2 þ 2Tw 2
en donde hemos tenido en cuenta que T = 2p/w. Sustituyendo este resultado en la expresión
(12) se obtiene que el valor eficaz viene dado por:
e máx
e ef = (21)
2
De forma análoga, se tiene que la corriente o intensidad eficaz es:
I máx
I ef = (22)
2
Tal como dijimos anteriormente, estos valores eficaces corresponden a los valores de una
corriente continua que produciría el mismo efecto calorífico que la corriente alterna. Vea-
mos que esto es así. Para ello calculemos el valor medio de la potencia suministrada por la
fuente, que es igual al valor medio de la potencia disipada en forma de calor. Esta potencia
media viene dada por:
1 T 1 T
P = ò P dt = ò0 Ie dt (23)
T 0 T
Sustituyendo en esta expresión el valor de la corriente y de la fem por su valor instantáneo,
se tiene que:
1 1 1 T
ò Ie dt = T ò I máx e máx sen 2 wt dt = I máx e máx ò sen 2 wt dt
T T
P = (24)
T 0 0 T 0
Utilizando el resultado encontrado anteriormente para el valor medio de la función seno al
cuadrado, se tiene que:
1 I e máx
P = I máx e máx = máx = I ef e ef (25)
2 2 2

Por consiguiente, la potencia suministrada es igual a la suministrada por una fuente de co-
rriente continua de diferencia de potencial igual a la fem eficaz y que proporcione una co-
rriente igual a la corriente eficaz.

148 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

2. GENERADORES Y MOTORES
Las máquinas eléctricas se suelen clasificar en tres categorías:
1. Generadores: transforman en energía eléctrica una energía de otro tipo, generalmente mecánica.
2. Motores o receptores: realizan la operación inversa, transforman la energía eléctrica en energía
mecánica.
3. Transformadores: conservan la forma de la energía, pero ponen la energía eléctrica en condi-
ciones más favorables para su transporte y utilización.

En esta sección vamos a estudiar las características generales de los generadores y motores.

2.1. Generadores eléctricos


En un generador de corriente, la energía mecánica de rotación de la espira o de la bobina se con-
vierte en energía eléctrica. Dependiendo de la forma en que se suministra la energía podemos distin-
guir entre generadores de corriente alterna, denominados alternadores, y generadores de corriente
continua, denominados generalmente dinamos.
Aunque los generadores reales son más complicados técnicamente que el generador simple es-
tudiado en la sección anterior, se basan en el mismo principio de inducción electromagnética. Tal
como hemos visto, la fem inducida depende del desplazamiento relativo de la bobina con relación al
campo magnético, normalmente creado por un electroimán. En consecuencia se pueden realizar dos
tipos de montajes que se diferencian en la parte móvil del generador. Una primera forma de construir
un generador es dejar el campo magnético fijo y hacer girar la bobina colocada sobre una armadura de
hierro dulce (figura 3a). Una segunda estructura alternativa consiste en dejar fija la bobina y hacer gi-
rar el campo magnético (figura 3b).

a) b)

Figura 3. Estructuras de un generador de corriente alterna.

Salvo en el caso de generadores pequeños siempre se adopta el segundo tipo de estructura, por
las siguientes razones:
1. La estructura giratoria puede ser maciza y en consecuencia presenta una mayor resistencia me-
cánica a las vibraciones.
2. En las estructuras en las que giran las bobinas, estas se unen al circuito exterior mediante escobi-
llas que deslizan sobre unos anillos conductores unidos a las bobinas. Cuando la fuerza electro-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 149


Volumen II. Física II

motriz y la corriente son elevadas, se producen chispas en estas conexiones, lo que hace que
estos contactos se deterioren rápidamente. Por el contrario, en las estructuras donde las bobinas
sobre las que se inducen las corrientes están fijas, se evita este problema al no necesitar los ani-
llos y escobillas en el circuito de salida. En su lugar, se usan anillos y escobillas para suministrar
la corriente a los electroimanes giratorios, pero estas corrientes son pequeñas, por lo que no se
evita el problema.
3. Es peligroso que los circuitos donde se generan altas tensiones giren a gran velocidad, pues las
vibraciones sobre los conductores y aislante producen desgastes que pueden dar lugar a cortocir-
cuitos destructivos.

Por todo lo visto anteriormente, la estructura básica de un generador de corriente alterna o alter-
nador es la mostrada en la figura 3b, aunque en el caso de generadores pequeños se utiliza también
una estructura como la mostrada en 3a.
El campo magnético se crea mediante unas bobinas denominadas inductoras por las que circula
una corriente que se denomina inductora o de excitación. Las bobinas se encuentran montadas sobre
una armadura maciza de acero dulce denominada culata. Toda esta parte giratoria recibe el nombre de
rotor. El alternador tiene dos polos prominentes o salientes, por lo que a este tipo de máquinas se le
denomina de polos salientes.
La parte fija se denomina estator y lleva la armadura del inducido, la cual está compuesta por
una corona hecha de láminas sobre la que se sitúan las bobinas sobre las que se induce la fem y que
denominamos arrollamiento del inducido. Todo ello se encuentra rodeado por el armazón.
Si el rotor tiene sólo dos polos, el período de la fem inducida en la bobina corresponde a una
vuelta del rotor. Si denominamos por f a la frecuencia de la fem y por N al número de revoluciones por
minuto del rotor, se tiene entonces que:
N
f= (26)
60
en donde f viene dado en revoluciones por segundo. Ahora bien, la frecuencia de la fem viene im-
puesta por el tipo de red utilizada, que en el caso europeo es de 50 Hz (60 Hz en Estados Unidos), por
lo que de la expresión anterior podemos obtener la velocidad angular a la que debe girar el rotor, que
es igual a 3000 rpm (revoluciones por minuto).
El esquema básico discutido anteriormente se puede modificar para que el alternador sea más
efectivo, aumentar la fem de salida, y para que el giro del rotor pueda realizarse a velocidades más ba-
jas. Esto se consigue aumentando el número de polos del rotor.
Un concepto útil en el estudio de las máquinas de corriente alterna es el de ángulo eléctrico. Se
define el ángulo eléctrico como el que ha de recorrer el rotor para inducir una onda o período com-
pleto de la fem. En la máquina bipolar está claro que el rotor ha de girar 360º para producir un ciclo
completo. Supongamos ahora un rotor con cuatro polos como el mostrado en la figura (figura 4). En
este caso, el rotor ha de girar 180º geométricos para producir la onda completa de la fem. En general,
si se tienen p pares de polos, el ángulo eléctrico qe se define como:
qe = pq (27)
siendo q el ángulo geométrico.
Si colocamos ahora sobre el estator dos bobinas a y b conectadas entre sí como se indica en la fi-
gura (figura 4), observamos que los ciclos de las fem inducidas en ambas comienzan al mismo tiem-
po, pues cuando comienza a pasar uno de los polos por una de las bobinas, el otro polo del mismo
signo comienza a pasar por la otra bobina. Es decir, que las fem inducidas en ambas bobinas están en
fase. Vemos que en este caso el ángulo de separación de las bobinas es q = 180º, y el ángulo eléctrico

150 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

entre ambas es qe = pq = 2 ´ 180 = 360º; en donde hemos hecho p = 2 que es igual al número de pares
de polos e igual al numero de bobinas sobre el estator. Es decir, que cuando el ángulo eléctrico entre
dos bobinas es de 360º, las fuerzas electromotrices entre ambas están desfasadas 360º, o lo que es lo
mismo, están en fase; y el desfase entre dos bobinas sobre el estator es igual al ángulo eléctrico entre
ellas. Posteriormente haremos uso de este hecho.

a
N
S N S N

S S

Figura 4. Generador N
de corriente alterna
de cuatro polos. b a b

Veamos a continuación cómo aumentar el número de polos permite disminuir la velocidad de


giro del rotor. Consideremos de nuevo el alternador de cuatro polos mostrado en la figura 4. Vemos
que, para una vuelta completa del rotor, se producen dos ciclos de la fem inducidas sobre las bobinas.
Es decir, se tiene que:
N
f=2 (28)
60
En general, si el rotor tiene 2p polos, es decir p pares de polos, la frecuencia de la fem inducida viene
dada por:
N
f= p (29)
60

Ahora bien, tal como hemos dicho antes, la frecuencia de la fem viene impuesta por el tipo de red uti-
lizada, que en el caso europeo es de 50 Hz (60 Hz en Estados Unidos); y por otra parte, la velocidad
del rotor N viene impuesta por el motor que ha de mover al rotor. Por consiguiente es necesario utili-
zar un número de pares de polos p que satisfaga las dos condiciones anteriores. Así por ejemplo, fi-
jando una frecuencia de la fem f = 50 Hz, para una velocidad N = 3000 rpm (revoluciones por minuto)
se deberá disponer de dos polos en el rotor; para N = 1500 rpm, de cuatro polos; y para N = 1000 rpm
de seis polos. En este tipo de alternador la frecuencia de la fem inducida está sincronizada con la velo-
cidad angular a la que ha de girar el rotor, por lo que se denominan máquinas sincrónicas o síncronas.
Veamos a continuación la fem inducida en un alternador. Para ello consideremos el alternador
de la figura 4. Supondremos que las bobinas a y b tienen un total de n conductores activos (partes con-
ductoras en las ranuras) en las que aparece una fem; y también supondremos que el flujo en el en-
trehierro es sinusoidal. Si tenemos en cuenta la relación (5), la fem eficaz inducida en el conjunto de
las n/2 espiras de las bobinas a y b vendrá dada por:
e máx 1 n
e ef = = wF máx = 2,22 n f F máx (30)
2 22
en donde Fmáx es el valor máximo del flujo sinusoidal. Sustituyendo en esta expresión el valor de f dado
por (29):

e ef = 2,22 p N nFmáx (31)


60

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 151


Volumen II. Física II

Esta expresión nos da la fem teórica del alternador, ya que hemos supuesto que todas las fem de cada
una de las espiras de las bobinas están en fase, y por otro lado que el flujo magnético y por tanto la fem
son sinusoidales.
Para aumentar la potencia del alternador, según la expresión anterior, deberemos aumentar el
número de conductores activos n. Ahora bien, a la hora de construir un alternador se debe perseguir
dos objetivos: que la curva de la fem sea lo más próximo a una función sinusoidal, y que el cobre del
inducido se utilice de la mejor manera posible. El aumento del número de espiras de las bobinas a y b
produciría un aumento de la fem inducida y cumpliría el segundo de los requisitos anteriores: el cobre
estaría bien utilizado en el sentido de que todas la fem inducidas en cada una de las espiras estarían en
fase. Pero por otra parte, un arrollamiento de ese tipo (de una ranura en el estator, por polo) produce
una fem que dista mucho de ser sinusoidal, al no serlo el flujo que atraviesa las bobinas.


a N S N S N

S S

Figura 5. Generador de
b corriente alterna de cuatro
N a a´ b b´ polos con bobinas en serie
para mejorar la forma de la
b´ señal de alterna.

Una solución para mejorar la forma de la fem inducida es conectar en serie bobinas como las a y
a´, y las b y b´ como se indica en la figura 5. A este tipo de arrollamiento se le denomina repartido y
utiliza varias ranuras en el estator por polo. El efecto de este tipo de arrollamiento es que las fem indu-
cidas en cada uno de los n/2 conductores activos sobre el inducido no estén en fase. Por una parte, este
desfase entre las bobinas es lo que permite obtener que la forma de la fem se aproxime a una función
sinusoidal; pero, por otro lado, el desfase hace que la fem inducida no sea su suma algebraica. La fem
eficaz del alternador será inferior a la fem teórica y se obtiene multiplicando ésta por un factor K1 < 1
denominado factor de arrollamiento. Cuanto mayor sea el número de ranuras utilizada por polo más
se acercará la fem a una forma sinusoidal. No obstante, a pesar de esto, y de otro tipo de artificios uti-
lizados en la construcción de los polos, la fem no es rigurosamente sinusoidal.
Se define el factor de forma como el cociente entre el valor eficaz y su valor medio:
e ef
K2 = (32)
e med
que para el caso de una señal sinusoidal es 1,11.
En definitiva, la fem real de un alternador viene dada por:

e ef = 2,22K 1 K 2 p N nF máx (33)


60
Expresión que podemos escribir como:

e ef = Kp N nF máx (34)
60
en donde K = 2,22K1K2 es el coeficiente de Kapp, que depende de la construcción del alternador y
cuyo valor varía entre 1,9 y 2,6.

152 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

Se puede hacer un mejor aprovechamiento del estator colocando bobinas adicionales y obtener
un alternador trifásico. Es decir, obtener tres fem desfasadas 120º entre ellas. Para ello, es necesario
colocar las bobinas distribuidas de manera que el ángulo eléctrico entre ellas sea de 120º. En un alter-
nador de dos polos esto equivaldría a situar las bobinas separadas 120º geométricos. Si utilizamos un
rotor de cuatro polos (p = 2), según la expresión (27), la separación geométrica entre ellas ha de ser de
q = qe/p = 120/2 = 60º. En la figura 6 se muestra el esquema de un alternador trifásico y las fem de sali-
das del mismo.

U I
U V W
N

W S V
Figura 6. Generador de
corriente alterna trifásica.

2.2. Motores de corriente alterna


Un motor eléctrico se basa en las fuerzas electromagnéticas que un campo eléctrico ejerce sobre
una espira por la que circula una corriente. Para estudiar este efecto consideremos una espira rectan-
gular de longitud a y de anchura
r b por la que circula una corriente I, que se encuentra situada en un
campo magnético uniforme B (figura 7). La espira puede girar alrededor de un eje de rotación conte-
nido en el plano de la misma.

F3
F3 S
N I F2
N 0 S
r3
S r1 a
b
F4 a B
F1 F1

Figura 7. Fuerzas magnéticas sobre una corriente


que circula por una espira rectangular.

r r r r
La fuerza que el campo magnético B ejerce sobre una corriente I viene dada por F = IL´ B, por
lo que sobre cada tramo de la espira actuará una fuerza:
F1 = I Ba F2 = I Bb sen a (35)
F3 = I Ba F4 = I Bb sen a (36)
r r
cuyas direcciones son las mostradas en la figura. Las fuerzas F1 y F3 son iguales y opuestas, al igual
r r
que también lo son las fuerzas F2 y F4 , por lo que la fuerza neta resultante sobre la espira es cero. No
r r
obstante, hay una diferencia entre ambos conjuntos de fuerzas: las fuerzas F2 y F4 actúan a lo largo
del mismo eje y por tanto no producen ningún momento sobre la espira; por el contrario, las fuerzas

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 153


Volumen II. Física II

r r r
F1 y F3 no actúan sobre el mismo eje y sí producen un momento sobre la espira. El momento t de este
par de fuerzas hace que la espira gire en el sentido de las agujas del reloj y es igual a:
r r r r r
t = r1 ´ F1 + r3 ´ F3 (37)
r r
donde r1 y r3 son los vectores perpendiculares al eje de giro de la espira con origen el eje y extremo en
los tramos de la espira perpendiculares al campo magnético.
La orientación de la espira puede describirse adecuadamente mediante un vector unitario n$ per-
pendicular al plano de la espira, cuyo sentido estará dado por la regla de la mano derecha: se curvan
los dedos de la mano derecha en la dirección de la corriente en la espira, entonces el pulgar estirado
$ De esta manera podemos
nos proporciona el sentido del vector unitario n. r asociar a la superficie de la
$ S = S n.
espira S un vector en la dirección y sentido del vector unitario n, $ Si llamamos q al ángulo for-
mado por el vector unitario n$ con la dirección del campo magnético, como se muestra en la figura, el
módulo del momento de las fuerzas sobre la espira puede escribirse como:
t = r1 F1 sen q + r3 F3 sen q (38)

Teniendo en cuenta las expresiones de F1 y F3 dadas por (35) y (36), y que r1 = r3 = b/2, el momento
neto sobre la espira vendrá dado por:
b b
t = IaB sen q + IaB sen q = IabB sen q (39)
2 2
r r
Si tenemos en cuenta ahora que S = ab y que S ´ B = SB sen q, el resultado anterior lo podemos expre-
sar en forma vectorial como:
r r r
t = IS ´ B (40)

En el caso en que tengamos una espira con N vueltas (una bobina), la corriente por la espira es NI
y por tanto, el momento de las fuerzas ejercidas por el campo magnético se escribe como:
r r r
t = NIS ´ B (41)
siendo N, como hemos dicho anteriormente, el número de vueltas de la espira.
Si la corriente que se hace pasar por la espira es una corriente continua, el sentido de las fuerzas
es siempre el mismo y el resultado es que sobre la espira de corriente actúa un par de fuerzas que tien-
de a alinear el momento dipolar magnético con el campo magnético. La espira tiende a girar hacia una
posición estable en la que su superficie es perpendicular al campo magnético y el momento de las
fuerzas es cero. Ahora bien, esta posición de equilibrio no se alcanza instantáneamente sino que la es-
pira oscilará alrededor de esta posición de equilibrio. Si hacemos que el sentido de la corriente se in-
vierta cuando la espira pasa por la posición de equilibrio se invertirá el sentido de la fuerza sobre cada
tramo de la espira, esto hace que el momento de las fuerzas sobre la espira mantenga la misma direc-
ción, y en consecuencia esta tenderá a girar en el sentido de las agujas del reloj (figura 8).

F3
F1
N S N r3 S
r3 Figura 8. Al alimentar la espira con
r1 r1 F3 corriente alterna el sentido de la
fuerza sobre cada conductor cambia
B B en cada semiciclo. El sentido del
F1 momento es el mismo durante todo el
ciclo, por lo que la espira girará en el
sentido mostrado.

154 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

Antes de estudiar la estructura de un motor de corriente a


alterna, vamos a estudiar el campo magnético que puede pro-
ducir las bobinas del estator cuando se alimentan con una co-
rriente alterna. Supongamos un esquema simple como el de la b´ c´
figura 9, donde se muestra una sección transversal de una má- c
quina trifásica, y en donde se muestran los flujos debidos a las
bobinas a – a´, b – b´ y c – c´ del estator separadas 120º. Los
sentidos de las corrientes en cada una de las bobinas se mues- b a
tran con los símbolos u (corriente que sale del papel) y Ä (co-
rriente entrante en el papel). La dirección de los flujos se c b
obtiene aplicando a cada bobina la regla de la mano derecha.
Vamos a simplificar el análisis suponiendo que los flujos son a´
proporcionales a la corriente que pasa por cada bobina F = kI.
Por otro lado, puesto que cada flujo tiene una magnitud y una Figura 9. Campo magnético
dirección, vamos a representar cada uno de ellos con un núme- giratorio producido por las
ro complejo F = Feiq siendo F la magnitud y q el ángulo que bobinas del estator de un motor de
forma con la horizontal. De esta manera, se tiene que: corriente alterna.

F a = kI a e iq a (42)

F b = kI b e iq b (43)

F c = kI c e iq c (44)

en donde qa = 0, qb = –120 y qc = 120.


Si las corrientes que circulan sobre cada bobina son iguales, entonces el flujo total es cero F =
= Fa + Fb + Fc = 0. Consideremos el caso en que las tres corrientes están desfasadas 120º, como se
muestra en la figura 10. Es decir, que las corrientes por cada una de las bobinas vienen dadas por:

Ia = I cos wt (45)
I I a Ib Ic
Ib = I cos (wt – 120) (46)

Ic = I cos (wt + 120) (47)


wt
En este caso los flujos vendrán dados por:

Fa = kI cos wte iq a (48)

Fb = kI cos (wt – 120)e iq b (49)


Figura 10.
Fc = kI cos (wt + 120)e iq c (50) Corrientes desfasadas 120º.

Teniendo en cuenta que según la fórmula de Euler e iq = cos q + i sen q, se tiene que:
Fa = kI cos wt (51)
1 3
Fb = – kI cos ( wt – 120) – i kI cos ( wt – 120) (52)
2 2
1 3
Fc = – kI cos ( wt +120)+ i kI cos ( wt +120) (53)
2 2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 155


Volumen II. Física II

Para el flujo total tendremos que:


é 1 1 ù
F= kIêcos wt – cos ( wt – 120) – cos ( wt +120)ú+
ë 2 2 û
(54)
3
+i kI [cos ( wt +120) – cos ( wt – 120)]
2
Si ahora tenemos en cuenta que:
cos ( wt ±120) = cos wt cos 120 m sen wt sen 120=
1 3 (55)
= – cos wt m sen wt
2 2
Y lo sustituimos en la expresión anterior, tendremos que:
é 1æ ö 1æ öù
F= kIêcos wt – ç– 1 cos wt + 3 sen wt ÷– ç– 1 cos wt – 3 sen wt ÷ú+
ç
2è 2 ÷ ç ÷
ë 2 ø 2è 2 2 øû

3 éæ 1 3 ö æ 1 3 öù
+i kIêç
ç – cos wt – sen wt ÷
÷–ç
ç – cos wt + sen wt ÷
÷ú= (56)
2 ëè 2 2 ø è 2 2 øû

3 3 3 3
= kI cos wt – i kI sen wt = kI (cos wt – i sen wt ) = kIe – iwt
2 2 2 2

Por tanto, el flujo total tiene una magnitud constante y forma un ángulo con la horizontal q = –wt. Es
decir, el flujo gira en el interior del estator a una frecuencia de w radianes por segundo cuando se le
aplican las corrientes Ia, Ib e Ic a las bobinas a – a´, b – b´ y c – c´.

b´ c´

1 1´

c b

Figura 11. Esquema de un motor de inducción.

Los motores de corriente alterna, más comúnmente utilizados, son los denominados motores de
inducción. En este tipo de motores, el rotor está compuesto por un conjunto de barras conductoras de co-
bre, latón o aluminio dispuestas sobre la periferia del rotor (figura 11) y unidas sobre cada cara de la arma-
dura mediante un anillo del mismo metal y de sección bastante grande. Este tipo de estructura se denomi-
na en jaula de ardilla. El funcionamiento es el siguiente. Consideremos una sección transversal como la
mostrada en la figura, y centrémosnos en el circuito formado por los conductores 1 y 1´. Al conectar la co-
rriente sobre las bobinas del motor se crea un flujo rotatorio. Debido al cambio de flujo, se induce una fem
en dicho circuito, que da lugar a una corriente inducida (de aquí el nombre de motor de inducción). En

156 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

consecuencia, sobre cada conductor actuará una fuerza que dará lugar a un momento de fuerzas que hará
girar el rotor. Los otros circuitos formados por los demás conductores experimentan el mismo efecto, y
por tanto contribuyen al momento total del motor. Si este momento es suficiente para vencer la carga, el
motor comenzará a girar a su velocidad estacionaria n. Esta velocidad de operación no puede ser igual a
la velocidad de sincronismo (velocidad a la que gira el campo magnético y el flujo), ya que si esto fue-
se así, no habría cambio de flujo en los circuitos del rotor y en consecuencia no se inducirían corrien-
tes y por tanto no actuarían fuerzas sobre los conductores. Por consiguiente, la velocidad de opera-
ción de un motor de inducción es inferior a la velocidad de sincronismo ns.
Se define el deslizamiento del rotor como:
ns – n
s= (57)
ns

En el caso que hemos estudiado anteriormente, la velocidad de sincronismo en revoluciones por


minuto es:
ns = 60f (58)
siendo f la frecuencia de la señal de alimentación de las bobinas del estator. Ahora bien, al igual que
los alternadores, los motores de inducción se pueden construir con un número de polos p, en este
caso, la velocidad de sincronismo viene dada por:
60 f
ns = (59)
p

Si denominamos nr a la velocidad relativa del rotor con respecto a la velocidad de sincronismo


(del flujo), la frecuencia del rotor fr vendrá dada por:
pn r n –n sn ps 60 f
fr = =p s =p s= = sf (60)
60 60 60 60 p

Es decir, la frecuencia del rotor es igual al deslizamiento por la frecuencia de la señal de alimenta-
ción, denominada frecuencia en línea.
Se puede demostrar que el par del motor viene dado por:
C = kFIrcosj (61)
en donde k es una constante que depende de la construcción del motor, F es el flujo, e Ircosj la inten-
sidad activa en el inducido (j es el desfase entre la fem inducida en cada bobina y la corriente que cir-
cula por ella).

3. TRANSFORMADORES Y TRANSPORTE DE LA CORRIENTE


ELÉCTRICA
La mayor parte de la energía utilizada hoy en día es producida mediante generadores eléctricos
en forma de corriente alterna. La energía eléctrica que llega a los usuarios para uso doméstico, comer-
cial o industrial es de bajo voltaje, por lo general de 220 voltios. No obstante, las señales de corriente
alterna generadas en los alternadores tienen una tensión del orden de miles de voltios. Esta tensión es
todavía aumentada a la salida de las centrales con objeto de poder transportarla a grandes distancias
limitando las pérdidas por efecto Joule en la línea de transmisión. Esta es la gran ventaja que presenta
la corriente alterna frente a la corriente continua.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 157


Volumen II. Física II

Veamos cómo es más eficiente transportar energía eléctrica de alta tensión que de baja tensión.
Supongamos que se transporta una potencia P por una línea de transmisión a cierta tensión V. Esto
significa que por la línea circula una corriente I de manera que:
P=VI (62)
Por otra parte, si la resistencia de la línea es R se producirá una pérdida de energía por efecto Jou-
le dada por:
2
Pr = I R (63)
Si aumentamos la tensión en un factor n, V ´ = nV manteniendo la potencia transmitida constante, la
corriente se verá reducida por ese mismo factor I´= I/n, por lo que para una resistencia de la línea dada
R la potencia disipada por efecto Joule disminuye en un factor n2. Es decir, que la transmisión de
energía eléctrica a alta tensión es más eficiente que su transporte a baja tensión.
Esto también podemos verlo de la siguiente manera. Supongamos que queremos transmitir una
potencia dada P hasta una distancia concreta utilizando un cable de cierto material conductor; y su-
pongamos que podemos tener unas determinadas pérdidas por efecto Joule Pr. Como hemos visto,
multiplicar la tensión por un factor n significa dividir la corriente transportada por ese mismo factor.
Por tanto, si mantenemos fijas las pérdidas por efecto Joule tendremos que la resistencia de la línea
vendría dada por:
I2
Pr = I 2 R = 2
R ' Þ R '= n 2 R (64)
n
Es decir, que al aumentar la tensión, si mantenemos las pérdidas constantes, podemos aumentar la re-
sistencia de la línea. Puesto que la distancia entre la estación generadora y el punto de consumo es fija
(y por tanto la longitud de la línea) y el material conductor también viene fijado a priori, aumentar la
resistencia de la línea significa que podemos utilizar unos cables más finos. En efecto, la resistencia
de un material viene dada por R = rL/S, siendo r la resistividad, L la longitud y S la sección del con-
ductor. Por tanto, se tendrá que:
L L S
R '= n 2 R Þ r = n 2 r Þ S '= 2 (65)
S' S n
Es decir, que multiplicar la tensión por un factor n significa que podemos reducir la sección de los ca-
bles de la línea de transmisión por un factor n2, con el consiguiente ahorro que eso conlleva.
Por consiguiente, es más práctico y ventajoso el transporte de la energía eléctrica en alta tensión.
Puesto que, por otra parte, es más fácil producir y utilizar la energía eléctrica en baja tensión, es nece-
sario un dispositivo que, con pocas pérdidas, sea capaz de:
1. Transformar, a la salida de las centrales generadoras, la energía de baja tensión y gran intensidad
en energía de alta tensión y baja intensidad,
2. Transformar, en el lugar de consumo, la energía eléctrica de alta tensión y baja intensidad en
energía de baja tensión y gran intensidad.

Este tipo de dispositivo se denomina transformador.

3.1. Transformador estático


Un transformador es un dispositivo que toma a la entrada una señal de alterna de cierta tensión
y la convierte a la salida en otra señal de corriente alterna con una amplitud diferente sin que se pro-
duzca una pérdida apreciable de potencia. Su funcionamiento se basa en que una corriente alterna que
circula por un determinado circuito induce una fem en otro circuito situado en sus proximidades.

158 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

Un transformador simple se compone esencialmen-


te de dos arrollamientos independientes sobre un núcleo
de hierro (figura 12). (Los transformadores reales se
construyen de manera que los arrollamientos se distribu- e NP NS e
e
P s
yen sobre ambos lados del hierro, y además el arrolla-
miento de tensión elevada envuelve al otro.) El arrolla-
miento que recibe la energía y que se conecta a la fuente
externa recibe el nombre de primario, y el segundo arro-
llamiento que cede la energía recibe el nombre de secun-
dario. La función del núcleo de hierro es aumentar el Figura 12. Transformador eléctrico.
campo magnético creado por la corriente de entrada y
mantener las líneas de campo en su interior de manera
que el flujo que atraviese por los dos arrollamientos sea el
mismo. Con el objeto de minimizar las pérdidas debidas a las corrientes de Foucault, el núcleo se constru-
ye con láminas conductoras. Además de estas pérdidas se producen otras debidas al efecto Joule en las bo-
binas conductoras y a la histéresis que se presenta en el núcleo de hierro. No obstante, vamos a despreciar
estas pérdidas y vamos a considerar que el transformador tiene un rendimiento del 100%. Los transforma-
dores comerciales suelen tener un rendimiento que oscila entre el 90 y el 95%.
Consideremos un transformador cuyo primario consta de Np vueltas y se encuentra conectado a un
generador de corriente alterna de fem e, y cuyo secundario, formado por Ns vueltas se encuentra en circui-
to abierto. Debido a la presencia del hierro, aunque la corriente por el primario sea pequeña, existe un flujo
magnético grande que atraviesa ambos arrollamientos. Si se considera despreciable la resistencia del pri-
mario, el circuito a la entrada está formado por una generador conectado a una bobina (ver tema 24). En
este caso, la corriente I0 y la tensión en el primario están desfasadas 90º, y la potencia disipada en el prima-
rio es cero. Si denominamos FB al flujo que atraviesa una vuelta, la fem inducida en el primario es:
dF
ep = – N p B (66)
dt
Si, como hemos dicho antes, la resistencia del arrollamiento primario es nula, aplicando las reglas de
Kirchhoff, se tendrá que la tensión en la entrada y la fem inducida en el primario estarán relacionadas
por:
dF B
0= e+ e p Þ e p = – e = – N p (67)
dt

Por otra parte, el flujo magnético variable induce una fem en el secundario dada por:
dF B
es = – N s (68)
dt
De las expresiones anteriores obtenemos que la tensión de salida del transformador que es igual
a la fem inducida en el secundario estará relacionada con la tensión de entrada del transformador por:

Ns
es = – e (69)
Np

Si Ns > Np, la tensión de salida del transformador en el secundario será mayor que la tensión de en-
trada aplicada al primario y el transformador recibe el nombre de transformador elevador. Si Ns < Np, la
tensión de salida del transformador en el secundario será menor que la tensión de entrada aplicada al
primario y al transformador se le denomina transformador reductor.
Estudiemos a continuación lo que ocurre cuando conectamos una resistencia R, denominada de
carga, al secundario. En este caso, por el circuito del secundario circulará una corriente Is que estará

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 159


Volumen II. Física II

en fase con la fem es. Esta corriente hace que se produzca un flujo adicional F´ a través de cada vuelta
del secundario que se opone al flujo original creado por la corriente inicial I0 y que es proporcional a
IsNs. Sin embargo, según la expresión (67) el flujo debe permanecer constante, puesto que sólo de-
pende de la fem del generador y no se ve afectada por el secundario. Para que esto sea posible debe
circular una corriente adicional I1 por el primario, que producirá un flujo proporcional a I1Np. Como
este flujo ha de ser igual a –F´ se tendrá que:
I1Np = –IsNs (70)

Estas corrientes están desfasadas 180º. Como IS está en fase con es y a su vez es está desfasada 180º con
respecto a e (69), entonces I1 estará en fase con la fem aplicada al primario e. La potencia suministrada
por el generador será eefI1, ya que la corriente I0 está desfasada 90º con la fem de entrada. Por otro lado,
la potencia suministrada a la carga es es,efIs,ef, por lo que si no existen pérdidas, se tendrá que:
eefI1 = es,efIs,ef (71)
Por regla general, se tiene que la corriente I0 es mucho más pequeña que la corriente I1, por lo que la
corriente que circula por el primario Ip es aproximadamente igual a la corriente I1:
Ip = I1 + I0 • I1 (72)

Siempre que esto sea así, entonces la expresión (70) nos proporciona una relación entre la corriente
que circula por el primario y la que circula por el secundario.

3.2. Transporte de la corriente eléctrica


La red eléctrica está constituida por un conjunto de instalaciones cuyo objetivo es la generación
de energía eléctrica, a partir de otros tipos de energía, y su transporte hasta los lugares donde es con-
sumida. Los elementos principales de una red eléctrica son: la central eléctrica, los transformadores
que elevan el voltaje de la energía eléctrica generada a las altas tensiones utilizadas en las líneas de
transmisión, las líneas de transmisión, las subestaciones donde se baja el voltaje de la señal para ade-
cuarla a las líneas de distribución, las líneas de distribución y los transformadores que bajan el voltaje
hasta el valor utilizado por los consumidores.

3.3. Estaciones transformadoras y distribución


La mayor parte de la energía eléctrica consumida en el mundo se genera en grandes centrales tér-
micas, que utilizan como fuente de energía primaria el carbón, la energía nuclear o el gas. En ellas, se
utilizan complejos alternadores para convertir el trabajo mecánico de una turbina en energía eléctrica.
En las instalaciones normales, la tensión que proporcionan los generadores de la central eléctrica es
de 26.000 voltios; voltajes superiores no son adecuados por las dificultades que presenta su aisla-
miento y por el riesgo de cortocircuitos y sus consecuencias. Este voltaje se eleva mediante transfor-
madores elevadores a tensiones que oscilan entre 138.000 y 765.000 voltios para su transporte por las
líneas de transmisión primaria.
La energía eléctrica que recibe una población procedente de una central eléctrica, se entrega a
una estación terminal situada en las proximidades de la misma. En estas estaciones se colocan los
equipos de protección y de conmutación adecuados y tiene lugar una primera reducción de la tensión.
El voltaje se transforma en tensiones entre 69.000 y 138.000 voltios para que sea posible transferir la
electricidad al sistema de distribución.
Puesto que no resulta económico alimentar desde estas estaciones a todas las cargas individua-
les, la población se divide en áreas en las que se sitúan subestaciones de distribución. Estas subesta-

160 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

ciones se alimentan de la estación terminal mediante líneas de subtransporte o líneas de repartición y


consta de un grupo de transformadores que reducen de nuevo la tensión hasta la elegida para el siste-
ma de distribución principal, que oscila entre los 3000 y los 30000 voltios.
Para su suministro a los consumidores se baja más la tensión en subestaciones situadas dentro de
los núcleos de población. En estas subestaciones hay uno o más transformadores, conectados a la red
de distribución principal, que reducen la tensión hasta la requerida por el consumidor: normalmente
la industria suele trabajar a tensiones entre 380 y 415 voltios, y las viviendas reciben entre 220 y 240
voltios en algunos países y entre 110 y 125 en otros. La energía eléctrica se distribuye así al usuario fi-
nal mediante una red de transporte de baja tensión.
La distribución de energía eléctrica de alta tensión se realiza mediante cables de cobre, aluminio o
acero recubierto de aluminio o cobre. En las líneas de distribución a tensiones de hasta 66000 V los ca-
bles se suspenden en postes de madera con aisladores de espiga, colocándose los conductores en una ra-
nura realizada en la parte superior del aislador. Para tensiones más elevadas, los aisladores de espiga
deberían ser demasiado grandes y costosos, por lo que se emplea la suspensión mediante aisladores col-
gantes. Cada conductor queda suspendido de la parte inferior de un grupo de aisladores. A tensiones
muy elevadas es necesario que la separación entre cables sea lo suficientemente grande, a veces de más
de 7 metros, por lo que por encima de los 110.000 voltios se suelen utilizar altas torres de acero para sus-
pender los aisladores. Esto, unido a la utilización de cables de acero recubierto permite que la distancia
entre las torres de suspensión pueda ser mayor, lo que supone una reducción del coste del tendido de las
líneas de transmisión. En la actualidad es posible construir líneas de transporte con menos de cuatro to-
rres por kilómetro. Como protección contra los rayos se suele tender uno o dos hilos de acero paralelo a
los conductores de la línea y a todo lo largo de ella. Estos hilos de guarda se colocan varios centímetros
por encima de los conductores y se conectan a tierra en cada torre del tendido.
En las ciudades y otras áreas donde los cables aéreos pueden resultar peligrosos se utilizan ca-
bles aislados subterráneos. Algunos cables tienen el centro hueco para que circule aceite a baja pre-
sión. El aceite proporciona una protección temporal contra el agua, que podría producir fugas en el
cable. Se utilizan con frecuencia tubos rellenos con muchos cables y aceite a alta presión (unas 15 at-
mósferas) para la transmisión de tensiones de hasta 345 kV.
Un problema que plantea la explotación de las redes eléctricas es que la energía eléctrica no pue-
de almacenarse. Por consiguiente, es necesario adaptar en cada momento la producción al consumo,
mediante la puesta en servicio o desconexión de determinadas centrales, pero siempre garantizando
la distribución a los usuarios. Por tanto es necesario disponer de una previsión lo más fiable posible
de las necesidades futuras. Previsión que debe contemplar no sólo las necesidades globales futuras a
medio y largo plazo, sino también que la potencia solicitada por los consumidores cambia dependien-
do de la hora del día y de la época del año. Por otro lado, la planificación debe contemplar el hecho de
que en muchas regiones del mundo las instalaciones regionales o nacionales están conectadas con las
de los países vecinos formando una red eléctrica internacional.

3.4. Protección de la red eléctrica


De nada serviría tener una red eléctrica con unos buenos generadores y transformadores y
unas líneas de transporte cuidadosamente calculadas y diseñadas si no se disponen de los medios
apropiados para manejarlos de acuerdo con las necesidades del servicio y para protegerlos de con-
diciones adversas producidas por averías y otro tipo de anormalidades e imprevistos. Con el objeti-
vo de proteger todos los elementos de la instalación contra cortocircuitos y sobrecargas, así como
para realizar las operaciones de conmutación ordinarias se utilizan interruptores. Los interruptores
son conmutadores que se activan de modo automático cuando ocurre un cortocircuito o cuando por
cualquier circunstancia anómala se produce una subida repentina de la corriente. Cuando se dispara
un interruptor se forma un arco eléctrico permanente entre sus terminales. Este arco se ha de evitar

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 161


Volumen II. Física II

o eliminar lo más rápidamente posible con el fin de evitar la destrucción de los terminales del interrup-
tor, que de otra manera acabarían por fundirse. Los interruptores más comúnmente utilizados son:
1. Interruptores de aire con apagachispas magnético.
2. Interruptores de aceite.
3. Interruptores de presión de aire.

Los interruptores de aire con apagachispas magnético son útiles para tensiones de continua de
hasta 3 kV o de alterna hasta 34,5 kV. Este tipo de interruptores se basa en el hecho de que una co-
rriente eléctrica situada en el seno de un campo magnético experimenta una fuerza magnética. En
consecuencia, si colocamos los terminales del interruptor en el seno de un campo magnético intenso,
sobre el arco eléctrico que aparece entre ellos al separarse se ejercerá una fuerza magnética que tende-
rá a romper dicho arco. En la práctica, el campo magnético se crea conectando una bobina en serie
con los terminales del interruptor, de manera que la corriente que la atraviese sea la misma una vez in-
terrumpida. Así, se obtiene un campo magnético intenso al interrumpir las corrientes elevadas que se
producen cuando tiene lugar un cortocircuito. A la bobina se le denomina bobina apagachispas.
Los interruptores de aceite tienen sus contactos sumergi-
Hilo de la Hilo de la dos en aceite que contribuye a extinguir el arco que se forma al
línea línea separar los contactos. Estos interruptores consisten en un depó-
(entrada) (salida)
Vástago sito de hierro revestido de aislante y lleno de aceite. La cubierta
del depósito lleva dos orificios por fase en los que se ajustan los
Aisladores
aisladores de paso, uno para la entrada y otro para la salida, de
cada conductor. Otro orificio provisto de una válvula permite la
expulsión de los gases producidos al formarse el arco. Los con-
ductores hacen contacto en el interior del depósito mediante un
vástago móvil (figura 13). Cuando la tensión es elevada se dis-
Aceite pone de un depósito para cada una de las fases. El interruptor se
mantiene cerrado contra la acción de un muelle, el cual queda li-
berado mediante un circuito de disparo adecuado. Este tipo de
Figura 13. Interruptor de aceite. interruptores es útil para tensiones de hasta 14,5 kV.
Por último, los interruptores de presión de aire se valen de
una violenta presión de aire comprimido para extinguir el arco. En la figura 14 se muestra el esquema
de funcionamiento de este tipo de interruptor. Al abrirse el interruptor se produce una potente co-
rriente de aire en la cámara de extinción. El contacto móvil en forma de tubo se desplaza hacia la iz-
quierda venciendo la oposición de un resorte y el arco es empujado a través del contacto hueco. El
intervalo de tiempo en que se aplica la presión es sólo de una fracción de segundo, y transcurrido este
tiempo el resorte cierra de nuevo los contactos. Durante ese tiempo en que los contactos están abier-
tos, un mecanismo de presión coordinado abre el interruptor exterior S de manera que al cerrarse de
nuevo el interruptor no se restablece el circuito.
Aislador

Contacto móvil
I
Arco Contacto fijo
S
I

Aire a presión

Figura 14. Interruptor de presión de aire.

162 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

A nivel de usuario también se utilizan diversos tipos de interruptores. Por una parte, en los domi-
cilios, fábricas, etc., se utilizan pequeños interruptores de circuitos diferenciales. Por otra parte, los
electrodomésticos llevan incorporados unos interruptores, denominados fusibles, que consisten en
un hilo de una aleación con un punto de fusión bajo. Si la corriente aumenta por encima de un valor
predeterminado el fusible se funde, abriendo de esta manera el circuito.

4. INFLUENCIA DE LA ELECTRICIDAD EN EL CAMBIO DE LAS


CONDICIONES DE VIDA
Sin duda alguna, el desarrollo de la electricidad como fuente de energía y su uso generalizado ha
sido uno de los avances científicos y tecnológicos más notables del siglo XX.
La búsqueda de nuevas fuentes de energía y de dispositivos que permitieran su transformación en
otras formas más fácilmente utilizables tiene su origen en el aumento de las necesidades energéticas de
la sociedad derivadas del gran desarrollo experimentado por éstas a partir de la revolución industrial.
Los primeros trabajos en este campo se deben a un grupo de científicos entre los que cabe desta-
car Benjamin Franklin, Alessandro Volta y, sobre todo, Michael Faraday, quien mostró la íntima
unión entre los los fenómenos eléctricos y magnéticos. Los trabajos experimentales de Faraday fue-
ron el punto de partida para la obtención de corriente eléctrica a partir de trabajo mecánico y de su
aplicación inversa, la utilización de energía eléctrica para realizar un trabajo mecánico.
La primera utilidad de la energía eléctrica fueron las lámparas de arco voltaico, en las cuales se
emite una luz brillante por la chispa producida entre dos electrodos. Pero estas lámparas eran dema-
siado potentes para su uso doméstico y por tanto sólo eran utilizadas en instalaciones grandes como
faros o estaciones de trenes. La aceptación de la luz eléctrica debió esperar hasta principios del si-
glo XX cuando se desarrolló comercialmente la lámpara de filamento incandescente. El principio de
esta lámpara se basaba en el hecho de que un hilo conductor suficientemente fino podía ponerse in-
candescente al paso de una corriente eléctrica, pero debía estar encerrado en un recipiente al vacío,
para así evitar que se quemara. Este tipo de lámpara fue inventada en 1840, pero su utilización se vio
retrasada por la imposibilidad de construir tubos de vacío adecuados y por la falta de filamentos resis-
tentes que no se fundieran al paso de la corriente eléctrica. Estos problemas fueron solventados por la
aparición de la bomba de mercurio (inventada en 1865) que permitía obtener un vacío satisfactorio, y
por el desarrollo de filamentos de carbón por parte de Thomas Alva Edison y Joseph Wilson Swan a
finales de la década de 1870. Esto permitió la construcción de pequeñas lámparas y que la luz eléctri-
ca pudiera rivalizar con la luz de gas en el uso doméstico. La aparición de la lámpara incandescente
supuso un primer e importante impulso para el uso y demanda de energía eléctrica.
La electricidad obtuvo un nuevo impulso con el desarrollo del motor eléctrico. Desde el descu-
brimiento de la ley de inducción por Faraday, se había avanzado considerablemente en el desarrollo
de los generadores de corriente y en los motores eléctricos, pero en un principio los modelos no eran
lo suficientemente buenos para su utilización industrial debido a los problemas de ruptura en los cir-
cuitos. En el año 1870 Zénobe Théophile Gramme construyó el primer generador práctico de corrien-
te continua, lo cual hacía factible la generación a gran escala de energía eléctrica. Esto, junto con la
demostración de la reversibilidad de las máquinas de corriente continua realizada por M. Deprez, dio
lugar a que se comenzaran a fabricar en serie máquinas de corriente continua y a su utilización en la
industria y en el transporte. Pero este tipo de energía eléctrica tenía el inconveniente de su dificultad
para transportarla a media y larga distancia, por lo que las centrales de producción se situaban cerca
de los centros de consumo, por lo general, las grandes ciudades (la primera central pública que utilizó
un generador de corriente continua comenzó a funcionar en Londres en 1882.) Estas restricciones ex-
plican que la expansión del uso de la energía eléctrica fuese limitada.
El empuje definitivo a la expansión del uso de la energía eléctrica vino motivado por los descubri-
mientos del transformador (Gaulard y Gibbs, 1884) y de la utilización de sistemas polifásicos (Ferraris

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 163


Volumen II. Física II

y Tesla, 1885) para producir un campo magnético giratorio. Los transformadores permitían modificar
las tensiones producidas y elevarlas a altas tensiones. Por otra parte, los sistemas polifásicos abrieron el
camino de la construcción de motores de corriente alterna. Estos descubrimientos fueron de gran im-
portancia en una época en la que se debatía sobre la conveniencia de utilizar la corriente continua o la
corriente alterna. Las mejores condiciones para el transporte de la corriente alterna a altas tensiones hi-
cieron que la balanza se inclinara en favor del uso de ésta en detrimento de la corriente continua. Así en
los primeros años de la década de 1890 se construyó el primer generador práctico de corriente alterna en
la central de Lauffen (Alemania). Este fue el comienzo de un proceso de construcción de centrales eléc-
tricas y una mayor extensión del uso de la energía eléctrica.
Las modificaciones que la utilización del motor eléctrico introdujo en los procesos industriales
de producción fueron extraordinarias. Los complicados sistemas derivados de la utilización de la má-
quina de vapor fueron sustituidos por instalaciones más simples y seguras en las que cada máquina
podía accionarse con un motor individual, lo que se tradujo en un cambio en las formas de trabajo y en
un aumento de la productividad. Pero el desarrollo de la electricidad no sólo motivó cambios en el sis-
tema productivo, también cambió el estilo de vida de la sociedad, aparecieron nuevas formas de
transporte como el tranvía eléctrico, las ciudades adquirieron un nuevo diseño, surgieron otras for-
mas de comunicación, etc. Todo este conjunto de cambios sociales, industriales y económicos fueron
tan profundos que al período comprendido entre el último tercio del siglo XIX y el final de la segunda
guerra mundial se le ha denominado segunda revolución industrial.
Durante estos años se avanzó en el perfeccionamiento de los motores eléctricos, consiguiendo
mejores rendimientos y haciéndolos cada vez más baratos. Hoy en día los motores eléctricos han sus-
tituido a otros tipos de motores tanto en la industria como en el comercio, en los transportes y en las
tareas del hogar. Su versatilidad permite utilizarlos como aceleradores, frenos y otras múltiples apli-
caciones. Por otra parte, en la actualidad se cuenta con una gran variedad de motores en cuanto a ta-
maño y a potencia de salida que puede ser desde una fracción de vatio a cientos de caballos de vapor.
La reducción de su tamaño permitió incorporarlos a pequeños aparatos para uso en el hogar. Esto dio
lugar a la aparición de los electrodomésticos, cuya fabricación a gran escala tan drásticamente ha
transformado las formas de vida durante este siglo.
Una de las transformaciones de más importantes consecuencias de la electricidad se produjo en
el mundo de las comunicaciones. Precisamente, una de las primeras aplicaciones prácticas de la elec-
tricidad fue el telégrafo, inventado por Samuel F.B. Morse en 1837. En los años siguientes la mayoría
de las ciudades del mundo se encontraban unidas por cables telegráficos transoceánicos. Al telégrafo
eléctrico le siguió el invento del teléfono por Alexander Graham Bell en 1876, sistema de comunica-
ción oral que rápidamente fue implantándose en las ciudades americanas primero, y luego en las eu-
ropeas. En 1895 el italiano Guglielmo Marconi realizó las primeras transmisiones de telegrafía sin
hilos y en 1902 Valdemar Poulsen y Reginald Aubrey Fessenden inventaron el radioteléfono.
Hoy en día, la energía eléctrica, por sus características de gran versatilidad, limpieza, y fácil
transporte, desempeña un papel fundamental en las sociedades desarrolladas. De hecho, el consumo
de energía eléctrica es un parámetro que se utiliza frecuentemente para determinar el progreso econó-
mico de los diferentes países. Por ello, la disponibilidad de energía eléctrica es una cuestión primor-
dial para los gobiernos de los distintos países, que analizan las perspectivas de consumo a corto y
medio plazo y planifican la producción. En esta planificación cada vez tienen más importancia las de-
nominadas energías renovables o poco contaminantes, fomentando el uso de fuentes alternativas
como la eólica, la solar o la biomasa. Pero no basta sólo con un aumento de la producción de energía,
la limitación de algunos recursos naturales hace necesario que cada vez más se desarrollen actuacio-
nes que fomenten el ahorro y el uso más eficiente de la energía.

164 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Generación de corrientes alternas

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Arana, J.: Electrotecnia industrial. Ediciones Urmo. Bilbao, 1973.
Bobrow, L. S.: Fundamentals of Electrical Engineering. Holt, Rinehart and
Winston, Inc. New York, 1985.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall. Upper Saddle River, New Jersey, 1996.
Fouillé, A.: Electrotecnia para ingenieros. Aguilar. Madrid, 1965.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall. México, 1988.
Gray, A. Y Wallace, G. A.: Electrotecnia. Aguilar. Madrid, 1977.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Holton, G. y Brush, S. G.: Introducción a los conceptos y teorías de las ciencias
físicas. Editorial Reverté, S.A. Barcelona, 1989.
Lorrain, P. y Corson, D. R.: Campos y ondas electromagnéticos. Selecciones
Científicas. Madrid, 1972.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté. Barcelona,
1986.
Purcell, E. M.: Electricidad y magnetismo. Editorial Reverté. Barcelona, 1980.
Tipler, P. A.: Física. Editorial Reverté. Barcelona, 1992.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 165


TEMA

24
Elementos de importancia
en los circuitos eléctricos:
resistencias, bobinas y
condensadores. Su papel
en los circuitos de corriente
continua y alterna. Energía
almacenada o transformada

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. ELEMENTOS EN LOS CIRCUITOS ELÉCTRICOS


1.1. Resistencia
1.1.1. Resistividad y conductividad
1.1.2. Resistencia como elemento de circuito
1.1.3. Asociación de resistencias
1.2. Condensadores
1.2.1. Asociación de condensadores
1.2.2. Energía almacenada en un condensador
1.3. Bobinas
1.3.1. Energía almacenada en una bobina

2. COMPORTAMIENTO DE LOS ELEMENTOS EN LOS CIRCUITOS


ELÉCTRICOS
2.1. Comportamiento transitorio
2.1.1. Circuitos RC
2.1.2. Circuito RL
2.2. Circuitos oscilantes
2.2.1. Circuito oscilador CL
2.2.2. Circuito oscilador RCL
2.3. Comportamiento en corriente alterna
2.3.1. Corriente alterna en una resistencia
2.3.2. Corriente alterna en condensadores
2.3.3. Corriente alterna en una bobina
2.3.4. Circuito RLC

3. ENERGÍA ALMACENADA O TRANSFORMADA EN CIRCUITOS


ELÉCTRICOS

BIBLIOGRAFÍA

168 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

1. ELEMENTOS EN LOS CIRCUITOS ELÉCTRICOS


Un circuito eléctrico se compone de un conjunto de elementos conectados mediante hilos con-
ductores, cuya disposición depende de la finalidad con la que es diseñado.
Entre los elementos de un circuito eléctrico podemos distinguir dos tipos: los elementos activos
y los elementos pasivos. Los elementos activos son los que suministran la energía al circuito; son, por
tanto, las fuentes de potencia, es decir, las fuentes de tensión y las fuentes de corriente. Los elementos
pasivos son los que almacenan o disipan la energía suministrada por los elementos activos. Se tratan
de las resistencias, los condensadores y las bobinas. También son elementos pasivos los transforma-
dores, que son los elementos que transfieren la energía eléctrica desde el primario al secundario trans-
formando a la salida los valores de la tensión y la corriente de entrada.
Cada uno de los elementos pasivos está caracterizado por una relación entre la tensión entre sus
terminales y la corriente que pasa por él. En esta sección vamos a estudiar estas relaciones.

1.1. Resistencia
Al aplicarle una diferencia de potencial V entre los extremos de un trozo de material conductor,
como puede ser un alambre metálico, se produce una corriente eléctrica I. La cantidad de corriente
que circula por el conductor, para una diferencia de potencial dada, depende de las propiedades del
material y de su geometría.
Se define la resistencia eléctrica, R, de un material como la relación entre la diferencia de poten-
cial aplicado y la corriente que circula por él:

V
R= (1)
I
La resistencia eléctrica es una medida de la oposición que ejerce un trozo de material al flujo de
carga a través de él. En los materiales con mayor resistencia, una misma diferencia de potencial pro-
duce un flujo de cargas menor que en los materiales de menor resistencia. La unidad de resistencia en
el sistema internacional es el ohmio (W) que es igual a la resistencia de un material por la que circula
una corriente de un amperio (A) cuando la diferencia de potencial es un voltio (V):
V
1W = 1 (2)
A
El nombre de ohmio se ha dado a la unidad de resistencia en honor de George Simon Ohm
(1787-1854), que fue el primero en estudiar sistemáticamente la relación entre la diferencia de poten-
cial aplicada a un conductor y la corriente que fluye por él. En 1826 publicó los resultados de sus in-
vestigaciones experimentales que establecían que para una gran variedad de materiales, entre los que
se incluían la mayoría de los metales, la resistencia era constante en un gran rango de diferencias de
potencial. Esta afirmación constituye la ley de Ohm, y que tradicionalmente se escribe como:

V = RI (3)
en donde R es independiente de la diferencia de potencial V.
La ley de Ohm no corresponde a un hecho fundamental de la naturaleza, sino que corresponde a
una expresión empírica que describe adecuadamente el comportamiento de muchos materiales en un
determinado rango de diferencias de potencial. Por consiguiente, el término ley probablemente no
sea demasiado correcto, en el sentido de que su rango de validez es, en muchos casos, muy limitado.
Los materiales cuya resistencia es constante en un amplio rango de diferencias de potencial se
denominan óhmicos, y los que no obedecen la ley de Ohm se denominan no-óhmicos.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 169


Volumen II. Física II

El recíproco de la resistencia se denomina conductancia y se representa por G:


1
G= (4)
R

La unidad de conductancia en el sistema internacional es el recíproco del ohmio, que se denomina


mho (ohm escrito al revés) y se representa como W–1, mho, o con una letra omega invertida É:
1 W = 1 mho = 1 É
–1
(5)

1.1.1. Resistividad y conductividad


La resistencia de un material depende no sólo de su composición sino también de su forma y de
su tamaño. Experimentalmente se encuentra que si aplicamos una diferencia de potencial a una mues-
tra de un determinado material y medimos la corriente que circula por él, ésta se reduce a la mitad
para una muestra exactamente igual pero de longitud doble sometida a la misma diferencia de poten-
cial. Si repitiéramos este experimento para diferentes longitudes L de la muestra, encontraríamos que
la resistencia es directamente proporcional a su longitud: R µ L. Por otro lado, si experimentamos
ahora con muestras idénticas de un mismo material que sólo difieren en su sección, encontraríamos
que la resistencia es inversamente proporcional a la sección del material conductor: R µ 1/A.
Además de las variaciones con el tamaño, la resistencia de un material depende de la sustancia
que lo compone. Esta dependencia se representa con un coeficiente de proporcionalidad que denomi-
namos resistividad del material, r, que es independiente de su forma, y que sólo depende de su com-
posición. De todo esto se tiene que la resistencia de un determinado material puede expresarse como:
L
R= r (6)
A
Por tanto, la resistividad puede expresarse para una muestra de material de sección homogénea A y de
longitud L como:
A
r= R (7)
L
Así pues, la resistividad tiene dimensiones de resistencia por longitud, y su unidad en el sistema inter-
nacional será el ohmio por metro (W · m).
La resistividad de un material es una función de la temperatura, y en muchos conductores metálicos
varía casi linealmente con la temperatura. En un intervalo amplio de temperaturas podemos escribir:
r = r0 [1 + a(T – T0)] (8)
en donde r es la resistividad a la temperatura T, r0 es la resistividad a una temperatura de referencia
(normalmente 20 ºC), y a se denomina coeficiente térmico de la resistividad. A bajas temperaturas,
por debajo de 20 K, la dependencia de la resistividad de los metales con la temperatura se aparta de la
linealidad. En este rango de temperaturas, la resistencia de una metal depende fuertemente de las can-
tidades de impureza que contenga. De ahí que la medida de la resistividad a bajas temperaturas sea un
método para determinar el grado de impureza de los metales.
El recíproco de la resistividad se denomina conductividad y la representamos por s (no confun-
dir con la densidad superficial de carga):
1
s= (9)
r

170 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

De la expresión de la resistividad en función de la resistencia (7), obtenemos que la conductividad puede


escribirse como:
L
s= (10)
AR
La unidad de conductividad es el recíproco del ohmio por metro y se representa como (W · m)–1, o
bien como mho · m–1, o como Ém–1.

1.1.2. Resistencia como elemento de circuito


Con el nombre de resistencia también se conoce a un elemento que comúnmente forma parte
de un circuito eléctrico. Consiste en una pieza de un material óhmico que tenga una resistencia
eléctrica significativa. En los circuitos se suele representa mediante una línea en zigzag. Las re-
sistencias que se utilizan normalmente en circuitos son unos pequeños cilindros compuestos de
grafito y arcilla cocidos con dos terminales metálicos en sus extremos. Las resistencias se unen
mediante buenos conductores al resto de elementos del circuito. El valor de una resistencia se in-
dica mediante un código de bandas de colores, en donde cada color corresponde a un dígito o a
una potencia de 10, dependiendo de su posición. Las dos primeras bandas corresponden a los dos
primeros dígitos de un número entero y la tercera a la potencia de 10 por la que hay que multipli-
car ese entero para obtener el valor de la resistencia (figura 1). Una cuarta banda indica el límite
superior de la desviación estándar porcentual (denominado tolerancia) del proceso de fabrica-
ción. En la tabla 1 se dan estos códigos de colores.

a)
Figura 1. (a) Símbolo utilizado en los
circuitos eléctricos para representar a las
resistencias. (b) Códigos de colores de una
resistencia: las dos primeras bandas indican
los dos primeros dígitos de un número entero,
la tercera banda la potencia de diez por la
que hay que multiplicar ese número entero, y
la cuarta la tolerancia. b)

Color Dígito Tolerencia


Negro 0
Marrón 1
Rojo 2
Naranja 3
Amarillo 4
Verde 5
Azul 6
Violeta 7
Gris 8
Blanco 9
Oro 5%
Plata 10%
Ninguno 20%

Tabla 1. Código normalizado de colores para las resistencias.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 171


Volumen II. Física II

1.1.3. Asociación de resistencias


Por regla general, los circuitos eléctricos contienen combinaciones de resistencias. Con frecuen-
cia resulta útil sustituir una combinación de resistencias por una equivalente definida como aquélla
cuyo valor es tal que produce el mismo efecto externo que la combinación de resistencias. Es decir,
que su valor es tal que la corriente que pasa por ella es la misma que la que pasa por la combinación de
resistencias cuando se le aplica entre sus extremos la misma diferencia de potencial que a ésta. Por
tanto, la resistencia equivalente R0 de una combinación la calcularemos dividiendo la diferencia de
potencial V aplicada a la combinación por la corriente I que pasa por ella.
– Resistencias en serie: supongamos una asociación de resistencias, como la mostrada en la
figura 2, en la que se tienen N resistencias Ri conectadas en serie. A través de todas las resis-
tencias circula la misma corriente I, de modo que la diferencia de potencial en la resistencia
Ri debe ser igual a:
Vi = IRi (11)
I
R1 R2 R3 R4 RN

V1 V2 V3 VN Figura 2. Conexión de
resistencias en serie.

En consecuencia, la diferencia de potencial en los extremos de la combinación de resisten-


cias será:
N N

V = åVi = I å R i = IR 0 (12)
i= 1 i= 1

Por tanto, la resistencia equivalente R0 = V/I será igual a:


N

R0 = å Ri (13)
i= 1

– Resistencias en paralelo: supongamos una combinación de N resistencias Ri en paralelo


como se muestra en la figura 3. Por cada una de ellas circulará una corriente Ii, que según la
ley de Ohm vendrá dada por:
V
Ii = (14)
Ri
V
R1
I1
R2
I2
R3
I I3 I
R4

IN
RN Figura 3. Conexión de
resistencias en paralelo.

172 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

La corriente que entra por un extremo de la combinación de resistencias ha de ser igual a la


suma de las que circulan por cada resistencia. Por consiguiente, se ha de cumplir que en ré-
gimen estacionario:
N

I = åIi (15)
i= 1

Sustituyendo en esta expresión el valor de la corriente Ii dado por (24.14) se tiene que:
N
1 V
I =V å = (16)
i= 1
Ri R0
Por tanto, la resistencia equivalente R0 = V/I será igual a:
N
1 1
=å (17)
R 0 i= 1 R i

1.2. Condensadores
Un condensador es un dispositivo, ampliamente utilizado en los circuitos eléctricos y electróni-
cos, que sirve para almacenar carga y energía eléctrica.
Un condensador está formado por dos conductores situa-
dos a una distancia corta entre ellos y aislados entre sí. Uno de
los más típicos es el condensador de placas paralelas, constitui- +Q
do por dos placas metálicas paralelas separadas una corta dis- + -
tancia. En la práctica, el condensador se construye con dos lá- -Q
minas metálicas delgadas separadas por una hoja de papel u
otro aislador y se enrollan en forma cilíndrica para ahorrar es-
pacio. Si conectamos las placas de un condensador a una bate-
ría (figura 4) se produce una transferencia de carga desde una Figura 4. Condensador de placas
de las placas a la otra. Esta transferencia de carga entre las dos paralelas conectado a una batería.
placas se mantiene hasta que se alcanza el equilibrio cuando la
diferencia de potencial entre las placas del condensador se
hace igual a la diferencia de potencial entre los terminales de la batería. En el equilibrio, la placa co-
nectada al terminal positivo de la batería habrá adquirido una carga positiva Q y la otra placa, conec-
tada al terminal negativo de la batería, una cantidad igual de carga negativa –Q.
Para un condensador determinado, se encuentra que la cantidad de carga Q que adquiere cada
una de sus placas es proporcional a la diferencia de potencial V aplicada a las placas Q = CV. La cons-
tante de proporcionalidad C se denomina capacidad del condensador, y depende de las características
geométricas del mismo.
Q
C= (18)
V
La capacidad de un condensador es una medida de las posibilidades que tiene el condensador
para almacenar carga. Cuanto mayor es la capacidad del condensador, mayor es la carga que puede
almacenar en sus placas. En el SI, la unidad de la capacidad de un condensador es el culombio por
voltio y se denomina faradio (F) en honor a Michael Faraday:
C
1F = 1
V

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 173


Volumen II. Física II

El faradio es una unidad de capacidad bastante grande, por lo que normalmente se utilizan los sub-
múltiplos de esta unidad como el picofaradio (1pF = 10–12 F) o el microfaradio (1 mF = 10–6 F).
La expresión (18) puede escribirse de otra manera en función de la corriente. Sabemos que la co-
rriente instantánea es igual a la variación de la carga por unidad de tiempo I = dq/dt; por tanto, la carga
almacenada en un instante de tiempo t en que la diferencia de potencial entre las placas es V, podrá es-
cribirse como:
Q = ò I dt (19)

Sustituyendo esta expresión en (18), obtenemos una expresión que nos relaciona la diferencia de po-
tencial entre las placas del condensador con la corriente de carga del mismo:

1
V=
C
ò I dt (20)

La capacidad C de un condensador depende del tamaño de sus conductores, de su forma, de la


posición relativa entre ellos y del material que los separa. Para un condensador específico, su capaci-
dad se puede determinar a partir de la expresión (18) midiendo experimentalmente la carga almace-
nada en uno de sus conductores para una determinada diferencia de potencial entre ellas. No obstante,
si la geometría del condensador es sencilla, podemos determinar su capacidad de forma analítica. A
continuación vamos a encontrar la expresión de la capacidad de dos condensadores que tienen una
geometría simple: el condensador de placas paralelas y el condensador cilíndrico.

– Condensador de placas paralelas: supongamos un condensador formado por dos placas


conductoras iguales paralelas de superficie S y separadas una distancia d (figura 5). Si la
distancia entre las placas es pequeña comparada con las dimensiones de la placa, la densi-
dad de carga superficial y el campo eléctrico entre las placas son prácticamente uniformes.
El campo en un punto cualquiera situado entre las placas es la suma del campo creado por
un conductor plano con densidad de carga s = Q/S y del campo creado por otro conductor
plano de densidad de carga –s. El campo creado por la placa positiva es E+ = s/2e0 y apunta
hacia afuera de la placa. El campo creado por la placa negativa es E– = s/2e0 y apunta hacia
dentro de la placa. Por tanto, en el espacio entre las placas, el campo eléctrico es:
s s s
E = E+ + E – = + = (21)
2e 0 2e 0 e 0

+Q –Q

Figura 5. Campo eléctrico


entre las placas de un
condensador.

Sustituyendo en esta expresión la densidad superficial de carga s por su valor, tenemos que:
Q
E= (22)
e0S

174 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

La diferencia de potencial entre las placas del condensador vendrá dada por:
+ r r
V = V+ – V– = – ò– E ×d l (23)

en donde la integral se extiende desde la placa negativa a la placa positiva. Si hacemos coinci-
dir la dirección que va desde la placa positiva a la negativa con el eje x y denominamos x+ a la
posición de la placa positiva y x– a la posición de la placa negativa, tendremos que:
x r r
òx – E ×d l = òx – Edx = E ( x– – x+ )= Ed
x
(24)
+ +

Por tanto, se tiene que:


+ r r – r r
V = V+ – V– = – ò– E ×d l = ò+ E ×d l = Ed (25)

Sustituyendo en esta expresión el valor del campo eléctrico dado por (22) se obtiene que la
diferencia de potencial entre las placas del condensador es:
Qd
V= (26)
e0S

Llevando esta expresión a la definición de la capacidad dada por (18), obtenemos que la ca-
pacidad de un condensador de placas paralelas viene dada por:

Q e0S
C= = (27)
V d

La capacidad de un condensador de placas paralelas es proporcional a la superficie de las


placas e inversamente proporcional a la distancia entre ellas. Por otra parte, vemos que en
la expresión de la capacidad aparece la permitividad del vacío e0, lo que indica que la capa-
cidad de un condensador depende del material que se coloque entre sus placas. La expre-
sión anterior también es válida para los condensadores planos enrollados en espiral, pero
habrá que tener en cuenta que el medio entre las placas no es aire y, por tanto, en la expre-
sión anterior se deberá sustituir el valor de la permitividad del vacío por la correspondiente
al material dieléctrico utilizado como aislante.

– Condensador cilíndrico: un condensador cilíndrico está formado por un conductor de ra-


dio Ra situado en el interior de una corteza cilíndrica concéntrica de radio Rb. Un ejemplo
de este tipo de condensador es el cable coaxial utilizado en las conexiones de televisión.
Supongamos un condensador como el descrito anteriormente, de longitud L y que tiene una
carga Q en el conductor interior y una carga –Q en el conductor exterior. El campo eléctrico
creado por un conductor cilíndrico alargado de carga Q en un punto exterior a una distancia
r del centro del conductor, viene dado por:
1 l Q
E= = (28)
2pe 0 r 2pe 0 Lr

en donde l = Q/L es la densidad lineal de carga. Por otra parte, el campo eléctrico creado
por la carga –Q del conductor exterior, en los puntos del interior de la corteza cilíndrica, es
cero. Por tanto, la diferencia de potencial entre los conductores vendrá dada por:
+ r r – r r
V = V+ – V– = – ò– E ×d l = ò+ E ×d l (29)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 175


Volumen II. Física II

Puesto que el campo eléctrico es radial y dirigido desde el conductor interior al conductor
exterior, tendremos que:
– r r
ò+ E ×d l = òR b Edr
R
(30)
a

Sustituyendo en esta expresión el valor del campo eléctrico dado por (28), tendremos que la
diferencia de potencial entre las placas del condensador es:
Q R dr Q R
òR ab Edr = 2pe L òR ab r = 2pe L ln R b
R
(31)
0 0 a

Por lo tanto, la diferencia de potencial entre los conductores del condensador será:
+ r r – r r Q R
V = V+ – V– = – ò– E ×d l = ò+ Ed l = ln b (32)
2pe 0 L R a
Llevando esta expresión a la definición de la capacidad dada por (18), obtenemos que la ca-
pacidad de un condensador cilíndrico viene dada por:

Q 2pe 0 L
C= = (33)
V ln( R b / R a )

La capacidad de un condensador cilíndrico es proporcional a la longitud de los conductores.

1.2.1. Asociación de condensadores


En un circuito, los condensadores pueden aparecer conectados entre sí de diferentes formas. Las
formas básicas de conexión son la conexión en serie y en paralelo.
– Conexión de condensadores en serie: supongamos dos condensadores conectados en serie,
como se muestra en la figura 6 (en circuitos, un condensador se representa por el símbolo ´Ã).
Si conectamos los extremos a y b a los terminales de una batería, fluirá una carga Q a la placa
izquierda del condensador C1 y una carga negativa igual a la placa derecha del condensador C2.
Si los condensadores se encontraban inicialmen-
te descargados, la carga neta del conductor cen- C1 C2
tral de la figura deberá ser cero. La carga Q del
condensador C1 inducirá una carga negativa a b
igual en la placa derecha, y como la carga neta +Q -Q +Q -Q
del conductor central es cero, se inducirá una
carga igual y positiva en la placa izquierda del V1 V2
condensador C2. La diferencia de potencial entre
las placas del condensador C1 será:
Figura 6. Conexión de condensadores
Q en serie.
V1 = (34)
C1
Y la diferencia de tensión entre las placas del segundo condensador, será:
Q
V2 = (35)
C2
Por otra parte, la diferencia de tensión V entre los puntos a y b será:
Q Q æ 1 1ö
V = V1 +V2 = + = Qç ç + ÷
÷ (36)
C1 C2 èC 1 C 2 ø

176 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

La capacidad C de un condensador equivalente a los dos condensadores que almacene la


misma carga Q para esa diferencia de potencial V será C = Q/V, que teniendo en cuenta la
expresión anterior resulta ser:
1 1 1
= + (37)
C C1 C2
El resultado anterior puede generalizarse para N condensadores conectados en serie. El
condensador equivalente tiene una capacidad dada por:
N
1 1 1 1 1
= + + +...= å (38)
C C1 C2 C3 i= 1
Ci

– Conexión de condensadores en paralelo: supongamos ahora dos condensadores conecta-


dos en paralelo como muestra la figura 7. La diferencia de potencial V en las placas de los
dos condensadores es la misma. Si llamamos C1 y C2 a las capacidades de ambos condensa-
dores, la carga almacenada en cada uno de ellos será:
Q1 = C1V Q2 = C2V (39)

+Q1 +Q2
Figura 7. Conexión de V C1 C2
condensadores en -Q1 -Q2
paralelo.

Por consiguiente, la carga total almacenada por ambos condensadores será:


Q = Q1 + Q2 = C1V + C2V = (C1 + C2)V (40)
La capacidad equivalente de un sólo condensador que almacene la misma carga Q para una
determinada diferencia de potencial V será:
Q
C = = C 1 +C 2 (41)
V
Este resultado se puede generalizar para N condensadores conectados en paralelo. La capa-
cidad del condensador equivalente de N condensadores de capacidades Ci conectados en
paralelo es:
N

C = C 1 +C 2 +C 3 +...= åC i (42)
i= 1

1.2.2. Energía almacenada en un condensador


En el proceso de carga de un condensador conectado a los terminales de una batería, ésta realiza
un trabajo para transferir cierta cantidad de carga positiva desde el conductor cargado negativamente
al conductor cargado positivamente. Puesto que este conductor se encuentra a mayor potencial que el
conductor negativo, el trabajo realizado por la batería aumenta la energía potencial de la carga trans-
ferida. Este aumento de energía potencial constituye la energía almacenada en el condensador.
El aumento de la energía potencial al transferir una carga dq entre dos puntos con una diferencia
de potencial V es:
dUE = Vdq (43)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 177


Volumen II. Física II

ya que, por definición, la diferencia de potencial es la energía potencial por unidad de carga.
Ahora bien, si hasta ese instante la carga transferida es q, la diferencia de potencial entre las lacas
del condensador será V= q/C. Por tanto, la variación de energía potencial al transferir una carga
adicional dq será:
q
dU E = dq (44)
C
La variación total de energía potencial del sistema será la suma de todas estas variaciones elementales
cuando q crece desde cero a su valor final Q. Es decir, la variación total de la energía potencial vendrá
dada por:
q 1 Q2
U E = ò0
Q
dq = (45)
C 2 C
Si tenemos en cuenta que C = Q/V, la expresión anterior la podemos escribir como:

1 Q2 1 1
UE = = QV = CV 2 (46)
2 C 2 2

En lo que hemos visto anteriormente, hemos asociado la energía del condensador con la energía
potencial de sus cargas. Ahora bien, la energía no es una sustancia determinada que tenga una locali-
zación concreta, por lo que podemos adoptar un punto de vista alternativo y asociar la energía del
condensador al campo electrostático creado entre sus placas en el proceso de carga. Es decir, pode-
mos pensar que el trabajo realizado para cargar el condensador es el trabajo necesario para crear el
campo eléctrico y que, por tanto, dicha energía reside en el campo creado entre sus placas.
Como ejemplo, calculemos la energía almacenada entre las placas de un condensador de placas
paralelas, en función del campo eléctrico. Tal como hemos visto anteriormente (27), la capacidad de
un condensador de placas paralelas viene dada por C = e0S/d. Por otra parte, la diferencia de potencial
entre las placas y el campo eléctrico entre ellas están relacionados por V = Ed. Sustituyendo estos va-
lores en la expresión de la energía dada por (46), se tiene que:
1 1 e0S 2 2 1
U E = CV 2 = E d = e 0 E 2 Sd (47)
2 2 d 2
La cantidad Sd es el volumen situado entre las placas del condensador, el cual corresponde con el vo-
lumen ocupado por el campo eléctrico, si despreciamos los efectos de borde. Por tanto, dividiendo
ambos miembros de la ecuación anterior por Sd, obtendremos una expresión para la energía por uni-
dad de volumen o densidad de energía uE:

1
uE = e 0 E 2 (48)
2

Esta expresión indica que la energía eléctrica almacenada por unidad de volumen es proporcional al
cuadrado del campo eléctrico. Aunque la ecuación (48) se ha obtenido para un caso concreto (con-
densador de placas paralelas), sugiere que podemos asociar la energía eléctrica de cualquier distribu-
ción de cargas al campo eléctrico creado por dicha distribución. Por tanto, aunque no lo
demostraremos, podemos afirmar que la expresión (48) es válida en general, y en consecuencia:
La energía eléctrica almacenada por unidad de volumen en cualquier punto del espacio
es proporcional al cuadrado del campo eléctrico.

178 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

1.3. Bobinas
Una bobina es un elemento pasivo que se caracteriza por su oposición al cambio de la co-
rriente que circula por ella. En los diagramas de circuitos se representan por un hilo arrollado en
forma espiral.
El comportamiento de una bobina se basa en el fenómeno de inducción estudiado en el tema 22.
Para analizarlo, supongamos una bobina por la que circula una corriente I variable con el tiempo. Esta
corriente genera un campo magnético variable y el cambio del flujo magnético a través de su superfi-
cie induce una fem y una corriente que se opone al cambio de flujo (ley de Lenz). A este fenómeno se
le denomina autoinducción.
Si el número de espiras de la bobina es N y el flujo del campo magnético a través de cada espira
es F, el flujo total a través de la bobina será igual a NFB. Según la ley de Biot-Savart, el campo
magnético creado por la corriente I que circula en la bobina es proporcional a dicha corriente, por lo
que el flujo a través de la bobina también será proporcional a I. Esta proporcionalidad entre el flujo
y la corriente la podemos expresar mediante el coeficiente de autoinducción L o autoinductancia,
en la forma:

N FB = LI (49)

La fem e inducida en la bobina, según la ley de inducción de Faraday, es:

dF B
e= – N (50)
dt

Sustituyendo en esta ecuación la expresión del flujo magnético FB dada por (49), se tiene que:

e = – L dI (51)
dt

Esta expresión relaciona la fem inducida en bobina con la corriente que circula por ella, y esta-
blece que la fem inducida es proporcional a la rapidez con la que varía la corriente I en la bobina. El
signo menos determina el sentido de la fem inducida, de acuerdo con la ley de Lenz. Así, un aumento
de la corriente en la bobina da lugar a un aumento del flujo a través de ella y, por tanto, da lugar a una
fem cuyo sentido se opone al aumento de la corriente.
La autoinductancia L sólo se puede calcular en algunos casos simples, por lo que, en general,
su valor se determina experimentalmente. En el caso de un solenoide alargado de longitud l, sec-
ción transversal S y con un número de vueltas por unidad de longitud n, el campo magnético B en el
interior del mismo viene dado por B = m0nI. Cada vuelta la podemos considera como una espira pla-
na de superficie S, por lo que el flujo a través de ella es FB = m0nIS. Si el solenoide tiene una longi-
tud l, el número de vueltas o espiras es N = nl. Por tanto, aplicando la expresión (49) se tiene que
nlm0nIS = LI. Despejando L de esta expresión, se tiene finalmente que la autoinducción del solenoi-
de vendrá dada por:

L = m0n lS
2
(52)

Vemos, pues, que la autoinducción del solenoide depende de su longitud y superficie, y del número
de vueltas por unidad de longitud n. Es interesante hacer notar que la expresión que acabamos de
obtener es una expresión aproximada y que sólo es exacta en el caso de un solenoide ideal infinita-
mente largo.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 179


Volumen II. Física II

1.3.1. Energía almacenada en una bobina


Hemos visto que en una bobina por la que circula una corriente I se
+ induce una diferencia de potencial entre sus terminales que viene dada
por e = –LdI/dt. De manera que si la corriente aumenta dI/dt > 0, e se opo-
dI
L dt
ne a ese aumento; y si la corriente disminuye dI/dt < 0, e se opone a esa
disminución (figura 8). Por tanto, para que circule por la bobina una co-
rriente I en contra de la fem inducida, es necesario aplicar una diferencia
de potencial externa V = LdI/dt. El trabajo que se ha de realizar para que
- una cierta cantidad de carga dq circule por la bobina es:
Figura 8. Fuerza dI
contraelectromotriz dW = Vdq = L dq (53)
dt
inducida en
una bobina. Ahora bien, de la definición de corriente eléctrica, se tiene que I = dq/dt, por
lo que la expresión anterior la podemos escribir como:
dI
dW = L Idt = LIdI (54)
dt
Si suponemos que inicialmente no circula ninguna corriente por la bobina, el trabajo que se ha de rea-
lizar pata que circule una corriente I lo obtenemos integrando la expresión anterior:
1
W = ò LIdI = LI 2 (55)
2
Esta energía que se le suministra a los portadores de carga se almacena en la bobina en forma de ener-
gía potencial. Cuando la corriente disminuye, la cantidad dI/dt es negativa, por lo que la fem inducida
en la bobina e = –LdI/dt es positiva; es decir, su sentido es tal que ayuda a mantener la corriente y por con-
siguiente realiza trabajo sobre los portadores de carga que circulan por la bobina. En otras palabras, la
energía almacenada en la bobina se cede a la carga que ve aumentada su energía potencial. Por el contra-
rio, si la corriente que circula por la bobina aumenta, la cantidad dI/dt es positiva, por lo que la fem induci-
da en la bobina e = –LdI/dt es negativa; es decir, su sentido se opone a este aumento de la corriente. Los
portadores de carga disminuyen su energía potencial, que la ceden a la bobina. Por consiguiente, el trabajo
realizado por la fuente externa se almacena en forma de energía potencial UB en la bobina:

1
U B = LI 2 (56)
2

Vemos que la energía almacenada en una bobina por la que circula una corriente I, U = LI2/2, es
análoga a la energía almacenada en un condensador cargado, U = CV2/2. Al igual que la energía al-
macenada en un condensador puede interpretarse como energía almacenada en el campo eléctrico,
podemos interpretar que la energía almacenada en una bobina se encuentra almacenada en el campo
magnético. Para ello, consideremos que la bobina se comporta como un solenoide alargado. En este
caso, la autoinducción viene dada por L = m0n2Sl; en donde n es el número de vueltas por unidad de
longitud, S el área de una vuelta, y l la longitud del solenoide. Por otro lado, para un solenoide ideal,
el campo magnético en el interior del solenoide es B = m0nI, y cero en los puntos exteriores. Sustitu-
yendo estos valores en la expresión de la energía almacenada en la bobina, se tiene que:

1 2 1 æ B ö2 1 B 2
U B = LI = m 0 n Slç
2
ç
÷=
÷ Sl (57)
2 2 è m0nø 2 m0

Si ahora tenemos en cuenta que la cantidad Sl es el volumen del espacio interior del solenoide que
coincide con la región donde existe el campo magnético, y dividimos ambos miembros de la expre-

180 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

sión anterior por Sl, tendremos la energía por unidad de volumen o densidad de energía del campo
magnético, uB:

1 B2
uB = (58)
2 m0

Esta expresión, que hemos encontrado para un caso particular, es aplicable a cualquier campo magné-
tico en general.

2. COMPORTAMIENTO DE LOS ELEMENTOS EN LOS CIRCUITOS


ELÉCTRICOS
En esta sección vamos a estudiar el comportamiento de los elementos pasivos de un circuito eléc-
trico en distintas situaciones. En primer lugar se estudiará el comportamiento de estos elementos
cuando se conectan a una fuente de tensión constante, como una batería. En estos casos, aunque la
tensión de la batería no cambia con el tiempo, la corriente que circula por el circuito será una corriente
que dependa del tiempo, siempre que en el mismo se tengan condensadores o bobinas. Analizaremos
esta dependencia temporal de la corriente. En segundo lugar, se estudiará el comportamiento de los ele-
mentos pasivos cuando la fuente de tensión es una fuente dependiente del tiempo. Es decir, cuando el cir-
cuito se alimenta con corriente alterna.

2.1. Comportamiento transitorio


Bajo este epígrafe vamos a estudiar el comportamiento de los condensadores y las bobinas
cuando se conectan mediante una resistencia a una batería cuya tensión permanece constante en el
tiempo. Como ya hemos indicado, en estos circuitos, la corriente no es una constante, sino que va-
ría con el tiempo. Lo que nos proponemos es estudiar cuál es dicha variación temporal de la co-
rriente, así como la variación de otros parámetros de interés, como puede ser la carga en las placas
del condensador.

2.1.1. Circuitos RC
Un circuito RC, como su nombre indica, es un circuito en el que intervienen una resistencia R y
un condensador C. En este circuito, debido a la presencia del condensador, la corriente no es estacio-
naria, sino que varía con el tiempo. Vamos a analizar dos situaciones típicas: el proceso de carga de
un condensador cuando se conecta mediante una resistencia a los
terminales de una batería; y el proceso de descarga de un conden- R
sador, previamente cargado, cuando conectamos sus terminales
a una resistencia.
e C
– Proceso de carga de un condensador: consideremos
un circuito como el mostrado en la figura 9, en donde
se dispone de un condensador de capacidad C conecta-
do en serie con una resistencia R y un interruptor S a
una batería de fem e. Inicialmente, el condensador se
Figura 9. Carga de un
condensador.
encuentra descargado y el interruptor S, abierto. Al ce-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 181


Volumen II. Física II

rrar el interruptor, la batería comienza a transferir carga entre las placas del condensador,
de manera que se establece una corriente eléctrica I. Esta corriente eléctrica es:
dQ
I= (59)
dt
en donde Q(t) es igual a la carga instantánea en cada una de las placas del condensador.
Aplicando la primera regla de Kirchhoff, la fem de la batería ha de ser igual a la suma de
caídas de potencial en la resistencia y en el condensador:
Q
e = VR +VC = IR + (60)
C
De las expresiones (59) y (60) se tiene que:
dQ Q
e= R+ (61)
dt C
En el instante inicial t = 0, la carga del condensador es cero y la corriente inicial vale I0 = e/R.
La carga aumenta hasta que la diferencia de potencia entre las placas es igual a la fem de
la batería y la corriente se anula. En este caso, la carga máxima vendrá dada según (60)
por QM = Ce.
Para resolver la ecuación (61), multipliquemos ambos miembros por C. Agrupando térmi-
nos y separando ambas variables, resulta:
dQ dt
= (62)
Ce – Q RC
Integrando, obtenemos que:
t
– ln(Ce – Q ) = +K (63)
RC
en donde K es una constante de integración. El valor de K se obtiene de la condición de que,
en el instante inicial t = 0, el condensador está descargado, Q = 0. Por lo tanto:
–ln Ce = K (64)
Sustituyendo este resultado en (63) resulta:
t
– ln(Ce – Q )+ ln Ce = (65)
RC
Esta expresión la podemos escribir como:
Ce – Q t
ln =– (66)
Ce RC
O lo que es lo mismo:
Ce – Q
= e – t / RC (67)
Ce
Despejando, se tiene finalmente que la carga almacenada en el condensador en cualquier
instante de tiempo viene dada por:

Q = Ce (1 – e
–t/RC
) (68)

en donde Ce es la carga final del condensador.

182 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

La intensidad de la corriente en un instante de tiempo t la obtenemos derivando la expre-


sión anterior:
dQ æ 1 ö
I= = –Cee – t / RCç– ÷ (69)
dt è RC ø
Expresión que podemos escribir como:

dQ e – t / RC
I= = e (70)
dt R
en donde e/R es la corriente que circula por el circuito en el instante inicial.
Q I
Ce
I0

Figura 10. Carga


y corriente en un
condensador.
t= RC t t= RC t

En la figura 10 se muestra la carga en las placas del condensador y la corriente que circula
por el circuito en función del tiempo. Podemos observar que el condensador sólo se carga
completamente para un tiempo infinito. En la figura se ha marcado el instante de tiempo
en que t = RC para el cual la carga del condensador es Q = 0,63 Ce. La rapidez con la que
se carga el condensador depende de este parámetro, el cual tiene unidades de tiempo y se
denomina constante de tiempo RC del circuito y se representa por t (t = RC). Si t es gran-
de, el condensador se carga lentamente, mientras que si t es pequeño lo hace rápidamen-
te. Por otra parte, la constante de tiempo es igual al tiempo en que se cargaría el condensa-
dor si lo hiciera a una corriente constante igual a la corriente inicial I0. En efecto, si esto
fuera así, el tiempo que se necesitaría para alcanzar una carga Ce en las placas del con-
densador sería tc = Ce/I0. Si tenemos en cuenta que I0 = e/R, resulta que el condensador
adquiriría la carga máxima en un tiempo igual a tc = RC = t.
– Descarga de un condensador: supongamos ahora un condensador C, cargado previamen-
te, que se conecta a una resistencia R en serie, mediante un interruptor S (figura 11). Inicial-
mente, el interruptor se encuentra abierto para evitar que la carga del condensador fluya por
la resistencia. Si denominamos Q0 a la carga del con-
densador en el instante inicial, la diferencia de potencial
entre sus placas vendrá dada por V0 = Q0/C. Al cerrar el
interruptor tendrá lugar un flujo de carga a través de la
resistencia R debido a la diferencia de potencial entre +Q
c R
sus terminales. En el instante inicial, la diferencia de po-
tencial en la resistencia es V0 y, por consiguiente, la co- -Q
rriente inicial será I0 = V0/R = Q0/RC. Si denominamos
Q(t) a la carga de las placas del condensador en un ins-
tante de tiempo t, esta corriente será:
Figura 11. Descarga de un
dQ
I=– (71) condensador.
dt

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 183


Volumen II. Física II

En cualquier instante de tiempo, la diferencia de tensión en el condensador ha de ser igual a


la diferencia de tensión en la resistencia, por tanto:
Q
VC = VR Þ = IR (72)
C
De las expresiones (71) y (72), resulta:
Q dQ
=– R (73)
C dt
Separando las variables, obtenemos que:
dQ dt
=– (74)
Q RC
Integrando, tendremos que:
t
ln Q = – +K (75)
RC
en donde K es una constante de integración que dependerá de las condiciones iniciales. Si
tenemos en cuenta que en el instante inicial t = 0, la carga del condensador es Q = Q0, la
constante de integración tendrá un valor dado por:
K = Q0 (76)
Con este resultado, la ecuación (75) queda como:
Q t
ln =– (77)
Q0 RC
Expresión que puede escribirse como:
–t/RC
Q = Q0e (78)

La corriente de descarga del condensador la encontraremos a partir de la ecuaciones (71) y (78):


dQ Q0 – t / RC
I=– = e (79)
dt RC
Expresión que podemos escribir en función de la tensión inicial en las placas del condensa-
dor V0 y en función de la corriente inicial por el circuito I0 como:

V0 – t / RC
I= e = I 0e – t / RC (80)
R

En la figura 12 se representa la carga y la corriente en función del tiempo t. La carga del


condensador decrece exponencialmente con el tiempo y se acerca asintóticamente a cero.
En la figura también se muestra el instante de tiempo t = RC en el que la carga del conden-
–1
sador se ha reducido a Q = Q0e = 0,37 Q0. A ese valor se le denomina constante de tiem-
po y se le designa por la letra t (t = RC). En consecuencia, t es el tiempo que debe
transcurrir para que la carga se reduzca hasta 1/e de su valor original, es decir, la rapidez
con la que el condensador se descarga depende de la constante de tiempo t: cuanto mayor
es la constante de tiempo, mayor es el tiempo necesario para que el condensador se des-
cargue. Por otra parte, la constante de tiempo es igual al tiempo que tardaría en descargar-
se el condensador si lo hiciera a una corriente constante igual a la corriente inicial I0. En

184 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

efecto, si la corriente de descarga fuese constante e igual a I0, el condensador perdería la


carga en un tiempo td = Q0/I0, y como I0 = Q0/RC, el condensador se descargaría en un
tiempo td = RC = t.
Q I
Q0
I0

Figura 12. Carga y


corriente en un
condensador en proceso
de descarga. t= RC t t= RC t

2.1.2. Circuito RL
Como hemos visto anteriormente, una autoinducción se comporta de manera que impide los
cambios de corriente instantáneos que circulan por ella. Para analizar con más detalle este comporta-
miento, consideremos un circuito formado por un inductor (una bobina) de inductancia L y una resis-
tencia R conectados en serie con una batería de fem e y un interruptor S (figura 13). Un circuito así se
denomina circuito RL. Cuando el interruptor está abierto no circula corriente por el circuito. Al cerrar
el interruptor la corriente comienza a crecer y se induce una fuerza contraelectromotriz en los termi-
nales de la bobina que se opone a la variación de corriente, cuya magnitud es LdI/dt. En la figura se
muestra el sentido de esta fuerza inducida cuando la variación de la corriente es positiva dI/dt > 0.

+
e L L dI
dt
Figura 13. Bobina -
conectada a una batería.

Aplicando la primera regla de Kirchhoff al circuito, se tendrá que:

e = IR + L dI (81)
dt
Dividiendo ambos miembros de la ecuación por L y separando variables resulta:
dI R
= dt (82)
e/ R – I L
Integrando, obtenemos que:
R
– ln( e / R – I ) = t +K (83)
L
en donde K es una constante de integración. El valor de K se obtiene de la condición de que en el ins-
tante inicial t = 0, la corriente es cero, I = 0. Por lo tanto:

–ln e/R = K (84)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 185


Volumen II. Física II

Sustituyendo este resultado en (83) resulta:


R
– ln( e / R – I )+ ln e = t (85)
L
Esta expresión la podemos escribir como:

ln
e/ R – I = – R t (86)
e/ R L
O lo que es lo mismo:
e / R – I = e – Rt / L (87)
e/ R
Despejando, se tiene finalmente que la corriente que pasa por la bobina en cualquier instante de tiem-
po, viene dada por:

I=
e (1– e – Rt / L ) (88)
R

En la figura 14 se muestra la corriente que circula por el circuito en función del tiempo. Podemos
observar que la corriente aumenta con el tiempo y se acerca asintóticamente al valor límite e/R, que
corresponde al valor que se obtendría si no hubiese inductancia. En la figura se ha marcado el instante
de tiempo t= L/R para el cual la corriente toma el valor I = ( e/R) (1 – e–1) = 0,63 e/R. A ese valor se le
denomina constante de tiempo inductiva y se designa por tL. Para tiempos mucho menores que tL, la
corriente no cambia de forma significativa en el circuito.
I
e/R

Figura 14. Corriente


t= L/R t en una bobina.
Consideremos ahora el circuito de la figura 15, en el
R que una vez que se alcanza el equilibrio con el interruptor S
abierto y circula una corriente constante I0 = e/R se cierra
+ el interruptor. Al hacer esto, la corriente que circula por el
e S
L
dI
L___ circuito no se anula instantáneamente, pues la fuerza con-
dt
_ traelectromotriz que se induce en la bobina impide esta va-
riación instantánea. Aplicando la regla de las mallas al
circuito, se tiene que:
Figura 15. Bobina conectada a una dI
– L = IR (89)
batería y a una resistencia. dt
Agrupando términos, resulta:
dI R
= – dt (90)
I L

186 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

Integrando:
R
ln I = – t +K (91)
L
siendo K una constante de integración que depende de las condiciones iniciales del problema. En nues-
tro caso, en el instante inicial t = 0 la corriente es I0, por lo que de la expresión anterior obtenemos que:
K = ln I0 (92)
Sustituyendo este resultado en la ecuación (91), tendremos que:

–Rt/L
I = I0 e (93)

Es decir, la corriente en el circuito decrece exponencialmente desde su valor inicial I0 y se aproxima


asintóticamente a cero, como se muestra en la figura 16. La constante tL = RC es la constante de tiem-
po inductivo y establece la escala de tiempos en el circuito. Para t = t = RC la corriente que pasa por
el circuito se reduce a I = I0 e–1 = 0,37 I0.
I

I0

Figura 16. Corriente por


el circuito de la figura 15. t= L/R t

2.2. Circuitos oscilantes


En esta sección vamos a estudiar algunos circuitos sencillos que contienen condensadores y bo-
binas pero que no cuentan con generadores de alterna.

2.2.1. Circuito oscilador CL


Consideremos un circuito que contiene un condensador en
serie con una bobina como se muestra en la figura 17. Vamos a
suponer que inicialmente el condensador se encuentra cargado
con una carga Q y que el interruptor S se encuentra inicialmente -Q +
abierto. Al cerrar el interruptor en el instante t = 0, el condensa- C
L L dI
dor comienza a descargarse a través de la bobina. Aplicando la +Q dt
regla de Kirchhoff de las mallas al circuito de la figura (en el que -
se muestran los signos de la carga en el condensador y el sentido
de la corriente, de manera que I = dQ/dt), se tiene que: I

dI Q
L + =0 (94) Figura 17. Circuito oscilante LC.
dt C

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 187


Volumen II. Física II

Sustituyendo en esta ecuación I = dQ/dt, obtenemos:


d 2Q Q
L + =0 (95)
dt 2 C
Esta ecuación es análoga a la de una partícula que describe un movimiento armónico simple. Su solu-
ción viene dada por:
Q = Q0 cos (w0t + f) (96)
siendo w0 la frecuencia de oscilación dada por:

1
w0 = (97)
LC

La constante de fase f se escoge de manera que en el instante t = 0, la carga en el condensador sea Q =


Q0, por lo que de la expresión (96) se tiene que f = 0. Por tanto, la carga del condensador en cualquier
instante de tiempo posterior al cierre del interruptor vendrá dada por:

Q = Q0 cos w0t (98)

La corriente la encontramos inmediatamente derivando esta expresión respecto al tiempo:

I = –w0Q0 senw0t = –Imáx senw0t (99)

en donde Imáx = w0 Q0. De las expresiones (98) y (99) vemos que la corriente se encuentra desfasada
90º respecto de la carga: la corriente es máxima cuando la carga es cero, y es cero cuando la carga es
máxima.
Pasemos ahora a estudiar el aspecto energético de las oscilaciones en este circuito LC. La ener-
gía almacenada en el condensador viene dada por:
1 1 Q2
U E = QVC = (100)
2 2 C
Sustituyendo en esta expresión el resultado encontrado en (98), se tiene que:
Q02
UE = cos 2 w 0 t (101)
2C

Por otra parte, la energía almacenada en la bobina es:


1
U B = LI 2 (102)
2
Sustituyendo en esta expresión el resultado encontrado en (99), se tiene que:
2
1 Q
U B = Lw 20Q02 sen 2 w 0 t = 0 sen 2 w 0 t (103)
2 2C
en donde hemos utilizado que w0 = 1/ LC.

188 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

Sumando las ecuaciones (101) y (103) encontramos que la energía total almacenada en el circui-
to en cualquier instante de tiempo t es:
Q02 Q2
U = U E +U B = (cos 2 w 0 t +sen 2 w 0 t ) = 0 (104)
2C 2C
Por tanto, la energía total en el circuito es constante, y la energía se conserva. De las ecuaciones (101)
y (103) vemos que en los instantes de tiempo t = 0, t = T, t = 2T,... (en donde T = 2p/w0) la energía al-
macenada en el condensador es igual a la energía total almacenada en el circuito, y la energía almace-
nada en la bobina es cero. En los instantes de tiempo t = T/2, t = 3T/2, t = 5T/2,... la energía
almacenada en el condensador es cero, y toda la energía del circuito se encuentra almacenada en la
bobina. En definitiva, la energía permanece constante, pero se transforma continuamente de energía
eléctrica en energía magnética, y viceversa.

2.2.2. Circuito oscilador RCL R


El circuito anterior es una idealización, puesto que en un -Q
circuito eléctrico siempre existe una determinada resistencia. +
Por tanto, en este apartado vamos a estudiar el mismo circuito C L dI
L dt
que vimos en el apartado anterior, pero consideraremos los +Q
-
efectos de la resistencia del circuito. Para ello, consideremos el
circuito mostrado en la figura 18, y supongamos que el con- I
densador se encuentra cargado inicialmente con una carga Q0.
Aplicando la regla de las mallas de Kirchhoff, se tiene que: Figura 18. Circuito oscilante RCL.
dI Q
L + IR + = 0 (105)
dt C
Sustituyendo en esta ecuación I = dQ/dt, obtenemos:
d 2 Q dQ Q
L R + =0 (106)
dt 2 dt C
Esta ecuación es análoga a la de una partícula que describe un movimiento armónico simple amortigua-
do y su solución depende de los valores de R, de C y de L. Podemos distinguir tres casos:
4L
R2 < Þ Amortiguamiento débil (107)
C
4L
R2 = Þ Amortiguamiento crítico (108)
C
4L
R2 > Þ Sobreamortiguamiento (109)
C

En el caso de amortiguamiento débil, la solución de la ecuación diferencial (106) es:


– 2RL t
Q = Q0 e cos( w a t + f ) (110)

siendo wa la frecuencia de oscilación dada por:

1 R2
wa = – 2 (111)
LC 4L

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 189


Volumen II. Física II

En la figura 19 se muestra la variación de la carga en el condensador en función del tiempo.


Observamos que la amplitud de la oscilación decrece exponencialmente con el tiempo debido al fac-
– 2RL t
tor e en la expresión (110).

Figura 19. Carga en el


condensador en el circuito
oscilante RCL.

2.3. Comportamiento en corriente alterna


Hasta ahora hemos estudiado circuitos eléctricos en donde las fuentes de energía proporciona-
ban una fem constante en el tiempo, como las baterías. En esta sección estudiaremos circuitos de co-
rriente alterna (AC) en los que las fuentes de energía proporcionan una fem oscilante en el tiempo.
Ejemplos de este tipo de fuentes son los generadores y alternadores estudiados en el tema 23, los cua-
les se representan en los diagramas de circuitos con el símbolo ~ .
Tal como vimos en el tema 23, la expresión general de la fem de un generador de alterna viene
expresada por:
e = emáx sen(wt + a) (112)

en donde emáx es el valor máximo que puede alcanzar la fem y es una constante que depende de la
elección del origen de tiempos. Por regla general, y por razones de sencillez en las expresiones, toma-
remos a = 0, con lo que la fem proporcionada por el generador la expresaremos como:
e = emáx senwt (113)

Comenzaremos por estudiar el comportamiento en corriente alterna de los elementos básicos de


los circuitos: resistencias, condensadores y bobinas. Veremos que si conectamos uno de estos ele-
mentos a un generador de corriente alterna que proporcione una señal sinusoidal, la corriente por di-
chos elementos es también sinusoidal, aunque, en general, no esté en fase con la fem del generador.
Posteriormente analizaremos algunos circuitos sencillos que contienen una combinación de estos
elementos básicos.

2.3.1. Corriente alterna en una resistencia I


e
+
+ R
Consideremos un circuito formado por una resistencia R co- -
nectada en serie con un generador de alterna, es decir, un circuito
puramente resistivo como el mostrado en la figura 20. Aplicando
la regla de las mallas a este circuito se tiene que:
Figura 20. Resistencia en
emáx senwt = IR (114) corriente alterna.

190 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

Por lo que la corriente que circula por la resistencia será:

e máx
I= sen wt (115)
R

El valor máximo de la corriente por la resistencia es:


e máx
I máx = (116)
R
por lo que la corriente que pasa por la resistencia puede escribirse como:
I = I máx sen wt (117)
Por tanto, la corriente que circula por la resistencia está en fase con la tensión que se le aplica.
La potencia disipada en la resistencia varía con el tiempo, y su valor en cada instante viene dado
por:
P = I 2 R = I máx
2
R sen 2 wt (118)
2
Por tanto, la potencia disipada en la resistencia oscila desde un valor cero hasta un valor máximo de I máx R.
Normalmente, lo que nos interesa es la potencia media disipada por ciclo. Esta potencia media viene
dada por:
1 T
P = Pm = ò Pdt =
T 0
(119)
1 I2 R T
ò R sen 2 wtdt = máx ò0 sen 2 wtdt
T
= 2
I máx
T 0 T
Teniendo en cuenta que el valor medio de la función sen2 wt es 1/2, obtenemos finalmente que la po-
tencia media disipada en la resistencia viene dada por:
1 2
Pm = I máx R (120)
2

Se definen los valores eficaces o valores cuadráticos medios de una magnitud, por ejemplo la co-
rriente, como:

I ef = ( I 2 ) m (121)

En el caso de una magnitud sinusoidal, I = Imáx sen wt, el valor eficaz es:

1 2
I ef = [ I máx
2
sen 2 wt] m = I (122)
2 máx

Por lo que se tiene que:


1
I ef = I máx (123)
2

Es decir, el valor eficaz de una magnitud sinusoidal es igual al valor máximo dividido por 2.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 191


Volumen II. Física II

Sustituyendo el resultado anterior en la expresión (120) que da la potencia media disipada en la


resistencia, se obtiene que:

Pm = I ef2 R (124)

Vemos que la corriente eficaz es igual a la corriente continua que produciría el mismo efecto que la
corriente de alterna dada por (117).
La potencia media suministrada por el generador de alterna será:
1
Pm = ( eI ) m = e máx I máx (sen 2 wt ) m = e I (125)
2 máx máx

Teniendo en cuenta que I ef = I máx / 2 y e ef = e máx / 2, la expresión anterior puede escribirse


como:

Pm = e ef I ef (126)

De la expresión (116), dividiendo ambos miembros por 2 se tiene que la corriente eficaz y la fem
eficaz están relacionadas de la misma forma que lo están la corriente máxima y la fem máxima:

e ef
I ef = (127)
R

Si observamos las expresiones (124), (126) y (127) vemos que estas expresiones tienen la misma
forma que las correspondientes a un circuito de corriente continua. Es decir, que para un circuito de
corriente alterna el cálculo de la potencia disipada, la potencia suministrada por el generador y la co-
rriente que circula por la resistencia puede hacerse empleando las ecuaciones de corriente continua y
sustituyendo los valores de la corriente continua y las fem por los valores eficaces.

2.3.2. Corriente alterna en condensadores


El comportamiento de un condensador conectado a una fuente de corriente alterna es muy dis-
tinto del que tiene cuando se conecta a una batería. En este último caso, la corriente se interrumpe
cuando el condensador se encuentra completamente cargado. Es decir, un condensador impide el flu-
jo de una corriente continua. Por el contrario, si el condensador se encuentra conectado a una fuente
de tensión de alterna, la corriente fluye continuamente en el circuito. Esto es debido a que cuando se
le aplica una tensión comienza a fluir carga de una placa del
condensador a la otra, pero antes de que el condensador se car-
gue completamente se invierte la tensión por sí sola, por lo que
I +Q
e
las cargas comienzan a fluir en sentido contrario.
+ C
Para analizar lo que acabamos de comentar consideremos
el circuito de la figura 21, en donde se tiene un generador de -Q
corriente alterna de fem e en serie con un condensador de ca-
pacidad C. Aplicando la regla de las mallas, se tiene que:
Q Figura 21. Condensador en
e máx sen wt = VC = (128) corriente alterna.
C

192 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

en donde Q es la carga en las placas del condensador en cada instante de tiempo. Por tanto, la carga en
las placas está en fase con la tensión aplicada al condensador:

Q = Cemáx senwt (129)

La corriente que circula vendrá dada por:


dQ
I= = wCe máx cos wt (130)
dt
El valor máximo de la corriente se obtiene cuando cos wt = 1 y es igual a:

Imáx = wCemáx (131)


Con lo que la corriente por el circuito puede escribirse como:

I = Imáx cos wt (132)

Si tenemos en cuenta que cos wt = sen(wt + p/2), la corriente I queda como:

I = Imáx sen(wt + p/2) (133)

Es decir, que la corriente en un condensador no está en fase con la tensión aplicada a sus extremos: la
tensión en los terminales del condensador está retrasada 90º respecto de la corriente, como se puede
ver en la figura 22; o lo que es lo mismo, la corriente adelanta a la tensión en los extremos del conden-
sador en 90º. Esto, es, la corriente alcanza su valor máximo un cuarto de ciclo antes de que lo alcance
la tensión. Este hecho tiene una explicación sencilla: la variación máxima de dQ/dt debe tener lugar
cuando la carga Q en el condensador es cero, lo que significa que la diferencia de potencial entre las
placas es cero. Conforme aumenta la carga en las placas, la corriente disminuye hasta que la carga es
máxima y la corriente es cero. A partir de este momento, la carga fluye en sentido contrario y la co-
rriente se hace negativa.

I e

Figura 22. Tensión y corriente en


un condensador.

Por analogía con un circuito resistivo en donde la corriente máxima y la diferencia de tensión
máxima están relacionadas por Imáx = emáx/R, se define la reactancia capacitiva XC como:

e máx
I máx = (134)
XC

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 193


Volumen II. Física II

Y dividiendo por 2:
e ef
I ef = (135)
XC

De la expresión (131), se tiene que la reactancia capacitiva viene dada por:

1
XC = (136)
wC

Las unidades de la reactancia capacitiva son las mismas que las de una resistencia y, por tanto, en el
SI es el ohmio (W).
La reactancia capacitiva limita la corriente por el circuito y es inversamente proporcional a la
frecuencia w. Para una condensador de una capacidad dada, a mayor frecuencia, menor reactancia ca-
pacitiva tiene y mayor es la corriente que circula por el circuito. Por el contrario, a menor frecuencia,
se tiene una mayor reactancia y, en consecuencia, circula una corriente menor. Esto tiene sentido ya
que a mayor frecuencia, menos tiempo tiene el condensador de almacenar carga y, por tanto, acepta
con más facilidad carga nueva. A menor frecuencia, el condensador se encuentra más cargado en
cada ciclo y ofrece mayor resistencia a la acumulación de nueva carga. Por otro lado, la reactancia ca-
pacitiva también varía inversamente con la capacidad del condensador, por lo que a una frecuencia
dada, un condensador de menor capacidad presenta una mayor reactancia y, por tanto, limita el paso
de la corriente en mayor medida que un condensador de más capacidad.
En cuanto a la potencia suministrada por la fuente, de la expresión de la corriente dada por (132)
tendremos que:
P = eI = emáx Imáx sen wt cos wt (137)
La potencia media vendrá dada por:
Pm = emáx Imáx (sen wt cos wt)m (138)
Ahora bien, el valor medio del producto de la función seno y de la función coseno es cero. Por consi-
guiente, la potencia media suministrada en un ciclo por la fuente es cero:
Pm = 0 (139)
Es decir, que en un condensador no se disipa potencia. Sólo se produce una transferencia de energía
entre la fuente y el condensador.

2.3.3. Corriente alterna en una bobina


Al igual que ocurre con los condensadores, el comportamiento de una bobina en corriente alter-
na es muy diferente al que tiene en corriente continua. Una bobina, por lo general, tiene una resisten-
cia pequeña y, por consiguiente, su efecto sobre la corriente continua también es pequeño. Sin
embargo, cuando la corriente que circula por la bobina cambia con el tiempo, se genera una fuerza
contraelectromotriz que es proporcional al cambio experimentado por la corriente. Conforme la fre-
cuencia de la corriente es mayor, mayor será su cambio en el tiempo y, por tanto, mayor será la fuerza
contraelectromotriz inducida en la bobina. En consecuencia, una bobina ofrece poca resistencia al
paso de una corriente de frecuencia baja, mientras que se opone fuertemente al paso de una corriente
de frecuencias altas.

194 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

Para analizar en más detalle el comportamiento de una


bobina en corriente alterna, consideremos un circuito como el +
I
mostrado en la figura 23, compuesto por una bobina conectada
en serie a un generador de corriente alterna. En la figura se
+ L L dI

e
muestra con un signo más y menos el sentido de la caída de po- dt
tencial en los terminales de la bobina para un valor de la varia- -
ción de la corriente dI/dt positivo. Si llamamos VL a la caída de
tensión en la bobina, ésta viene dada por:
Figura 23. Bobina en corriente
dI alterna.
VL = V+ – V– = L (140)
dt
Aplicando la regla de las mallas al circuito, obtenemos:

e = VL (141)

Si suponemos que la fem proporcionada por el generador de alterna es de forma sinusoidal e =


= emáx senwt, de las expresiones anteriores, se tiene que:

e = e máx sen wt = L dI (142)


dt
Multiplicando ambos miembros por dt y dividiendo por L, resulta:
e máx
dI = sen wt dt (143)
L
La corriente que circula en el circuito se obtiene integrando la expresión anterior. Haciendo esto,
se tiene que:
e máx e máx
I=
L
ò sen wt dt = – wL
cos wt + K (144)

en donde K es una constante de integración. Esta constante representa una componente de corriente
continua en la corriente total. Puesto que el generador proporciona una corriente que oscila simétrica-
mente al valor cero, no puede existir esta componente y, en consecuencia, la constante K es cero. Por
tanto, la corriente queda como:
e máx
I=– cos wt (145)
wL
El valor máximo de la corriente se obtiene cuando cos wt = –1, y es igual a:
e máx
I máx = (146)
wL
Con lo que la corriente por el circuito puede escribirse como:
I = –Imáx cos wt (147)

Si ahora tenemos en cuenta que –cos wt = sen(wt – p/2), la corriente queda como:

I = Imáx sen(wt – p/2) (148)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 195


Volumen II. Física II

La corriente en una bobina no está en fase con la tensión aplicada a sus extremos: la tensión y la co-
rriente están desfasadas 90º; más concretamente, la tensión en los terminales del inductor está adelanta-
da 90º respecto de la corriente, como se puede ver en la figura 24; o lo que es lo mismo, la corriente está
retrasada 90º con respecto a la tensión en los extremos de la bobina. Por tanto, la corriente alcanza su
valor máximo un cuarto de ciclo después de que lo alcance la tensión. Este hecho tiene una explicación
sencilla: cuando la corriente es cero, pero está creciendo su variación temporal, tiene su valor máximo,
de forma que la fem inducida en la bobina alcanza su valor máximo. Transcurrido un cuarto de ciclo, la
corriente alcanza su valor máximo, y en este instante dI/dt = 0, de manera que la fem inducida es cero.

e I

Figura 24. Tensión y


corriente en una bobina.

Al igual que en el caso de los condensadores en que se define la reactancia capacitiva, se define
la reactancia inductiva XL como:
e máx
I máx = (149)
XL

Y dividiendo por 2:
e ef
I ef = (150)
XL

De la expresión (146), se tiene que la reactancia inductiva viene dada por:

XL = wL (151)

Las unidades de la reactancia inductiva son las mismas que las de una resistencia y que las de la reac-
tancia capacitiva, y, por tanto, en el SI, es el ohmio (W).
La reactancia inductiva limita la corriente por el circuito inductivo de la misma forma que la re-
sistencia lo limita en los circuitos resistivos y la reactancia capacitiva lo hace en los circuitos capaciti-
vos. Puesto que la reactancia inductiva es directamente proporcional a la frecuencia w, una inducción
dada presentará mayor reactancia cuanto mayor sea la frecuencia de la corriente. Por consiguiente,
una inducción se opondrá fuertemente al paso de una corriente de frecuencia alta, mientras que impe-
dirá poco el paso de corrientes de frecuencias bajas.
En lo que se refiere a la potencia suministrada por la fuente, de la expresión de la corriente por el
circuito dada por (145), tendremos que:
P = eI = –emáx Imáx sen wt cos wt (152)
La potencia media vendrá dada por:
Pm = –emáx Imáx (sen wt coswt)m (153)

196 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

Ahora bien, el valor medio del producto de la función seno y de la función coseno es cero. Por consi-
guiente, la potencia media suministrada en un ciclo por la fuente es cero:

Pm = 0 (154)

Es decir, que en una bobina no se disipa potencia. Sólo se produce una transferencia de energía entre
la fuente y la inductancia.

2.3.4. Circuito RLC


R +Q -Q
Un circuito que presenta las principales características de los
circuitos de corriente alterna es un circuito RLC conectado a una +
fuente de corriente alterna. En la figura 25 se muestra este circui-
to, que se compone de una resistencia R, un condensador C y una
e + I
L L dI
dt
-
inductancia L conectadas en serie. Supondremos que la fuente
proporciona una tensión sinusoidal e = emáx senwt. Aplicando la
regla de las mallas de Kirchhoff a este circuito, obtenemos: Figura 25. Circuito RCL.
Q dI
e máx sen wt = IR + + L (155)
C dt
Derivando ambos miembros de la ecuación anterior respecto al tiempo, y teniendo en cuenta que la
corriente está relacionada con la carga acumulada en las placas del condensador por I = dQ/dt, obten-
dremos:
d 2I dI 1
L 2
+ R + I = we máx cos wt (156)
dt dt C

Esta ecuación diferencial es análoga a la de un oscilador mecánico amortiguado y forzado. Su solu-


ción general es de la forma:
I(t) = Itr + Ies (157)
en donde Itr corresponde a una corriente transitoria que desaparece con el tiempo, e Ies es la respuesta
oscilante del circuito a la tensión aplicada y corresponde al estado estacionario. La corriente transito-
ria no tiene nada que ver con la respuesta del circuito a la tensión de entrada, por lo que nos centrare-
mos en estudiar la respuesta oscilatoria. Por tanto, despreciaremos la componente transitoria Itr de la
corriente y supondremos que:
I(t) = Ies (158)

La solución de la ecuación diferencial (156) es de la forma (en donde, como hemos dicho, se desprecia
el término transitorio):
I(t) = Imáx sen(wt – f) (159)
en donde f depende de los valores de los elementos del circuito y de la frecuencia de la señal proporcio-
nada por la fuente de corriente alterna. Para ver esto, sustituyamos la solución dada por (159) en (156).
Haciendo esto, se tiene que:
1
Imáx [–w L sen(wt – f) + wR cos(wt – f) + sen(wt – f)] = wemáx cos wt
2
(160)
C

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 197


Volumen II. Física II

Los términos sen(wt – f) y cos(wt – f) los podemos desarrollar utilizando las expresiones trigono-
métricas:
sen(wt – f) = sen wt cos f – cos wt sen f (161)

cos(wt – f) = cos wt cos f + sen wt sen f (162)


Sustituyendo estas expresiones en la ecuación (160) y agrupando los coeficientes de las funciones seno
y coseno, se tiene que:
sen wt [Imáx(1 – w LC) cos f + ImáxwRCsen f] +
2

(163)
+ cos wt [Imáx(w LC – 1) sen f + ImáxwRCcos f – wCemáx] = 0
2

Esta ecuación se satisfará si los términos que aparecen entre corchetes son iguales a cero. Por tanto,
tendremos que:
(1 – w LC) cos f + wRCsen f = 0
2
(164)

Imáx(w LC – 1) sen f + ImáxwRCcosf – wCemáx = 0


2
(165)
De la primera de estas ecuaciones se tiene que:
w 2 LC – 1 wL – 1
wC
tan f = = (166)
wRC R
Si ahora tenemos en cuenta la definición de reactancia capacitiva XC = 1/wC y reactancia inductiva
XL = wL, la expresión anterior la podemos escribir como:
X L – XC
tan f= (167)
R
Y por tanto:
X L – XC
f= arctan (168)
R

Por otra parte, de la expresión (165) se obtiene que:

Imáx [(XL – XC) senf + R cosf] = emáx (169)


Ahora bien, de la expresión (167), se obtiene que:
1 R
cos f = = (170)
1+ tan 2 f R + ( X L – X C )2
2

X L – XC
sen f = 1– cos 2 f = (171)
R + ( X L – X C )2
2

Sustituyendo estas expresiones en (169), se tiene que:


é (X – X )2 ù
R2 ú= e máx
I máxê
L C
+ (172)
ê
ë R +( X L – X C )
2 2
R 2 + ( X L – X C )2 ú
û

198 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

Agrupando términos y despejando Imáx, se tiene que:


e máx
I máx = (173)
R 2 + ( X L – X C )2

Esta expresión la podemos escribir como:

e máx
I máx = (174)
Z

en donde Z se denomina impedancia del circuito, y viene dada por:

æ 1 ö
2

Z = R 2 + ( X L – X C ) 2 = R 2 +çwL – ÷ (175)
è wC ø

A la magnitud X = XL – XC se le denomina reactancia total, y tiene dimensiones de una resistencia.


Para los valores eficaces, dividiendo ambos miembros de la ecuación (174) por 2, obtenemos:

e ef
I ef = (176)
Z

Resonancia: una característica importante de los circuitos RCL conectado a una fuente de co-
rriente alterna es el fenómeno de la resonancia. Este fenómeno es común a todos aquellos sistemas
que tienden a oscilar a una frecuencia determinada, denominada frecuencia natural del sistema.
Cuando estos sistemas se acoplan a una fuente de energía de frecuencia cercana a su frecuencia natu-
ral, la amplitud de la oscilación aumenta considerablemente.
Estudiemos a continuación lo que le ocurre a la corriente que circula por un circuito RCL cuan-
do variamos la frecuencia de la fuente de alterna manteniendo los demás parámetros del circuito
constantes. De la expresión (174) observamos que la corriente máxima está limitada por la impe-
dancia del circuito. Ahora bien, esta impedancia depende de la frecuencia a través de la reactancia
inductiva y capacitiva. Por consiguiente, la corriente máxima depende de la frecuencia de la fuente
de alterna. A frecuencias bajas, la reactancia capacitiva XC = 1/wC es mucho mayor que la reactan-
cia inductiva XL = wL, de manera que la impedancia es grande y, por tanto, la corriente máxima es pe-
queña. Por otra parte, de la expresión (167) se tiene que el ángulo de fase f es negativo, por lo que la
corriente adelanta a la tensión de la fuente. Al aumentar la frecuencia, la reactancia capacitiva dismi-
nuye y la reactancia inductiva aumenta. Cuando ambas son iguales, la impedancia tiene el valor míni-
mo e igual a R y, por consiguiente, la corriente Imáx alcanza su valor máximo. Cuando esto ocurre, el
ángulo de fase es cero y, por tanto, la corriente está en fase con la tensión de la fuente de alterna. Si se-
guimos aumentando la frecuencia de la fuente de alterna, la reactancia inductiva se hace mayor que la
reactancia capacitiva, la impedancia aumenta y la corriente Imáx disminuye. El ángulo de fase f se
hace positivo, y la corriente atrasa respecto a la tensión de la fuente de alterna.
El valor de la frecuencia w0, para el que las reactancias son iguales, vendrá dado por:
1
X L = X C Þ w 0 L= (177)
w 0C

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 199


Volumen II. Física II

Despejando la frecuencia, se obtiene que:

1
w0 = (178)
LC

Esta frecuencia recibe el nombre de frecuencia de resonancia del circuito. Cuando la frecuencia de la
fuente de energía externa, la fuente de alterna, es igual a la frecuencia de resonancia, la impedancia es
mínima y la corriente Imáx alcanza su máximo valor. Decimos entonces que, a esta frecuencia, el cir-
cuito se encuentra en resonancia.
Tal como hemos visto en los apartados anteriores, el único elemento del circuito que disipa ener-
gía es la resistencia. Por tanto, la potencia media suministrada a un circuito RCL es igual a la potencia
media suministrada a la resistencia. La potencia instantánea suministrada es:

P = I R = [Imáx sen(wt – f)] R


2 2
(179)

El valor medio Pm en un ciclo vendrá dado por:

Pm = I máx
2
R[sen 2 ( wt – f )] m (180)

Ahora bien, el valor promedio de la función seno cuadrado es igual a 1/2, por lo que resulta:

1 2
Pm = I máx R (181)
2

Como la corriente máxima y el valor máximo de la tensión aplicada están relacionados por (174), pode-
mos escribir para la potencia:

1 R
Pm = I máx e máx (182)
2 Z

Y como cos f = R/Z, tendremos que:

1
Pm = I máx e máx cos f (183)
2

En función de los valores eficaces de la corriente I ef = I máx / 2, y de la tensión e ef = e máx / 2, la ex-


presión de la potencia puede escribirse como:

Pm = I ef e ef cos f (184)

en donde cos f se denomina factor de potencia del circuito RCL. En resonancia, el ángulo de fase es
cero (f = 0) y el factor de potencia es igual a la unidad.
La potencia media suministrada la podemos expresar en función de la tensión de la fuente y de
los parámetros del circuito. Para ello, sustituyamos en (182) el valor de la corriente máxima Imáx por
el dado en (174). Haciendo esto, tendremos que:

R
Pm = e ef2 (185)
Z2

200 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

De la definición de impedancia dada por (175):


æ 1 ö
2

Z 2 = R 2 + ( X L – X C ) 2 = R 2 +çwL – ÷=
è wC ø
(186)
L2 æ 2 1 ö
2
L2
= R2+ ç w – ÷ = R 2 + 2 ( w 2 – w 20 ) 2
w è
2
LC ø w
en donde se ha tenido en cuenta que la frecuencia de resonancia w0 viene dada por (178). Llevando
esta expresión a la expresión de la potencia media (185), se tiene que:

e ef2 Rw 2
Pm = (187)
L2 ( w 2 – w 20 )+ w 2 R 2

En la figura 26 se muestra la potencia media suministrada Pm R 1 < R2


por el generador al circuito (dada por la expresión anterior)
para dos valores diferentes de la resistencia R. Estas curvas re- R1
ciben el nombre de curvas de resonancia. En ella se puede ob-
servar que la potencia media suministrada es máxima cuando
la frecuencia de la fuente de alterna es igual a la frecuencia de
resonancia. Se define la anchura de la resonancia como la dife-
rencia de frecuencias de los puntos de la curva en los que la po- R2
tencia es la mitad del valor máximo. Para calcular esta anchu-
ra, comencemos por determinar el valor máximo de la potencia w0 w
suministrada por la fuente. Si designamos por Pm, res a dicho
valor, haciendo w = w0 en (187), se tiene que:
Figura 26. Potencia media
e ef2 suministrada por el generador.
Pm, res = (188)
R
Dividiendo la expresión (187) por (188), obtenemos:
Pm R 2 w2
= 2 2 (189)
Pm, res L ( w – w 20 ) 2 + w 2 R 2

En la figura 27 se representa esta función. Por tanto, para cal-


cular la anchura de la resonancia, debemos calcular aquellas
frecuencias w1 y w2 para las que se cumple que:
Pm 1
= (190)
Pm, res 2
Figura 27. Potencia suministrada
Entonces, la anchura de la resonancia BW, vendrá dada por: por el generador normalizada
a la potencia suministrada
BW = w2 – w1 (191) en resonancia.

De la expresión (189), obtenemos que:


Pm 1 L
= Þ R =± ( w 2 – w 20 ) (192)
Pm, res 2 w

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 201


Volumen II. Física II

Para calcular w1 debemos considerar que w1 < w0. Por lo que de la expresión (192) tendremos que:
L
R= – ( w 21 – w 20 ) (193)
w1
Resolviendo esta ecuación se tiene que:
– R ± R 2 + 4L2 w 20
w1 = (194)
2L
Puesto que la frecuencia ha de ser un número positivo, tendremos que:
– R + R 2 + 4L2 w 20
w1 = (195)
2L

Por otra parte, como w2 > w0, de la expresión (192) tendremos que:
L
R= ( w 22 – w 20 ) (196)
w2
Resolviendo esta ecuación se tiene que:
R ± R 2 + 4L2 w 20
w2 = (197)
2L
Puesto que la frecuencia ha de ser un número positivo, tendremos que:
R + R 2 + 4L2 w 20
w2 = (198)
2L
Finalmente, sustituyendo los resultados encontrados en (195) y (198) en (191), la anchura de la resonancia
vendrá dada por:
R
BW = w 2 – w 1 = (199)
L

Los circuitos resonantes son de gran utilidad en los receptores de radio o de televisión, en donde se
utilizan para sintonizar una determinada emisora. Mediante un condensador variable se cambia la fre-
cuencia de resonancia del circuito. Cuando esta frecuencia es igual a una de las frecuencias emitidas por
las distintas emisoras y recibidas en la antena, aparece en ésta una corriente grande. Si el factor de cali-
dad del circuito es lo suficientemente grande, las corrientes debidas a las frecuencias de otras emisoras
que no están en resonancia serán muy pequeñas comparadas con la corriente de la emisora sintonizada.

3. ENERGÍA ALMACENADA O TRANSFORMADA EN CIRCUITOS


ELÉCTRICOS
La potencia instantánea cedida por una fuente a un circuito RCL es:
P = eI (200)
Ahora bien, la relación entre la fem de la fuente y la corriente que pasa por el circuito viene dada por
(155). Sustituyendo esta expresión en la ecuación (200), tendremos que:
Q dI
P = I 2 R+I + LI (201)
C dt

202 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Elementos de importancia en los circuitos eléctricos

Por otra parte, hemos visto que, según (45) y (56), la energía almacenada en un condensador y en una
bobina vienen dadas por:
1 Q2
UE = (202)
2 C

1
U B = LI 2 (203)
2
Por tanto, tendremos que la energía almacenada en el condensador y en la bobina varían con el tiempo
de la forma:
dU E Q dQ Q
= = I (204)
dt C dt C
dU B dI
= LI (205)
dt dt
Si comparamos estas ecuaciones con la expresión de la potencia instantánea suministrada por la
fuente, podemos concluir que:
2
– El término I R corresponde a la energía disipada en la resistencia en forma de calor.
Q
– El término I C corresponde a la variación de la energía eléctrica almacenada en el conden-
sador.
dI
– El término LI dt corresponde a la variación de la energía magnética almacenada en la bobina.

En consecuencia, parte de la energía suministrada por la fuente se almacena en la bobina y en el


condensador, y otra se disipa en forma de calor en la resistencia por efecto Joule. La energía almace-
nada en la bobina y el condensador varía con el tiempo, de manera que existe una transferencia cíclica
de energía entre estos elementos y la fuente. Por consiguiente, la energía promedio suministrada por
la fuente es sólo la energía disipada por la resistencia.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 203


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Bobrow, L. S.: Fundamentals of Electrical Engineering. Holt, Rinehart and
Winston, Inc. New York, 1985.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall. Upper Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall. México, 1988.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Purcell, E. M.: Electricidad y magnetismo. Editorial Reverté. Barcelona, 1980.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté. Barcelona,
1986.
Tipler, P. A.: Física. Editorial Reverté. Barcelona, 1992.

204 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

25
Ondas electromagnéticas.
Origen y propiedades. Energía
y cantidad de movimiento en
las ondas electromagnéticas.
Espectros electromagnéticos.
Aplicaciones. Medidas de
protección cuando ha lugar

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. ONDAS ELECTROMAGNÉTICAS
1.1. Ecuaciones de Maxwell
1.2. Origen y propiedades
1.2.1. Ondas electromagnéticas planas
1.2.2. Transversalidad de las ondas electromagnéticas
1.2.3. Polarización de las ondas electromagnéticas

2. ENERGÍA Y MOMENTO DE LAS ONDAS ELECTROMAGNÉTICAS


2.1. Energía transportada por las ondas electromagnéticas
2.1.1. Intensidad de las ondas electromagnéticas
2.2. Momento transportado por las ondas electromagnéticas
2.2.1. Presión de radiación

3. ESPECTRO ELECTROMAGNÉTICO. APLICACIONES

4. MEDIAS DE PROTECCIÓN CONTRA LOS CAMPOS ELECTROMAGNÉTICOS


4.1. Efectos de las radicaciones ionizantes
4.2. Efectos de las radicaciones no ionizantes
4.2.1. Radiación ultravioleta
4.2.2. Radiación infrarroja
4.2.3. Campos electromagnéticos de radiofrecuencia
4.2.4. Campos de frecuencia extremadamente baja

BIBLIOGRAFÍA

206 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

1. ONDAS ELECTROMAGNÉTICAS
En su artículo de 1864 titulado “Teoría dinámica del campo electromagnético”, Maxwell pre-
sentó las célebres ecuaciones, que hoy denominamos ecuaciones de Maxwell, que unificaban los
campos eléctricos y magnéticos. Estas ecuaciones constituyen la base teórica del electromagnetismo
clásico y relacionan los campos eléctricos y magnéticos con sus fuentes: las cargas eléctricas, las co-
rrientes y los campos variables. Pero la importancia de estas ecuaciones no está solamente en el hecho
de que sean la síntesis del electromagnetismo, sino también en un aspecto de crucial importancia: las
ecuaciones de Maxwell predicen la existencia de ondas electromagnéticas.
A partir de las ecuaciones del electromagnetismo, Maxwell demostró que podían combinarse r
para
r dar lugar a una ecuación de onda que debían satisfacer los campos eléctricos y magnéticos, E y
B. Por otro lado, Maxwell demostró que la velocidad de propagación de estas ondas en el vacío debía
ser c = (m0e0)–1/2. En su artículo, Maxwell escribía:
A continuación se aplican las ecuaciones generales al caso de una perturbación
magnética que se propaga a través de un medio no conductor y se demuestra que las
únicas perturbaciones que pueden propagarse así son aquellas que son transversales
a la dirección de propagación y cuya velocidad es la encontrada a partir de experi-
mentos como los de Weber, que expresan el número de unidades electrostáticas de
electricidad contenidas en una unidad electromagnética.

Estas suposiciones fueron posteriormente confirmadas por Heinrich Hertz (1857-1894) quien produ-
jo por primera vez ondas electromagnéticas en un laboratorio.

1.1. Ecuaciones de Maxwell


Antes de deducir la existencia de ondas electromagnéticas y de algunas de sus propiedades, re-
cordaremos la forma matemática de las ecuaciones de Maxwell. En su forma más general, estas ecua-
ciones se escriben como:
– Ley de Gauss para el campo eléctrico
r r
Ñ×D = r (1)

en donde r es la densidad de carga eléctrica.


– Ley de Gauss para el campo magnético
r r
Ñ×B = 0 (2)
– Ley de Ampère-Maxwell
r
r r r dD
Ñ´ H = J + (3)
dt
– Ley de Faraday-Henry
r
r r dB
Ñ´ E = – (4)
dt
r
Las ecuaciones anteriores
r se completan conrotras dos que relacionan el vector desplazamiento D
r E, y el campo magnético B (denominado también inducción magnética) con el
con el campo eléctrico
campo magnético H. Además de estas dos ecuaciones, hay una tercera que relaciona la densidad de

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 207


Volumen II. Física II

corriente con el campo eléctrico, la ley de Ohm. Estas tres ecuaciones se denominan ecuaciones cons-
titutivas del medio donde aparecen los parámetros que caracterizan los medios materiales: la permiti-
vidad o constante dieléctrica, la permeabilidad magnética y la conductividad eléctrica. Para un medio
isótropo, homogéneo y lineal (ni ferroeléctrico ni ferromagnético) caracterizado por una permitivi-
dad e, una permeabilidad m, y una conductividad s estas ecuaciones son:
r r
D = eE (5)
r 1 r
H= B (6)
m
r r
J = sE (7)
Haciendo uso de estas
r ecuaciones
r constitutivas, las ecuaciones de Maxwell pueden escribirse en
función de los campos E y B como:
r r r
Ñ×E = (8)
e
r r
Ñ×B = 0 (9)
r
r r r ¶E
Ñ´ B = msE + me (10)
¶t
r
r r ¶B
Ñ´ E = – (11)
¶t

1.2. Origen y propiedades


En este apartado vamos a ver cómo la existencia de campos eléctricos y magnéticos dependientes
del tiempo dan lugar a la aparición de ondas electromagnéticas que se propagan con cierta velocidad u,
cuyo valor determinaremos. Posteriormente, analizaremos algunas propiedades de dichas ondas.
Puesto que la ecuación de onda es una ecuación diferencial que relaciona las derivadas segundas
respecto al espacio y al tiempo de la magnitud física que se propaga, apliquemos en primer lugar el
operador rotacional a la ecuación (10). Haciendo esto, se tiene que:
r
r r r r æ r ¶E ö
Ñ´ ( Ñ´ B ) = Ñ´ç msE + me ÷
ç (12)
è ¶t ÷
ø
Intercambiando el orden de las derivadas espaciales y temporales en el segundo miembro de la ecua-
ción anterior, resulta:
r r r r r ¶ r
Ñ´ ( Ñ´ B ) = msÑ´ E + me ( Ñ´ E ) (13)
¶t
Sustituyendo en esta expresión la ecuación (11) del rotacional del campo eléctrico, se tiene que:
r r
r r r ¶B ¶2B
Ñ´ ( Ñ´ B ) = – ms – me 2 (14)
¶t ¶t
El primer miembro de la ecuación anterior se puede simplificar haciendo uso de la relación vectorial:
r r r r r r r r
Ñ´Ñ´ B = Ñ ( Ñ×B ) – Ñ 2 B (15)

208 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

en donde, en coordenadas cartesianas, el operador Ñ2 viene dado por:


r r r ¶2 ¶2 ¶2
Ñ 2 = ( Ñ×Ñ ) = 2 + 2 + 2 (16)
¶x ¶y ¶z

Sustituyendo la expresión (15) en (14) y teniendo en cuenta que, según (9), la divergencia del campo
magnético es cero, obtenemos que:
r r
r ¶B ¶2B
Ñ B – ms
2
– me 2 = 0 (17)
¶t ¶t
Para el campo eléctrico podemos encontrar una ecuación similar a la anterior. Aplicando el ope-
rador rotacional a la ecuación (11) obtenemos que:
r
r r r r æ ¶B ö
Ñ´ ( Ñ´ E ) = – Ñ´ç ÷
ç ¶t ÷ (18)
è ø

Intercambiando en el segundo miembro el orden de las derivadas temporales y espaciales del campo
magnético, la ecuación anterior la podemos escribir como:
r r r ¶ r r
Ñ´ ( Ñ´ E ) = – Ñ´ B (19)
¶t
Sustituyendo en esta expresión la ecuación (10) del rotacional del campo magnético, se tiene que:
r r
r r r ¶E ¶2E
Ñ´ ( Ñ´ E ) = – ms – me 2 (20)
¶t ¶t
Al igual que antes, el primer miembro de la ecuación anterior se puede simplificar haciendo uso de la
relación vectorial:
r r r r r r r r
Ñ´Ñ´ E = Ñ ( Ñ×E ) – Ñ 2 E (21)
Sustituyendo la expresión (21) en (20), y teniendo en cuenta que la divergencia del campo eléctrico
viene dada por (8), obtenemos finalmente que:
r r
r2r ¶E ¶ 2 E ræ r ö
Ñ E – ms – me 2 = Ñç ÷ (22)
¶t ¶t èeø
En una zona del espacio libre de carga, r = 0, la ecuación anterior se transforma en:
r r
r ¶E ¶2E
Ñ E – ms
2
– me 2 = 0 (23)
¶t ¶t
Las ecuaciones (17) y (23) relacionan las derivadas espaciales de las componentes magnética y
eléctrica del campo electromagnético con las derivadas primera y segunda respecto al tiempo. Estas
ecuaciones se denominan ecuaciones del telegrafista o ecuaciones de telegrafía. En el caso de un me-
dio no conductor s = 0, las ecuaciones (17) y (23) se simplifican y quedan en la forma:
r
r ¶2B
Ñ B – me 2 = 0
2
(24)
¶t
r
r ¶2E
Ñ E – me 2 = 0
2
(25)
¶t

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 209


Volumen II. Física II

Si comparamos estas expresiones con la ecuación de onda tridimensional dada por:


1 ¶2F
Ñ 2F – =0 (26)
u 2 ¶t 2
vemos que las componentes del campo electromagnético satisfacen una ecuación diferencial de onda.
Por ello, tanto el campo magnético como el campo eléctrico se propagan en el espacio como una onda,
siendo su velocidad de propagación u:
1
u= (27)
me

Las dos ecuaciones vectoriales (24) y (25) proporcionan seis ecuaciones de onda, una para cada com-
ponente del campo eléctrico (Ex, Ey, Ez) y del campo magnético (Bx, By, y Bz).
En el vacío, las ecuaciones anteriores se transforman en:
r
r2r ¶2B
Ñ B – m0e0 2 = 0 (28)
¶t
r
r2r ¶2E
Ñ E – m0e0 2 = 0 (29)
¶t
Por ello, tanto el campo magnético como el campo eléctrico se propagan en el espacio vacío como
una onda. Su velocidad de propagación se designa normalmente como c, y viene dada por:
1
c= (30)
m0e0

Con el objeto de evaluar la velocidad de propagación de las ondas electromagnéticas, Maxwell


utilizó los resultados de los experimentos llevados a cabo por Wilhelm Weber (1804-1891) y Ru-
dolph Kohlrausch (1809-1858). El valor asignado a m0 fue de 4p ´ 10–7 m kg C–2. Experimentalmen-
te, mediante medidas de capacidad se puede determinar de forma sencilla el valor de la permitividad
del vacío, resultando que e0 = 8,85 ´ 10–12 s2 C2 m–3 kg–1. Sustituyendo estos valores en la expresión
(30), se obtiene que:
1
c= » 3´108 m / s (31)
m0e0

El valor teórico deducido para la velocidad de propagación de las ondas electromagnéticas estaba de
acuerdo con el valor experimental encontrado por Fizeau para la velocidad de la luz, 315 000 km/s. Esta
coincidencia llevó a Maxwell a escribir:
Esta velocidad es tan cercana a la de la luz que parece haber fuertes razones para
concluir que la propia luz (incluyendo el calor radiante y otras radiaciones si las hay)
es una perturbación electromagnética en forma de ondas que se propagan a través del
campo electromagnético de acuerdo con las leyes electromagnéticas.

Por consiguiente, la teoría de Maxwell constituía no sólo la unificación de la electricidad y el magne-


tismo, sino también la unificación de la óptica. De ahí que esta teoría sea considerada como uno de los
grandes logros de la física y del intelecto humano.

210 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

1.2.1. Ondas electromagnéticas planas


La forma de las soluciones de las ecuaciones de onda dadas por (24) y (25) dependerán de la for-
ma en que se generan las ondas, de las características del medio, distancia a la fuente, etc. Una solu-
ción de dichas ecuaciones son las ondas planas. Estas ondas se caracterizan por que el valor del cam-
po eléctrico y del campo magnético es el mismo en un plano perpendicular a la dirección de propaga-
ción. Si consideramos que esta dirección de propagación coincide con el eje z, entonces, los campos
eléctricos y magnéticos deben ser independientes de las coordenadas x e y:
r r
E = E( z, t ) (32)
r r
B = B( z, t ) (33)

En consecuencia:
r r
¶E ¶E
= =0 (34)
¶x ¶y
r r
¶B ¶B
= =0 (35)
¶x ¶y

En este caso, las ecuaciones de onda de los campos eléctrico y magnético se reducen a:
r r
¶2E ¶2E
– me 2 = 0 (36)
¶z 2 ¶t
r r
¶2B ¶2B
– me 2 = 0 (37)
¶z 2 ¶t
Cada componente de los campos debe satisfacer una ecuación de onda similar a las anteriores. Si
convenimos que los campos físicos eléctrico y magnético se obtienen tomando la parte real de magni-
tudes complejas, podemos escribir la solución de estas ecuaciones como:
r r
E = E 0 e i ( kz– wt) (38)
r r i ( kz– wt)
B = B0 e (39)

en donde k está relacionado con la frecuencia w de la onda y la velocidad de propagación u por:


w = ku (40)
Más tarde, analizaremos más detalladamente las soluciones de onda plana dadas (38) y (39).

1.2.2. Transversalidad de las ondas electromagnéticas


r rA continuación, vamos a estudiar la posibilidad de obtener la orientación relativa de los campos
E y B. Para ello, escribamos las ecuaciones de Maxwell para el caso de ondas planas en las que se sa-
tisfacen las ecuaciones (34) y (35). Haciendo esto, tenemos que, de la ecuación de la divergencia del
campo eléctrico:
¶E z
=0 (41)
¶z

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 211


Volumen II. Física II

De la ecuación de la divergencia del campo magnético, se tiene que:


¶B z
=0 (42)
¶z

Por otro lado, de la ecuación (11) del rotacional del campo eléctrico se obtiene que:
¶E y ¶B x
= (43)
¶z ¶t

¶E x ¶B y
= (44)
¶z ¶t
¶B z
0= (45)
¶t

Y de la ecuación (10) del rotacional del campo magnético:


¶B y ¶E x
= – me (46)
¶z ¶t

¶B x ¶E y
= me (47)
¶z ¶t
¶E z
0= (48)
¶t

Las ecuaciones (41) y (48), por un lado, y las ecuaciones (42) y (45), por otro, muestran que las compo-
nentes Ez y Bz son constantes en el tiempo y en el espacio. Por tanto, si suponemos que los campos eléc-
trico y magnético son nulos antes de la llegada de la onda (es decir, en ausencia de campos estáticos), si-
guen siendo nulos en todo instante de tiempo. Por consiguiente, podemos escribir que:
Ez = 0 Bz = 0 (49)
r r
Estos resultados indican que las ondas electromagnéticas son transversales: los vectores E y B son
perpendiculares a la dirección de propagación. Por consiguiente, los vectores campo eléctrico y mag-
nético sólo tendrán componentes perpendiculares a la dirección de propagación, es decir:
r
E = E x i$ + E y $j (50)
r
B = B x i$ + B y $j (51)

y son soluciones de las ecuaciones (36) y (37).


Cada una de estas
r ecuaciones
r da lugar a dos ecuaciones escalares de onda, una para cada una de
las componentes de E y B:
¶ 2 Ex ¶ 2 Ex
– me =0 (52)
¶z 2
¶t 2

¶2E y ¶2E y
– me =0 (53)
¶z 2 ¶t 2

212 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

Y para el campo magnético:


¶ 2 Bx ¶ 2 Bx
– me =0 (54)
¶z 2 ¶t 2
¶2B y ¶2B y
– me =0 (55)
¶z 2 ¶t 2

Con el convenio de utilizar magnitudes complejas para representar los campos físicos, las solu-
ciones de estas ecuaciones las podemos escribir como:
i(kz–wt)
Ex = E0xe (56)
i(kz–wt)
Ey = E0ye (57)
Y para el campo magnético:
i(kz–wt)
Bx = B0xe (58)
i(kz–wt)
By = B0ye (59)
Las magnitudes E0x, E0y, B0x y B0y son, en general, complejas con el objeto de incorporar el desfase entre
las distintas componentes.
Por otra parte, las componentes del campo eléctrico y el campo magnético están relacionadas me-
diante las ecuaciones de Maxwell. Así, por ejemplo, de la ecuación (43) y de las ecuaciones (57) y (58),
obtenemos que:
1
Bx = – E (60)
u y
Análogamente, de la ecuación (44) y de las ecuaciones (56) y (59), resulta que:
1
By = E (61)
u x

Por tanto, las soluciones generales de una onda plana que se propaga en la dirección del eje z la pode-
mos escribir como:
r
E = E x i$ + E y $j = ( E 0x i$ + E 0 y $j )e i ( kz– wt) (62)

r 1
B = B x i$ + B y $j = (– E 0 y i$ + E 0x $j ) e i ( kz– wt) (63)
u
r r
Calculando el producto escalar de los vectores E y B se tiene que:
r r
E·B=0 (64)
Es decir, que el campo eléctrico y el campo magnético son perpendiculares entre sí, y perpendiculares
a la dirección de propagación de la onda electromagnética.
r r
Por otro lado, del producto vectorial de E y B, se tiene que:
r r 1 1 E2
E ´ B = ( E x B y – E y B x )k$ = ( 2 E x2 + 2 E 2y )k$ = 2 k$ (65)
u u u

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 213


Volumen II. Física II

r r
$ forman un triedro a de-
Es decir, los vectores E, B y la dirección de propagación, en nuestro caso k,
rechas.
Por tanto, los campos eléctrico y magnético en una onda electromagnética plana son perpendi-
culares a la dirección de propagación y forman con ésta un triedro a derechas.

1.2.3. Polarización de las ondas electromagnéticas


Hemos visto que la solución de la ecuación de onda para una onda electromagnética plana viene
dada por las ecuaciones (56)-(59), en donde las amplitudes son magnitudes constantes que permiten
englobar
r rla diferencia de fase entre las distintas componentes del campo. La orientación de los cam-
pos E y B en el espacio dependen precisamente de la diferencia de fase o fase relativa entre las dife-
rentes componentes.
Para estudiar este fenómeno, supongamos que las componentes del campo eléctrico son de la
forma dada por las ecuaciones (56) y (57):
i(kz–wt)
Ex = E0xe
i(kz–wt)
Ey = E0ye
Supongamos que el desfase entre ellas es q. Es decir, podemos considerar que E0x es un número real y
reescribir la cantidad compleja E0y como E0ye-iq. De esta manera, sustituyendo esto en las expresiones
anteriores y tomando la parte, se tiene que:
Ex = E0x cos(kz – wt) (66)
Ey = E0y cos(kz – wt + q) (67)
r
Por tanto, en general, el campo eléctrico E de componentes Ex y Ey variará con el tiempo su módu-
lo y su orientación en el espacio. Veamos esto, en algunos casos.
– Polarización lineal
Supongamos que el desfase entre las dos componentes del campo eléctrico es cero. En este
caso, haciendo q = 0 en la ecuación (67), tendremos que:
Ex = E0x cos(kz – wt) (68)
Ey = E0y cos(kz – wt) (69)
Y por consiguiente:
r
E = ( E 0x i$ + E 0 y $j )cos( kz – wt ) (70)

Por tanto, el campo eléctrico está orientado siempre en una misma dirección que forma un
ángulo a con el eje x dado por:
E0 y
a= arctan (71)
E 0x
Es decir, que el campo eléctrico oscila siempre en un plano que contiene la dirección de
propagación k$ y que forma un ángulo a con el eje x. A este plano se le denomina plano de
polarización, y decimos que la onda está polarizada linealmente.
En las expresiones (58) y (59) encontramos que el campo magnético vendrá dado por:
r 1
B = (– E 0 y i$ + E 0x $j )cos( kz – wt ) (72)
u

214 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

Por tanto, el campo magnético oscila en fase con el campo eléctrico en una dirección
r r fija en el
espacio, resultado que ya sabíamos, puesto que anteriormente se demostró que E, B y la direc-
ción de propagación forman un triedro a derechas. En la figura 1 se muestra la orientación relati-
va de los campos eléctricos y magnéticos en un instante dado en distintos puntos del espacio.

Z
E

Z
B

Figura 1. Onda
electromagnética polarizada
linealmente.

– Polarización circular y elíptica


Supongamos ahora que el desfase de las dos componentes del campo eléctrico es de –p/2.
En este caso, tendremos que:
Ex = E0x cos(kz – wt) (73)

Ey = E0y cos(kz – wt – p/2) = E0y sen(kz – wt) (74)


El campo eléctrico vendrá dado por:
r
E = E0x cos(kz – wt)i$ + E0y sen(kz – wt) $j (75)

Por tanto, el campo eléctrico cambia en módulo y en dirección con el tiempo y con la posición.
Esto lo podemos ver si encontramos la curva que describe el extremo del vector campo eléc-
trico. De la expresión (73) obtenemos que:
Ex
= cos( kz – wt ) (76)
E 0x

Por otro lado, de (74):


Ey
= sen ( kz – wt ) (77)
E0 y

Elevando al cuadrado y sumando, obtenemos que:


E x2 E y2
+ =1 (78)
E 02x E 02y

Esta ecuación corresponde a una elipse cuyos semiejes son E0x y E0y. Por consiguiente, al
avanzar la onda, el campo eléctrico describe una elipse en un plano perpendicular a la di-
rección de propagación. Decimos que la onda está polarizada elípticamente.
En el caso concreto en que las amplitudes E0x y E0y son iguales, E0x = E0y = E0, la relación en-
tre las componentes del campo eléctrico se convierte en:
E x2 + E y2 = E 02 (79)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 215


Volumen II. Física II

Expresión que corresponde a una circunferencia de radio E0. En este caso, el extremo del
vector campo eléctrico describe una circunferencia y decimos que la onda electromagnéti-
ca está polarizada circularmente. En la figura 2 se muestra el valor del campo eléctrico en el
instante t = 0 para distintos valores de la variable z.
y
x
Z
E Z
E Z
Z
E
B
Z Z
B Z E
B Z
B z Figura 2. Onda electromagnética
polarizada circularmente.

Para una onda electromagnética polarizada circularmente, se tiene que:


r
E = E0 [cos(kz – wt)i$ + sen(kz – wt) $j] (80)
r
Por lo que el campo E forma en todo momento un ángulo con la dirección del eje x dado por:
sen ( kz – wt )
a = arctan = kz – wt (81)
cos( kz – wt )

Se tiene, por tanto, que la velocidad con la que gira el campo eléctrico es igual a la frecuen-
cia angular w de la onda electromagnética.

2. ENERGÍA Y MOMENTO DE LAS ONDAS ELECTROMAGNÉTICAS


La característica fundamental de las ondas, como se vio en el estudio de las ondas mecánicas, es
que transportan energía de una región del espacio a otra. Veamos a continuación cómo podemos
cuantificar la energía transportada por una onda electromagnética.

2.1. Energía transportada por las ondas electromagnéticas


r
En los temas anteriores hemos visto que la densidad de energía asociada a un campo eléctrico E
en una determinada región del espacio viene expresada por:
1
u E = eE 2 (82)
2

en donde e es la permitividad del medio.


r
Por otro lado, si en una región del espacio de permeabilidad m existe un campo magnético B, la
densidad de energía asociada a este campo viene dada por:
1 2
uB = B (83)
2m

216 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

Por consiguiente, la densidad de energía total será:


1 1 2
u = u E + u B = eE 2 + B = eE 2 (84)
2 2m
E 1
en donde hemos tenidos en cuenta que B = y c=
c em
La energía localizada en un volumen elemental dV vendrá dada por:
dU = udV (85)
y la energía localizada en un volumen finito V limitado por una superficie cerrada A será:
æ1 2 1 2 ö
U = òVç
ç eE + B ÷
÷dV (86)
è2 2m ø
La variación de energía dentro del volumen V será:
¶U 1 ¶ æ r r 1 r rö
¶t
= ò ç
ç
2 ¶t Vè
eE ×E + B ×B ÷
m
÷dV
ø
(87)

Intercambiando el orden de la integral y la derivada temporal, obtendremos que:


r r
¶U æ r ¶E 1 r ¶B ö
= òVçeE × + B × ÷
ç dV (88)
¶t è ¶t m ¶t ÷ø
Haciendo uso de las ecuaciones de Maxwell dadas por (10) y (11), se obtiene:
r
r ¶E 1 r r r r r
eE × = E ×Ñ´ B – J ×E (89)
¶t m
Y por otro lado:
r
1 r ¶B 1 r r r
B × = – B ×Ñ´ E (90)
m ¶t m
Sustituyendo estas últimas expresiones en la ecuación (88), resulta:
¶U 1 r r r r r r r r
= òV ( E ×Ñ´ B – B ×Ñ´ E ) dV – òV J ×E dV (91)
¶t m
r r r r r r r
Utilizando ahora la identidad vectorial Ñ · (E ´ B) = B(Ñ ´ E) – E(Ñ ´ B), la ecuación anterior se
transforma en:
¶U 1 r r r r r
= – òVÑ×( E ´ B ) dV – òVJ ×E dV (92)
¶t m
Aplicando el teorema de la divergencia al primer sumando del segundo miembro, se obtiene que:
¶U 1 r r r r r
= – òA ( E ´ B ) dA – òVJ ×E dV (93)
¶t m
r
en donde A es una superficie que encierra al volumen V, y d A es un vector normal al elemento de su-
perficie dA y dirigido hacia el exterior de la superficie.
La ecuación (93) indica que la energía almacenada en el volumen V disminuye por dos razones.
En primer lugar, tal y como refleja el primer término del segundo miembro de la ecuación, la energía

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 217


Volumen II. Física II

disminuye como consecuencia del flujo de energía a través de la superficie. En segundo lugar, la
energía disminuye por la pérdida en forma de calor de Joule por el movimiento de las cargas libres.
En el caso de un medio en el que no existen cargas libres, la ecuación anterior se reduce a:

¶U 1 r r r
= – òA ( E ´ B ) dA (94)
¶t m

El vector que aparece en la primera integral de la ecuación (93) se


r denomina vector de Poynting (en
honor de John Henry Poynting, 1852-1914) y se representa por S :

r 1 r r r r
S = ( E ´ B ) = c 2 e( E ´ B ) (95)
m

El vector de Poynting es, por tanto, la densidad de flujo de energía electromagnética por unidad de su-
perficie y por unidad de tiempo. De la expresión anterior, y del estudio realizado en los apartados an-
teriores, se deduce que para medios isótropos, lardirección
r de propagación de la onda electromagnéti-
ca, que es perpendicular al plano definido por E y B, coincide con la dirección de propagación de la
energía dada por el vector de Poynting.
Si consideramos que la dirección de propagación es el eje z, y teniendo en cuenta que la relación
entre las magnitudes del campo eléctrico y magnético es B = E/c, el vector de Poynting lo podemos
escribir como:
r
S = ceE 2 k$ (96)
Si ahora tenemos en cuenta que la densidad de energía transmitida por la onda viene dada por (84), la
expresión anterior la podemos escribir como:
r
S = Sk$ (97)
en donde la magnitud del vector de Poynting viene dada por:

S = cu (98)

Para encontrar el resultado anterior, hemos tenido en cuenta que en una onda electromagnética u =
= 2uE = 2uB.

2.1.1. Intensidad de las ondas electromagnéticas


La intensidad de una onda se define como la energía que atraviesa la unidad de área normal a la
dirección de propagación en la unidad de tiempo. De esta definición, la unidad de la intensidad en el
SI será el vatio por metro cuadrado, W/m2.
Según lo visto en elr apartado
r anterior, la intensidad es igual al módulo del vector de Poynting.
Puesto que los campos E y B varían con el tiempo, es necesario introducir la intensidad media de la
onda. Eso está justificado por el hecho de que es imposible medir una intensidad instantánea, ya que
siempre que se mide la intensidad, por medio de cualquier dispositivo, se recibe energía durante un
intervalo de tiempo determinado. La intensidad media vendrá dada por:
1 r r
Iº S = | E´B| (99)
m

218 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

En el caso de una onda plana polarizada linealmente que se propaga en la dirección del eje z, los
campos eléctricos y magnéticos vienen dados por las expresiones (70) y (72), por lo que su producto
vectorial viene dado por:
r r
E ´ B = ( E x B y – E y B x )k$ =

1 1
= ( E 02x + E 02y )cos 2 ( kz – wt )k$ = E 02 cos 2 ( kz – wt )k$ = (100)
c c

= c( B 02x + B 02y )cos 2 ( kz – wt )k$ = cB 02 cos 2 ( kz – wt )k$

Sustituyendo esta expresión en la expresión de la intensidad, y teniendo en cuenta que el valor medio
de la función coseno al cuadrado es ácos2 (kz – wt)ñ = 1/2, obtenemos que:
1 1
I = ceE 02 = cB 2 (101)
2 2m 0

En el caso de las ondas esféricas, la amplitud decrece con la distancia a la fuente en la forma 1/r,
por lo tanto, la intensidad de la onda decrece como 1/r2. Esto puede obtenerse a partir de la conserva-
ción de la energía. Supongamos un fuente de ondas electromagnéticas situada en un punto del espacio
y que emite una energía por unidad de tiempo (potencia) P0. La energía que atraviesa una superficie
esférica de radio r1 por unidad de tiempo será igual a:

4pr12 I1 = P1 (102)

La energía que atraviesa una superficie de radio r2 será:

4pr22 I2 = P2 (103)

Por el principio de conservación, la energía que atraviesa por unidad de tiempo ambas superficies ha
de ser la misma e igual a la energía emitida por la fuente por unidad de tiempo. Por tanto, se debe
cumplir que:

4pr12 I1 = 4pr22 I2 = P0 (104)

Por lo que se tiene que:


P0
I1 = (105)
4pr12

y para la intensidad a una distancia r2:


P0
I2 = (106)
4pr22

En general, la intensidad de la onda electromagnética a una distancia r de la fuente vendrá dada por
P0
I ( r )= (107)
4pr 2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 219


Volumen II. Física II

2.2. Momento transportado por las ondas electromagnéticas


Hemos visto que las ondas electromagnéticas transportan una energía cuya densidad de flujo
viene dada por el vector de Poynting. En este apartado vamos a ver lo que ocurre cuando una onda
electromagnética incide sobre un objeto material como consecuencia de la absorción de la energía
transportada por la onda por parte de las partículas cargadas del medio.
Consideremos una onda electromagnética plana que se propaga en la dirección z e incide sobre
un medio como se muestra en la figura 3.

y
x

Z
E Z
FB
Z
B

Figura 3. Onda electromagnética plana que incide


normalmente sobre un material.

Sobre cada electrón del material, el campo eléctrico ejerce una fuerza:
r r
FE = q e E (108)

Esta fuerza impulsa a la carga en la dirección del campo eléctrico con una velocidad ue. A su vez, el
campo magnético ejerce una fuerza sobre el electrón:
r r r
FB = q e ( u e ´ B ) (109)
r r r
Aunque la fuerza FE cambia de sentido conforme lo hace el campo eléctrico E, la fuerza FB impulsa
r r
siempre a la partícula en la dirección de propagación de la onda, ya que u e y B cambian de sentido si-
multáneamente. Esta fuerza se transmitirá al material, que tenderá a desplazarse en la dirección de
propagación de la onda. La fuerza total que actúa sobre el electrón será:
r r r r r r
F = FE + FB = q e [ E + ( u e ´ B )] (110)
r
El promedio de la fuerza debida al campo eléctrico es cero áFE ñ, pues es una fuerza que oscila
con el campo eléctrico, mientras que el promedio de la fuerza magnética es distinto de cero, pues
siempre está dirigida en la dirección de propagación. Por tanto, el promedio de la fuerza total que ac-
túa sobre el electrón será:
r r
F = FB = q e u e B k$ (111)
r r
Puesto que los módulos de E y B están relacionados por B = E/c, la expresión anterior la podemos es-
cribir como:
r q
F = q e u e B k$ = e u e E k$ (112)
c

220 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

El electrón adquiere un momento en la dirección del eje z que debe ser transmitido por la onda
electromagnética. La variación del momento del electrón vendrá dada por la segunda ley de Newton:
r dpr
F= (113)
dt

Y en promedio:
r r
dp q
= F = e u e E k$ (114)
dt c

Por otro lado, la energía suministrada por la onda electromagnética será:


dW r r r r r r
= u e ×F = u e ×q e [ E + ( u e ´ B )] = q e u e E (115)
dt

Y la energía promedio suministrada vendrá dada por:


dW
= qe u e E (116)
dt

Comparando las ecuaciones (114) y (116) se tiene que:


dp 1 dW
= (117)
dt c dt

Esta expresión indica que si el electrón extrae una cierta cantidad de energía e de la onda electromag-
nética en un intervalo de tiempo determinado, adquirirá un momento igual a:
e
p= (118)
c

Por el principio conservación de la cantidad de movimiento, este momento deberá ser transportado
por la onda electromagnética.
Puesto que la onda electromagnética transporta una densidad de energía u, la densidad de mo-
mento transportada por la onda electromagnética será:

u
rp = (119)
c

Si tenemos en cuenta ahora la expresión (98), la expresión anterior la podemos escribir en función del
módulo del vector de Poynting como:

S
rp = (120)
c2

Por tanto, una onda electromagnética transporta una densidad de momento lineal que viene dada por
la expresión anterior.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 221


Volumen II. Física II

2.2.1. Presión de radiación


Hemos visto que sobre los electrones del material se ejerce una fuerza promedio diferente de
cero en la dirección de propagación de la onda electromagnética. Esto da lugar a una fuerza por uni-
dad de área que se denomina presión de la radiación, pr. De la expresión (117), se tiene que:
1 1 dp 1 dW
pr = F = = (121)
A A dt cA dt
Ahora bien, el último término de la ecuación corresponde, salvo el factor c, a la energía por unidad de
tiempo y unidad de área absorbida por el material. Si la absorción es total, toda la energía transporta-
da por la onda es absorbida por el material; este término corresponde, por definición, a la intensidad
de la onda. Por lo tanto, en este caso, la presión de radiación vendrá dada por:

I
pr = Absorción total (122)
c

En el caso de que la radiación electromagnética sea reflejada totalmente por el objeto material,
podemos encontrar el valor de la presión de radiación haciendo un estudio similar al realizado para
determinar la presión ejercida por una pelota que incide sobre una pared. Por conservación de la can-
tidad de movimiento, el momento transferido a la pared es igual al cambio de cantidad de movimiento
experimentado por la pelota. Si la pelota queda incrustada en la pared (colisión completamente ine-
lástica), tendremos que la cantidad de movimiento final de la pelota es cero, y, por tanto, la variación
de su cantidad de movimiento, y el momento transmitido a la pared será igual a la cantidad de movi-
miento inicial de la bola. Por el contrario, si la pelota sale rebotada con la misma velocidad con la que
incidió sobre la pared (colisión elástica), la variación de la cantidad de movimiento, y el momento
transferido a la pared, es el doble de la cantidad de movimiento inicial.
De forma análoga, podemos aplicar el principio de conservación de la cantidad de movimiento
para determinar la presión ejercida por una onda electromagnética sobre una superficie. Si p es el mo-
mento transferido cuando la absorción es completa, cuando la reflexión es total, la cantidad de movi-
miento transferida a la superfice será el doble, y, por tanto, la presión ejercida por la radiación también
lo será. Por consiguiente, podemos escribir que:

2I
pr = Reflexión total (123)
c

Las expresiones (122) y (123) son válidas para los casos extremos de absorción y reflexión total
de la onda electromagnética. En un objeto real, parte de la onda es reflejada y parte es absorbida, por
lo que la presión de radiación tendrá un valor comprendido entre I/c y 2I/c, que dependerá de la frac-
ción de la onda reflejada y absorbida.
La presión de radiación es pequeña y, por tanto, difícil de detectar. Para hacernos una idea de la
magnitud de la presión de radiación, consideremos que la densidad de flujo promedio de la energía
electromagnética del Sol que incide normalmente sobre una superficie situada en el exterior de la at-
mósfera terrestre es aproximadamente de 1400 W/m2. Suponiendo que la absorción es completa, de
la ecuación (122) se tiene que la presión de radiación resultante sería 4,7 ´ 10–6 N/m2, la cual es des-
preciable frente a la presión atmosférica, que es igual a 105 N/m2.
La determinación experimental de la presión de radiación producida por la luz fue realizada por
primera vez por Pyotr Nikolaievich Lebedev (1866-1912) y, de forma independiente, por Edward
Laemington Nichols (1854-1937) y Gordon Ferrie Hull (1870-1956). Para ello, utilizaron una balan-
za de torsión con un espejo sobre el que hacían incidir una luz. Midiendo la intensidad de la luz inci-
dente comprobaron la validez de la expresión (123). Estas medidas se realizaron entre los años 1901 y
1903, treinta años después de que la presión de radiación fuera predicha por Maxwell.

222 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

3. ESPECTRO ELECTROMAGNÉTICO. APLICACIONES


Los parámetros que caracterizan una onda electromagnética son su longitud de onda l y su fre-
cuencia n, que están relacionadas por:
c = ln (124)
en donde c es la velocidad de propagación de la onda en el vacío, cuyo valor aceptado actualmente es
c = 2,997 ´ 108 m/s.
En la figura 4 se muestra el espectro electromag-
FRECUENCIA LONGITUD DE ONDA
nético que corresponde a la gama de longitudes de onda v(Hz) l(m)
y de frecuencias de las ondas electromagnéticas conoci-
das hasta hoy. Sin embargo, en principio no existe nin- 22 10
–14
10 Rayos g
gún límite –ni superior ni inferior– para los valores de la
–12
longitud de onda y la frecuencia. 10
20 10
El espectro electromagnético se suele clasificar o di- 18 Rayos X 10
–10

vidir en distintas regiones atendiendo a las fuentes que 10


producen las ondas electromagnéticas o bien los aparatos 16 Ultravioleta 10
–8

utilizados para su detección. No obstante, esta clasifica- 10


ción no tiene unos límites precisos, ya que, en algunas 14
Visible
10
–6
10
bandas de frecuencia, las fuentes de las ondas pueden ser
varias. Así, por ejemplo, se pueden tener ondas electro- Infrarrojo –4
12 10
10
magnéticas de frecuencia n = 3 ´ 1011 Hz procedentes de
–2
una fuente de microondas o de una fuente caliente. 10
10 Microondas 10
La clasificación habitual de las ondas electromag- 8 1
néticas es la siguiente: 10
2
– Ondas de radiofrecuencia: son ondas cu- 10
6
Radio 10
yas frecuencias van desde algunos pocos Hz 4
4 10
hasta 109 Hz, y, por consiguiente, el interva- 10
lo de longitudes de onda va desde algunos
kilómetros hasta 0,3 m. Estas ondas se utili- Figura 4. Espectro electromagnético.
zan en los sistemas de radio y televisión y se
generan fundamentalmente mediante circui-
tos electrónicos oscilantes.
Dependiendo de su frecuencia, las ondas de radiofrecuencia se suelen clasificar en varias
bandas. En la tabla 1 se muestra el rango de frecuencia, su denominación y la abreviatura
utilizada para designar el rango de frecuencias, así como la longitud de onda.

Frecuencia Denominación Abreviatura Longitud de onda


3-30 kHz Frecuencia muy baja VLF 100-10 km
30-300 kHz Frecuencia baja LF 10-1 km
300-3000 kHz Frecuencia media MF 1000-100 m
3-30 Mhz Frecuencia alta (onda corta) HF 100-10 m
30-300 Mhz Frecuencia muy alta VHF 10-1 m
300-3000 Mhz Frecuencia ultraelevada UHF 1 m-10 cm
3-30 Ghz Frecuencia superelevada SHF 10-1 cm
30-300 GHz Frecuencia extremadamente alta EHF 1 cm-1 mm
Tabla 1. Clasificación de las señales de radiofrecuencia.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 223


Volumen II. Física II

Como vemos, algunas de estas señales quedan dentro de otra región, denominada microon-
das, muy utilizada en determinados sistemas de comunicación.
– Microondas: la región de las microondas es la zona del espectro electromagnético que
comprende las ondas de frecuencia entre 10 y los 3 ´ 10 Hz. Sus longitudes de onda es-
9 11
–3
tán comprendidas entre los 0,3 m y 10 m. Estas ondas se generan con tubos de electrones
especiales como el klistrón o el magnetrón, que incorporan resonadores para controlar la
frecuencia, y dispositivos electrónicos de estado sólido especiales.
El campo de aplicación de las microondas es muy amplio; se utilizan en radio y televisión,
en radares, en comunicaciones vía satélite y en la investigación de las propiedades de la
materia, entre otras cosas.
Una aplicación relativamente reciente y muy extendida en los últimos años es la utilización
de las microondas para cocinar alimentos. El funcionamiento de un horno de microondas se
basa en la excitación provocada por las microondas en las moléculas de agua de los alimen-
tos. Ésta hace que las moléculas vibren y se eleve la temperatura de los alimentos.
Infrarrojo: la región del infrarrojo se extiende aproximadamente desde los 3 ´ 10 Hz
11

hasta alrededor de 4 ´ 10 Hz. El infrarrojo (abreviadamente IR) se suele dividir, a su vez,
14

en cuatro regiones:
Ø Infrarrojo cercano, que comprende la radiación próxima a la región del visible y cu-
yas longitudes de onda van desde los 780 nm hasta los 3000 nm.
Ø Infrarrojo intermedio, que comprende ondas electromagnéticas de longitudes de
onda entre 3000 y 6000 nm.
Ø Infrarrojo lejano, cuyas longitudes de onda van desde los 6000 a los 15000 nm.
Ø Infrarrojo extremo, que comprende la radiación de longitud de onda entre los 15000 nm
y 1 mm.
Las ondas comprendidas en esta región del espectro son producidas por osciladores de mi-
croondas (en el extremo de mayores longitudes de onda), por cuerpos incandescentes o
bien por moléculas.
Este tipo de ondas electromagnéticas tiene muchas aplicaciones en campos tan diversos
como la industria, la medicina y la astronomía. La propiedad de la radiación infrarroja de
atravesar la atmósfera, incluso brumosa, la hace muy útil para tomar fotografías, especial-
mente aéreas, de objetos lejanos, ocultos en situaciones en que la luz visible resulta disper-
sada. Esta técnica de fotografía infrarroja aérea se usa, por ejemplo, para observar las
cosechas y evaluar el daño producido por plagas o enfermedades en grandes zonas agríco-
las. En el campo de la minería, esta técnica se utiliza para detectar depósitos de minerales, y
en la industria se emplea para determinar la calidad de los productos.
Sus usos industriales son muy variados. Así, por ejemplo, se utiliza para el secado de barni-
ces y pinturas, maderas, cuero, y otros materiales; para la desecación de pastas alimenti-
cias; la deshidratación de frutas, verduras, etc.
En el campo de la medicina, el uso de técnicas infrarrojas permite observar patologías que
no pueden verse a simple vista ni en una radiografía. Por otro lado, los rayos infrarrojos se
utilizan para mejorar los trastornos circulatorios cutáneos, para favorecer la cicatrización y
para aliviar los dolores reumáticos.
Por último, podemos destacar la importancia que la radiación infrarroja ha tenido en la astrono-
mía, dando lugar a un campo denominado astronomía infrarroja, que consiste en el estudio de la
radiación infrarroja emitida por los cuerpos celestes. Así, por ejemplo, la observación de los ra-
yos infrarrojos emitidos por los planetas del Sistema Solar ha permitido conocer su composi-

224 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

ción atmosférica. También, la astronomía infrarroja ha proporcionado información sobre la


temperatura de las estrellas, sobre la distribución de la energía térmica en las nubes de polvo ga-
láctico e intergaláctico y sobre la estructura de nuestra galaxia.
– Luz o espectro visible: esta región del espectro electromagnético corresponde a una banda
estrecha de frecuencias comprendidas entre los 3,84 ´ 10 Hz y los 7,69 ´ 10 , que co-
14 14

rresponden a longitudes de onda entre los 780 nm y los 390 nm (ver tabla 2).
Las fuentes de estas ondas electromagnéticas son los átomos y moléculas y son el resultado de
los ajustes internos en el movimiento de sus componentes, fundamentalmente de los electrones.

Color n (THz = 1012 Hz) l (nm)

Rojo 384-482 780-622


Naranja 482-503 622-597
Amarillo 503-520 597-577
Verde 520-610 577-492
Azul 610-659 492-455
Violeta 659-769 455-390

Tabla 2. Frecuencia aproximada y rangos de longitud de onda


en el vacío para los distintos colores.

– Ultravioleta: la región del ultravioleta comprende la radiación electromagnética de fre-


cuencias situadas, aproximadamente, entre los 8 ´ 10 Hz y los 3 ´ 10 Hz (longitudes de
14 17

onda comprendidas entre 3,8 ´ 10 m y los 6 ´ 10 m). Se producen por átomos y molé-
–7 –10

culas en descargas eléctricas. Su fuente natural más importante es el Sol y, artificialmente,


pueden producirse mediante las lámparas de arco voltaico. Su energía es suficiente para io-
nizar los átomos de la atmósfera, lo que explica la existencia de la ionosfera, y, también, es
del orden de la energía involucrada en muchas reacciones químicas, lo que explica muchos
de sus efectos químicos.
La radiación ultravioleta puede ser dañina para los seres vivos, sobre todo cuando su longitud
de onda es baja. En los seres humanos, la exposición a radiación ultravioleta de longitudes de
onda inferiores a los 310 nm puede producir quemaduras, y una exposición prolongada du-
rante varios años puede provocar cáncer de piel.
Cuando algunos microbios y bacterias absorben radiación ultravioleta, las reacciones quí-
micas que tienen lugar como consecuencia de la ionización y la disociación molecular pue-
den destruirlos. Es por esta razón por lo que este tipo de radiación ultravioleta, sobre todo la
de longitudes de onda inferiores a 300 nm, se emplea para esterilizar superficies y en otras
aplicaciones médicas.
Por otro lado, desde la década de los sesenta se ha practicado la astronomía ultravioleta,
que consiste en la detección y estudio de la radiación ultravioleta emitida por los cuerpos
celestes. La investigación de la astronomía ultravioleta cubre casi todos los campos de la
astronomía, y ha permitido mejorar el conocimiento que tenemos del cosmos. Entre otras
cosas, los datos sobre la radiación ultravioleta han servido para profundizar en el conoci-
miento de la materia interestelar e intergaláctica, de las capas exteriores de las estrellas y de
las propiedades físicas de los quásares y de otras galaxias activas.
Puesto que gran parte de la radiación ultravioleta es absorbida por la capa de ozono atmos-
férico, la astronomía ultravioleta requiere la utilización de detectores montados en satélites
artificiales. Así, la mayor parte de las observaciones del ultravioleta medio (entre 300 y 200
nm) y lejano (entre 200 nm y aproximadamente 91 nm) se han efectuado desde telescopios
situados en la órbita terrestre. En los últimos años se han lanzado algunos telescopios con

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 225


Volumen II. Física II

esta finalidad, tales como el Hubble (1990) y el Explorador Ultravioleta Extremo (1992),
que puede explorar gran parte de la región ultravioleta desde 91 hasta 10 nm (llamada ultra-
violeta extremo), que es una zona difícil de detectar debido a la continua absorción de foto-
nes causada por la ionización de los átomos de hidrógeno y helio interestelares.
– Rayos X: los rayos X constituyen la zona del espectro electromagnético que abarca la ra-
diación comprendida entre los 3 ´10 Hz y los 5 ´ 10 Hz (l entre 10 m y 6 ´ 10 m).
17 19 –9 –12

Los rayos X fueron descubiertos de forma accidental en 1895 por Wilhelm Conrad Röntgen
(1845-1923), cuando estudiaba los rayos catódicos en un tubo de descarga gaseosa de alto
voltaje. A pesar de que el tubo estaba dentro de una caja de cartón negro, Röntgen observó
que una pantalla de platinocianuro de bario, que casualmente estaba cerca, emitía luz fluo-
rescente siempre que funcionaba el tubo. Esto le llevó a realizar otros experimentos adicio-
nales, a partir de los cuales concluyó que la fluorescencia se debía a una radiación invisible
más penetrante que la radiación ultravioleta, que denominó rayos X por su naturaleza des-
conocida. Más tarde, a esta radiación electromagnética se le denominó también rayos
Röntgen, en honor a su descubridor.
Estos rayos son emitidos por los átomos o moléculas cuando los electrones más internos
sufren transiciones. También pueden ser generados cuando se frena una partícula cargada
de alta energía, lo que hace que emita radiación. Esta radiación se denomina radiación de
frenado o bremsstrahlung. Esta es la manera en la que se producen los rayos X en los tubos
comerciales: un haz de electrones es acelerado por un potencial de miles de voltios, y este
haz se hace incidir sobre un blanco metálico.
Los campos de aplicación de los rayos X son fundamentalmente la investigación científica,
la industria y la medicina. En el campo de la investigación, en concreto en la cristalografía,
los métodos de difracción de rayos X han permitido la identificación de sustancias cristali-
nas y la determinación de su estructura, contribuyendo de forma decisiva en el avance de
esta rama científica. Los métodos de difracción de rayos X también han sido utilizados para
identificar sustancias químicas y determinar el tamaño de partículas ultramicroscópicas, y
en otras muchas aplicaciones en el campo de la investigación en física, química, mineralo-
gía, metalurgia y biología.
Además de su utilización como herramienta científica de investigación, los rayos X tam-
bién tienen múltiples aplicaciones en la industria. Por ejemplo, son tremendamente útiles
para examinar objetos, como piezas metálicas, sin destruirlos, lo que permite mejorar la
calidad de los productos, ya que las unidades defectuosas puedan eliminarse en el lugar
de producción. Son también utilizados, entre otras cosas, para identificar piedras precio-
sas falsas, detectar mercancías de contrabando en las aduanas o para localizar en los aero-
puertos objetos peligrosos en los equipajes. En el mundo del arte también son de gran
utilidad los rayos X de baja energía para determinar la autenticidad de obras de arte y para
restaurar cuadros.
La gran capacidad de penetración de los rayos X en los tejidos hizo que, desde muy poco
después de su descubrimiento, las fotografías de rayos X o radiografías fueran ampliamen-
te utilizadas en medicina como herramienta de diagnóstico de enfermedades o para detectar
patologías en órganos y tejidos.
En muchas ocasiones, para la obtención de una radiografía es necesario llenar algunas cavi-
dades con algún material de contraste, de manera que el órgano que se desea inspeccionar
aparezca con mayor claridad. Así, por ejemplo, el sulfato de bario, que es muy opaco a los
rayos X, se utiliza para la radiografía del aparato digestivo. Estas sustancias pueden tener
efectos secundarios graves, por lo que sólo deben ser empleados de forma muy cautelosa.
Por otra parte, en los últimos años, el uso rutinario de los rayos X se ha desaconsejado debi-
do a lo cuestionable que resulta su utilidad.

226 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

Un invento relativamente reciente que se emplea sin compuestos de contraste y que propor-
ciona imágenes claras de cualquier parte de la anatomía, incluidos los tejidos blandos, es el
escáner o aparato de tomografía axial computerizada. Este aparato, inventado en 1972 por
el ingeniero electrónico británico Godfrey Hounsfield, permite obtener la imagen de un
corte de espesor determinado del cuerpo con una claridad aproximadamente 100 veces ma-
yor y con la misma dosis de radiación que un aparato de rayos X convencional.
– Rayos gamma: esta región del espectro abarca la radiaciones electromagnéticas de más alta
energía. Sus frecuencias están comprendidas entre los 3 ´ 10 Hz y más de 3 ´ 10 Hz.
18 2

Estos rayos son emitidos por partículas que sufren transiciones en los núcleos atómicos y son
producidos por muchas sustancias radiactivas. También se encuentran en gran cantidad en
los reactores nucleares. Su energía es del orden de las involucradas en los procesos nucleares,
por lo que su absorción puede dar lugar a cambios nucleares. Aunque la mayoría de las sus-
tancias no absorben este tipo de radiación fácilmente, su absorción por organismos vivos pro-
duce graves efectos.

4. MEDIDAS DE PROTECCIÓN CONTRA LOS CAMPOS


ELECTROMAGNÉTICOS
Los efectos de las ondas electromagnéticas en los sistemas biológicos están determinados por la
intensidad del campo y por la frecuencia (energía de cada fotón). Atendiendo a su frecuencia y ener-
gía, las ondas electromagnéticas se clasifican en radiaciones ionizantes y radiaciones no ionizantes.
Las radiaciones ionizantes son las ondas electromagnéticas de frecuencia extremadamente alta
y comprenden a los rayos X y los rayos gamma. La energía de estas ondas es suficiente para producir
la ionización mediante la ruptura de los enlaces que mantienen unidas las moléculas en la célula. Son
capaces de destruir los tejidos y, por tanto, son radiaciones tremendamente perjudiciales para la sa-
lud. Sus fuentes naturales son las sustancias radiactivas. Si bien están presentes en gran medida en los
reactores nucleares, por lo general, no las encontramos habitualmente en nuestro medio ambiente.
Las radiaciones no ionizantes comprenden toda aquella zona del espectro electromagnético
cuya energía es lo suficientemente débil para no romper los enlaces atómicos. En orden decreciente
de frecuencias, las radiaciones no ionizantes están compuestas por: radiación ultravioleta, luz visible,
radiación infrarroja, microondas, campos de radiofrecuencias y campos de frecuencia extremada-
mente baja. Aún cuando sean de alta intensidad, las radiaciones no ionizantes no pueden provocar la
ionización de los sistemas biológicos. Sin embargo, se ha comprobado que estas radiaciones produ-
cen otros efectos biológicos como calentamiento, alteración de las reacciones químicas e inducción
de corrientes eléctricas en células y tejidos.

4.1. Efectos de las radiaciones ionizantes


Como ya hemos indicado, las radiaciones ionizantes interactúan con la materia, dando lugar al arran-
camiento de electrones que provocan la destrucción de las moléculas. Se generan así fragmentos denomi-
nados radicales libres, de gran actividad por su configuración electrónica, que reaccionan con las molécu-
las de alrededor. Estos radicales libres son los responsables de los efectos químicos de la radiación.
Por otra parte, las radiaciones pueden afectar directamente a las sustancias orgánicas, provocan-
do su alteración. Así, por ejemplo, en los ácidos nucleicos, pueden romper alguna cadena y alterar el
código genético de la célula afectada. En las proteínas, pueden romper uniones que afecten a sus pro-
piedades funcionales y, si se trata de una encima, puede perder su actividad. Por regla general, tanto
las sustancias que se forman directamente como los radicales libres pueden originar reacciones en ca-
dena con efectos muy variados.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 227


Volumen II. Física II

Los efectos de las radiaciones sobre las células pueden ser debidos a alteraciones bioquímicas
que provocan la inhibición de funciones, a la formación de sustancias tóxicas resultantes de la altera-
ción de sustancias normales por los radicales libres, a la difusión de sustancias como enzimas libera-
das por destrucción de organelas, etc. Estas manifestaciones pueden presentarse de forma inmediata
o tardía y ser reversibles o irreversibles.
Se denomina dosis absorbida a la energía absorbida por unidad de masa de material, en nuestro
caso de tejido. En el Sistema Internacional, la unidad de dosis absorbida se denomina gray (Gy) y
equivale a la absorción de 1 julio de energía por kilogramo de material. En general, la gravedad de la
lesión depende de varios factores, como son el tipo de radiación, la sensibilidad del tejido a la radia-
ción y la dosis absorbida. Además, también depende de la intensidad de la dosis, definida como la do-
sis absorbida por unidad de tiempo y que se mide en grays por segundo (Gy/s). Es decir, que la grave-
dad de las lesiones dependen de la velocidad de absorción de la radiación. Así, los efectos biológicos
de una misma dosis de radiación varían de forma considerable según el tiempo de exposición. Una
irradiación rápida provoca la muerte de las células y sus efectos pueden hacerse visibles en horas,
días o semanas. Una exposición prolongada, aún a dosis elevadas, es tolerada mejor por el organismo
y es más fácil de reparar. Aunque, si la cantidad de radiación absorbida es suficiente para causar tras-
tornos graves, la recuperación será lenta e incluso imposible.
La exposición de todo el cuerpo a dosis altas de radiación ionizante produce lesiones caracterís-
ticas muy graves que desembocan en la muerte. Así, dosis superiores a 40 Gy producen un deterioro
severo en el sistema vascular humano, que desemboca en edema cerebral, trastornos neurológicos y
coma profundo que provocan la muerte en un plazo de 48 horas siguientes a la irradiación. Con dosis
entre 10 y 40 Gy de radiación, los trastornos vasculares son menos serios, pero se produce la pérdida
de fluidos y electrolitos que pasan a los espacios intercelulares y al tracto gastrointestinal. El indivi-
duo muere en los diez días siguientes a consecuencia del desequilibrio osmótico, del deterioro de la
médula ósea y de la infección terminal. Si la cantidad absorbida oscila entre 1,5 y 10 Gy, se destruye
la médula ósea, provocando infección y hemorragia. La persona puede morir cuatro o cinco semanas
después de la exposición.
Por otro lado, las exposiciones a las radiaciones ionizantes en dosis relativamente altas (más de
1 Gy) provocan en los seres vivos daños a medio y largo plazo. El efecto retardado más importante es
el aumento de la incidencia de casos de cáncer y leucemia.
Por todo lo visto anteriormente, es obvio que las radiaciones ionizantes constituyen un riesgo
para la salud de los seres vivos y, por consiguiente, es necesario adoptar las medidas de protección
adecuadas en aquellas instalaciones que dispongan de fuentes generadoras de este tipo de radiación.
Entre ellas se encuentran los reactores nucleares para producción de energía, instalaciones médicas
de radioterapia o radiodiagnóstico y centros de investigación. La principal medida de seguridad con-
siste en el blindaje adecuado de las fuentes generadoras y edificios circundantes, de manera que la ex-
posición en el medio ambiente quede por debajo de los límites admisibles.
Además, en aquellos centros en que se trabaje con material radiactivo, se deben adoptar una serie
de medidas adicionales con el objeto de no sobrepasar los niveles máximos admisibles. Un criterio que
se ha de seguir en las zonas de trabajo con material radiactivo es que las superficies sean lisas y fáciles
de limpiar, evitando la existencia de rendijas y rincones. Otras medidas importantes son: renovar el aire
convenientemente, evitar que las ropas de trabajo salgan del laboratorio y no comer ni fumar en los la-
boratorios. Por otro lado, una de las condiciones que deben cumplir todos los centros en los que se ma-
nejen materiales radiactivos es poder detectar cualquier contaminación o sobreexposición a que pudiera
estar sometido el personal. Esta exposición se puede medir mediante las denominadas películas exposi-
toras, que consisten en pequeños trozos de película fotográfica que, convenientemente protegidas de la
luz, se llevan sujetos a la ropa, de manera que están expuestos a la radiación ionizante que le pudiera lle-
gar. La dosis recibida se determina periódicamente observando el estado de la película.
Una última medida que es necesario adoptar es la eliminación o el almacenamiento adecuado de
los residuos radiactivos generados. Por regla general, estos residuos son enterrados en cámaras espe-

228 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

cialmente diseñadas a este efecto. No obstante, es un problema de gran trascendencia que puede afec-
tar a las generaciones futuras y que debe ser abordado con todo rigor, seriedad y sin demagogia por
parte de los gobiernos y de la sociedad en su conjunto.

4.2. Efectos de las radiaciones no ionizantes


Como ya hemos visto anteriormente, las radiaciones no ionizantes comprenden toda aquella zona
del espectro electromagnético cuya energía es relativamente baja para romper los enlaces atómicos. En
orden decreciente de frecuencias, las radiaciones no ionizantes están compuestas por: radiación ultravio-
leta, luz visible, radiación infrarroja, microondas, campos de radiofrecuencias y campos de frecuencia ex-
tremadamente baja. A continuación, vamos a estudiar los efectos que este tipo de radiación producen en
los seres vivos.

4.2.1. Radiación ultravioleta


La principal fuente generadora de este tipo de radiación es el sol, aunque se puede obtener artifi-
cialmente mediante diversos tipos de lámparas como las de mercurio, las halógenas y las denomina-
das lámparas solares.
La atmósfera, en concreto la capa de ozono, absorbe la mayor parte de esta radiación que proviene
del sol. Sin embargo, en los últimos años se ha detectado un descenso en el grosor de dicha capa, lo que
ha suscitado un amplio debate en la opinión pública ya que puede tener consecuencias para la salud.
Los efectos más importantes de estas radiaciones son su acción fotoquímica como, por ejemplo,
la transformación del ergosterol y del 7-dehidro-colesterol en sustancias de actividad antirraquítica
(vitaminas D2 y D3), y los efectos bactericidas.
Los rayos ultravioleta son reflejados parcialmente por la piel, y la parte que penetra es absorbida por
ella sin llegar a más de 2 mm de profundidad. Sus efectos inmediatos en la piel son eritemas, exfoliación y
quemaduras. En los ojos, los efectos más comunes son queratitis y conjuntivitis. A más largo plazo, los
efectos acumulados se asocian al cáncer de piel. No obstante, en la actualidad no hay estudios que deter-
minen de forma precisa la relación causa-efecto, en cuanto a dosis y períodos de exposición y latencia.
La protección contra la radiación ultravioleta procedente del sol pasa por la reducción de los pe-
ríodos de exposición y por la utilización de prendas de vestir y cremas protectoras para las zonas des-
cubiertas, como manos y cara. En cuanto a las fuentes industriales de rayos ultravioleta, deben ser
apantalladas mediante un adecuado diseño. Por otra parte, deberá procurarse que la radiación se en-
cuentre confinada en aquellas regiones de interés, siendo preciso la utilización de vestidos y gafas
protectoras en caso contrario.

4.2.2. Radiación infrarroja


Al igual que para la radiación ultravioleta, la fuente natural de la radiación infrarroja es el sol.
Los únicos efectos biológicos que pueden producir los rayos infrarrojos son los derivados del
calor que puedan generar en los tejidos expuestos como, por ejemplo, la vasodilatación. En conse-
cuencia, los riesgos potenciales para la salud en condiciones normales son mínimos.
No obstante, en dosis elevadas, la radiación infrarroja puede producir quemaduras, tanto en la
piel como en la cornea o la retina. Este tipo de situación puede producirse por la exposición a la radia-
ción procedente de fuentes artificiales utilizadas en algunos procesos industriales, por lo que en estos
casos será necesario adoptar medidas de aislamiento de la fuente o de protección del personal me-
diante trajes y gafas adecuados, a fin de evitar dichos efectos nocivos.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 229


Volumen II. Física II

4.2.3. Campos electromagnéticos de radiofrecuencia


Sin duda alguna, la exposición a los campos electromagnéticos en la región de las radiofrecuen-
cias es un tema que recientemente ha suscitado una creciente preocupación y un amplio debate.
Esto se ha debido a que en los últimos años hemos asistido a una revolución tecnológica que ha
dado lugar a un crecimiento importante de fuentes de campos electromagnéticos, tales como aparatos
de radio y televisión, ordenadores, teléfonos móviles, hornos de microondas, radares y otros muchos
equipos utilizados en la industria, la medicina y el comercio. Todos estos aparatos y sistemas han
contribuido de forma inequívoca a mejorar la calidad de vida de la sociedad occidental. Pero, por otra
parte, se ha planteado la posibilidad de que la exposición a los campos electromagnéticos emitidos,
por ejemplo, por líneas de alta tensión, radares, teléfonos móviles y sus estaciones base, pueda tener
efectos perjudiciales para la salud.
Algunos informes científicos han sugerido que la exposición a campos electromagnéticos
emitidos por estos aparatos pueden tener una incidencia en la aparición de algunas enfermedades
como el cáncer, en la reducción de la fecundidad, en la pérdida de memoria y cambios en el com-
portamiento y desarrollo en los niños. A consecuencia de esto, y a pesar de que la amenaza real de
riesgo sanitario no es conocida, en muchos países, la construcción de nuevos tendidos eléctricos y
de redes de telefonía móvil ha encontrado una importante oposición. Por otra parte, las medidas
para reducir de forma sensible la intensidad de los campos electromagnéticos ambientales hasta ni-
veles por debajo de los actuales son costosas. Sin embargo, estas medidas y otras serán necesarias
si los riesgos para la salud son reales.
Hoy en día, los países fijan sus propios valores máximos de exposición a campos electromagnéticos,
aunque la mayoría de ellos sigue las directrices dadas por la Comisión Internacional de Protección contra
las Radiaciones No Ionizantes (CIPRNI). Esta comisión es una organización no gubernamental, reconoci-
da por la Organización Mundial de la Salud (OMS), que evalúa los resultados científicos y, en base a ellos,
recomienda unos límites de exposición que son revisados periódicamente. Estos límites son los que se
muestran en la tabla 3. En ella se muestran las unidades en que se miden, la magnitud utilizada para cuan-
tificar la exposición a la radiación electromagnética y los límites máximos recomendados.

Energía eléctrica Telefonía móvil Horno de microondas

Frecuencia 50 Hz 50 Hz 900 Mhz 1.8 Ghz 2.45 Ghz


Magnitud E B I I I
(V/m) (mT) (W/m2) (W/m2) (W/m2)
Exposición general 5000 100 4.5 9 10
Exposición laboral 10000 500 22.5 45

Tabla 3. Valores máximos de exposición a los campos electromagnéticos.

Ante la preocupación por los efectos biológicos de la radiación electromagnética mostrada tanto
por los ciudadanos como por parte de muchos gobiernos, la Organización Mundial de la Salud puso
en marcha a finales de los años noventa un proyecto internacional para evaluar estos efectos sanita-
rios y ambientales que denominó Proyecto Internacional CEM. Con este proyecto, se pretende impul-
sar la investigación y obtener resultados que permitan establecer con rigor el riesgo que supone la ex-
posición a los campos electromagnéticos de radiofrecuencias. A partir de esto se podrán establecer
los criterios de protección adecuados contra estos campos electromagnéticos.
Según este proyecto, por campos de radiofrecuencias se entienden los campos electromagnéticos
con frecuencias comprendidas entre los 300 Hz y los 300 Ghz (3 ´ 1011 Hz); por tanto, comprenden

230 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

aquellas ondas electromagnéticas desde las radiofrecuencias hasta las microondas. Los efectos de estos
campos en sistemas biológicos dependen de la frecuencia y la intensidad:
– Campos de frecuencia superior a 10 Ghz: los campos de frecuencias superiores a 10 Ghz
son absorbidos por la superficie de la piel y, por consiguiente, es muy poca la energía que
llega a los tejidos interiores del organismo.
Para medir la dosis en este rango de frecuencias se utiliza como cantidad básica la intensidad
2
de la onda medida en vatios por metro cuadrado (W/m ) o, para campos débiles, en milivatios
2 2
por metro cuadrado (mW/m ) o en en microvatios por metro cuadrado (mW/m ).
Para que estos campos produzcan efectos perjudiciales, como cataratas oculares o quema-
2
duras en la piel, se requieren potencias superiores a 1000 W/m , potencias que están muy
lejos de las encontradas en el ambiente en la vida cotidiana. Sólo en las inmediaciones de
los radares más potentes podemos encontrar estas densidades de energía, pero estas zonas
están restringidas y su acceso está prohibido.
– Campos de frecuencias comprendidas entre 1 Mhz y 10 Ghz: los campos de radiofre-
cuencias entre 1 MHz y 10 Ghz penetran en los tejidos expuestos y producen calentamiento
debido a la absorción de energía. La profundidad de penetración depende de la frecuencia,
siendo mayor a frecuencias bajas.
La absorción de la energía por los tejidos se mide como coeficiente de absorción específica
en una masa de tejido determinada, y es la cantidad básica utilizada para determinar la dosis
de radiación. Su unidad en el SI es el vatio por kilogramo W/kg.
Para que se produzcan efectos perjudiciales para la salud en las personas expuestas a cam-
pos de estas frecuencias se necesitan valores del coeficiente de absorción por encima de los
4 W/kg. Estos niveles distan mucho de los encontrados en la vida cotidiana y sólo se en-
cuentran a decenas de metros de las más potentes antenas de frecuencia modulada situadas,
por regla general, en el extremo de torres muy altas e inaccesibles.
En este rango se encuentran los sistemas actuales de telefonía móvil, que funcionan a fre-
cuencias comprendidas entre los 800 MHz y los 1.8 Ghz.
Muchos han sido los estudios que se han realizado sobre los efectos que la exposición a
campos de intensidades bajas tiene sobre la salud. Se ha señalado que estos campos alteran
la actividad del cerebro, que modifican la tasa de proliferación de las células, que alteran la
actividad enzimática o afectan al ADN de las células. En realidad, todos estos efectos no
están comprobados y su incidencia sobre la salud humana tampoco se conoce, por lo que no
se tiene ninguna base sólida para restringir la exposición a este tipo de campos.
Por otra parte, también se ha asociado el crecimiento de casos de cáncer con la exposición a
este tipo de campos electromagnéticos. En la actualidad, los datos disponibles indican que
es poco probable que exista esta relación causa-efecto y que la exposición a campos de ra-
diofrecuencia origine o favorezca el desarrollo de ciertos tipos de cáncer.
Es necesario destacar que la mayoría de estos estudios se han realizado en condiciones de ex-
posiciones de corta duración a campos de elevada intensidad, situación que no se da normal-
mente en la vida cotidiana. Por otra parte, la aparición de los teléfonos móviles han puesto de
manifiesto la necesidad de realizar estudios de exposición localizada a este tipo de campos.
Para la protección contra estos campos, la medida más sencilla consiste en limitar el acceso
a las zonas donde se exceda de los límites fijados, colocando vallas o barreras.
– Campos de frecuencias inferiores a 1 MHz: este tipo de campos no producen calenta-
miento apreciable, sino que más bien inducen cargas y corrientes que pueden estimular cé-
lulas de tejidos, como los nervios o músculos. Por tanto, su efecto se mide en función de la
2
densidad de corriente, en amperios por metro cuadrado A/m .

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 231


Volumen II. Física II

Puesto que las corrientes eléctricas están presentes en el organismo como parte normal de al-
gunos procesos, la inducción de corrientes por encima de estos niveles base en el organismo
pueden dar lugar a efectos perjudiciales. De hecho, las corrientes básicas de algunos procesos
2 2
vitales son del orden de 10 mA/m , por lo que se estima que corrientes superiores a 10 mA/m
pueden dar lugar a un funcionamiento anormal del organismo y a convulsiones musculares.
La principal fuente natural de los campos de radiofrecuencia es el sol, y la intensidad de
2
los rayos solares en esta frecuencia está por debajo de los 0,01 mW/m . Las fuentes artifi-
ciales de este tipo de radiación son los distintos aparatos y sistemas que nos encontramos
en nuestro entorno inmediato, en el hogar o en el lugar de trabajo. Las principales fuentes
de nuestro entorno cercano lo constituyen los receptores de radio y televisión y de equi-
pos de comunicación. Un estudio americano fija en unos 50 mW/m el nivel de intensidad
2

registrado en las grandes ciudades. En el hogar, las fuentes de radiofrecuencia son muy
variadas y entre ellas se encuentran las televisiones, los hornos de microondas y los telé-
fonos móviles. Por regla general, el nivel de radiofrecuencias de los electrodomésticos es
sólo del orden de unas decenas de mW/m . En cuanto al campo de la industria, en algunos
2

procesos se utilizan campos de radiofrecuencias, por ejemplo, en el sellado de plásticos y


la laminación de madera, en los hornos de microondas, etc. En algunos casos, la exposi-
2
ción del personal puede ser del orden de decenas de W/m .
Con el objetivo de que la exposición a los campos de radiofrecuencias no tenga efectos no-
civos para la salud, se han establecido una serie de normas internacionales que se elaboran
tomando como base los trabajos científicos sobre los efectos de la radiación. En la tabla 3 se
muestran los valores máximos recomendados.

4.2.4. Campos de frecuencia extremadamente baja


Estos campos electromagnéticos son los de frecuencias que están por debajo de los 300 Hz. A
estas frecuencias, las longitudes de onda son del orden de miles de kilómetros y, en la práctica, los
campos eléctricos y magnéticos actúan de forma independiente.
Las fuentes de este tipo de campos electromagnéticos las constituyen los sistemas de genera-
ción, transmisión y utilización de la energía eléctrica, es decir, las líneas de transmisión de alta ten-
sión y las estaciones transformadoras. Bajo una línea de alta tensión, el campo eléctrico puede alcan-
zar un valor de 12 kV/m y el magnético de 30 mT, mientras que en las estaciones y subestaciones ge-
neradoras estos valores pueden alcanzar, respectivamente, los 16 kV/m y los 270 mT.
En las viviendas, la intensidad de los campos depende de varios factores, como el número y tipo
de electrodomésticos conectados y la configuración de la instalación de los cables. En la mayoría de
los electrodomésticos, los campos eléctricos son inferiores a 500 V/m y los campos magnéticos, por
debajo de 150 mT, aunque estos valores pueden ser sensiblemente mayores a muy corta distancia de
los electrodomésticos.
El único efecto que estos campos pueden tener sobre los organismos vivos es la inducción de
campos y de corrientes eléctricas en ellos. Sin embargo, a los niveles que los encontramos normal-
mente en el medio ambiente, estas corrientes son inferiores a las corrientes generadas espontánea-
mente por el organismo.
De los datos que se dispone en la actualidad, se deduce que la exposición a campos eléctricos
inferiores a 20 kV/m apenas tiene efectos sobre los sistemas biológicos. Pero tampoco está demos-
trado que a intensidades superiores a los 100 kV/m tengan algún efecto sobre la reproducción y de-
sarrollo de los animales. Con respecto a los campos magnéticos, tampoco hay pruebas experimen-
tales que indiquen que los campos de frecuencia extremadamente baja afecten a la fisiología y al
comportamiento humano, en cuanto a las intensidades encontradas normalmente en el hogar y en el
medio ambiente.

232 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Ondas electromagnéticas

Tampoco existen pruebas convincentes que indiquen que la exposición a estos campos produzca
daños moleculares y alteraciones en el ADN, por lo que resulta altamente improbable que puedan de-
sencadenar procesos cancerígenos. No obstante, se realizan estudios que sirven para determinar si la
exposición puede influir en la estimulación del cáncer. Recientes estudios con animales indican que
no existe influencia alguna.
En 1996, un estudio realizado por la Academia Nacional de Ciencias de los Estados Unidos in-
dicaba que la circunstancia de habitar cerca de una línea eléctrica pudiera estar asociada a un alto
riesgo de leucemia infantil, aunque no de otros tipos de cáncer. Sin embargo, estos mismos estudios
no revelaron ninguna conexión entre el cáncer y la exposición de los adultos en sus domicilios.
Estos estudios se incrementaron en los años posteriores y, en 1998, el National Institute of Environ-
mental Health Sciences (NIEHS) de los Estados Unidos, sobre la base del análisis de los resultados
de estos trabajos y siguiendo los criterios de Centro Internacional de Investigaciones sobre el Cán-
cer (CIIC), concluyó que los campos electromagnéticos de frecuencia extremadamente baja debían
considerarse como un posible carcinógeno humano.
Esta denominación es una de las que utiliza el CIIC para clasificar la evidencia científica de una
posible carcinogenicidad y que, en orden inverso de importancia, es: no clasificable, probablemente
no carcinógeno para las personas, posible carcinógeno humano, probablemente carcinógeno para las
personas y carcinógeno para las personas. La clasificación de posible carcinógeno humano corres-
ponde a aquellos agentes cuya carcinogenicidad está escasamente probada en las personas e insufi-
cientemente probada en experimentos con animales. Es decir, que esta clasificación valora la solidez
de las pruebas científicas y no el grado de carcinogenicidad o riego de cáncer vinculado al agente. Por
consiguiente, la denominación dada a los campos de frecuencia extremadamente baja significa que
hay muy pocas evidencias experimentales de que la exposición a estos campos pueda ser causa de
cáncer. Por tanto, es necesario realizar más investigaciones que permitan esclarecer con rigor y fiabi-
lidad esta cuestión tan importante.
Debido a la falta de pruebas concluyentes, en principio, no es necesario adoptar medidas de pro-
tección para el público en general. Sin embargo, para el personal que trabaje en instalaciones con
campos eléctricos elevados, será necesario utilizar aislantes que apantallen los efectos del campo. En
cuanto a los campos magnéticos, no existe medida alguna que pueda utilizarse para protegerse de
ellos, por lo que, en zonas de campos intensos el único método de protección posible es la limitación
del acceso a la zona.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 233


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall. Upper Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall. México, 1988.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Holton, G. Y Brush, S. G.: Introducción a los conceptos y teorías de las cien-
cias físicas. Editorial Reverté, S. A. Barcelona, 1989.
Lorrain, P. y Corson, D. R.: Campos y ondas electromagnéticos. Selecciones
Científicas. Madrid, 1972.
Purcell, E. M.: Electricidad y magnetismo. Editorial Reverté. Barcelona, 1980.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté. Barcelo-
na, 1986.
Tipler, P. A.: Física. Editorial Reverté. Barcelona, 1992.

234 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

26
Óptica geométrica. Principio
de Fermat. Formación de
imágenes en espejos y lentes.
Análisis y construcción de los
instrumentos ópticos. El ojo y
los defectos de la visión

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. ÓPTICA GEOMÉTRICA
1.1. Principio de Fermat
1.2. Leyes de la óptica geométrica
1.2.1. Propagación rectilínea de la luz
1.2.2. Conservación del plano de incidencia
1.2.3. Ley de la refracción de Snell
1.2.4. Ley de la reflexión
1.3. Sistemas ópticos
1.3.1. Objeto e imagen
1.3.2. Condición de stigmatismo
1.3.3. Sistemas ópticos ideales

2. FORMACIÓN DE IMÁGENES EN ESPEJOS Y LENTES


2.1. Espejos
2.1.1. Espejos planos
2.1.2. Espejos esféricos
2.2. Lentes
2.2.1. Refracción en una superficie esférica
2.2.2. Lentes delgadas
2.2.3. Combinación de lentes delgadas

3. EL OJO Y LOS DEFECTOS DE LA VISIÓN


3.1. Defectos visuales
3.1.1. Miopía
3.1.2. Hipermetropía
3.1.3. Astigmatismo

4. ANÁLISIS Y CONSTRUCCIÓN DE LOS INSTRUMENTOS ÓPTICOS


4.1. Microscopio simple o lupa
4.2. Microscopio compuesto
4.3. Telescopios
4.3.1. Telescopios refractores o anteojos
4.3.2. Telescopios reflectores
4.3.3. Binoculares
4.4. Cámara fotográfica

BIBLIOGRAFÍA

236 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

1. ÓPTICA GEOMÉTRICA
La luz es la porción del espectro electromagnético que es visible por el ojo humano y cubre una
banda estrecha de frecuencia comprendida entre 3.84 ´ 1014 Hz y 7.69 ´ 1014 Hz, en donde las dife-
rentes frecuencias corresponden a los distintos colores que podemos apreciar.
La ciencia que estudia las propiedades y la naturaleza de la luz recibe el nombre de óptica. Es
frecuente dividir la óptica en dos categorías: la óptica geométrica, que se ocupa solamente de las
cuestiones relacionadas con la propagación de la luz y estudia las propiedades de los instrumentos óp-
ticos y de las lentes y espejos con que se construyen, y la óptica física, que trata de la naturaleza de la
propia luz y de su interacción con la materia.
La propagación de la luz, como la de cualquier onda electromagnética, viene descrita por las
ecuaciones de Maxwell,
r cuya solución
r nos permite conocer en cualquier punto del espacio las com-
ponentes eléctrica E y magnética B del campo electromagnético. A partir de estas componentes pode-
mos conocer todas las magnitudes de interés de la onda luminosa como la amplitud, la fase y la polari-
zación. No obstante, la resolución de las ecuaciones de Maxwell, además de ser complicada, propor-
ciona una información que no es necesaria. A menudo, esta información puede obtenerse por un
método geométrico sencillo que denominamos óptica geométrica. Este método fue desarrollado mu-
cho antes de que la luz se describiese como una onda electromagnética, y sus resultados se han de-
mostrado que son válidos en aquellas situaciones en que las dimensiones de los objetos considerados
son mucho mayores que la longitud de onda.
La óptica geométrica puede desarrollarse tomando como base los conceptos de rayo de luz, para
caracterizar a la onda de luz, y de índice de refracción, para caracterizar a los medios materiales; y de
un único postulado físico: el principio de Fermat.
– Rayo de luz. El concepto básico de la óptica geométrica es el de rayo de luz. Un rayo de luz
es una línea en el espacio que corresponde a la dirección del flujo de la energía radiante.
Consideremos un punto emisor de luz O situa-
do ante una pantalla opaca con un orificio (Fi- Rayo de luz
gura 1). El punto O y el orificio determinan un
cono de luz que recibe el nombre de haz. Si dis- Haz
minuimos el tamaño de orificio podemos obte- O
ner haces estrechos que denominamos pinceles.
En el límite en el que el diámetro del orificio
tiende a cero obtendríamos una situación ideali-
zada que consistiría en un haz infinitamente pe-
queño, que constituye un rayo de luz. Por tanto,
el concepto de rayo es más un instrumento ma- Rayo
temático que una entidad física. No obstante, en
la práctica pueden obtenerse haces de luz muy
estrechos como por ejemplo un haz de láser. Figura 1. Haz y rayo de luz.
Por otra parte, cuando las dimensiones de un
orificio son muy pequeñas, del orden de la longitud de onda, el fenómeno de difracción ad-
quiere importancia y modifica las leyes de la óptica geométrica. En lo que sigue considera-
remos situaciones en las que las dimensiones de los objetos son siempre mucho mayores
que la longitud de onda, por lo que ignoraremos el fenómeno de difracción.
– Índice de refracción. Tal como vimos en el tema dedicado a las ondas electromagnéticas, la
velocidad de propagación depende del medio material en que tiene lugar y viene dada por:
1
u= (1)
em

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 237


Volumen II. Física II

en donde e y m son la permitividad y la permeabilidad del medio, respectivamente.


En el caso de que la propagación tenga lugar en el vacío, la velocidad de propagación se de-
signa por la letra c y viene dada por:
1
c= (2)
e0 m0

cuyo valor aceptado es de c = 2.99793 ´ 10 m/s, y en donde e0 y m0 son la permitividad y la


8

permeabilidad del vacío, respectivamente.


Desde el punto de vista de la óptica, la velocidad de propagación de la luz en un medio ma-
terial se caracteriza por un escalar n denominado índice de refracción del medio y que se
define como la relación entre la velocidad de la luz en el vacío y la velocidad que lleva en
dicho medio:
c
n= (3)
u

Teniendo en cuenta los valores de las velocidades dados por (1) y (2), el índice de refrac-
ción puede expresarse en función de las permitividades eléctricas y las permeabilidades
magnéticas como:

c em
n= = (4)
u e0 m0

En términos de la permitividad relativa er = e/e0 y de la permeabilidad relativa mr = m/m0


queda
c
n= = er mr (5)
u

Si tenemos en cuenta ahora que para la inmensa mayoría de las sustancias mr » 1, resulta que:
c
n= = er (6)
u

Si la velocidad de la luz en un medio es la misma en todos sus puntos y en todas direccio-


nes, decimos que el medio es homogéneo e isótropo, y su índice de refracción será un es-
calar. Si, por el contrario, la velocidad de propagación de la onda depende de la dirección
espacial en que tenga lugar, decimos que el medio es anisótropo, y, en este caso, el índice
de refracción será una magnitud tensorial. Por ejemplo, los vidrios ópticos son medios
isótropos, y los cristales de sustancia que no cristalizan en el sistema regular son anisótro-
pos. Por último, si el índice de refracción cambia su valor de un punto a otro, pero en cada
uno de ellos es independiente de la dirección, decimos que el medio es heterogéneo. Un
ejemplo de este tipo de medios es la atmósfera, en la que el índice de refracción cambia
con la altura.
Por regla general, la velocidad de una onda depende de la frecuencia de dicha onda, por lo
que su índice de refracción será también una función de la frecuencia. A este fenómeno se
le denomina dispersión. Por consiguiente, cuando decimos que un medio tiene un índice de
refracción determinado se sobrentiende que nos referimos a su valor para una luz de una
longitud de onda o frecuencia dada. El único medio no dispersivo es el vacío, aunque en la
práctica también pueden considerarse no dispersivos los gases a bajas presiones.

238 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

1.1. Principio de Fermat


En el tema 18 se vio que la propagación de una onda cualquiera puede describirse mediante el
principio de Huygens. También es posible describir la propagación de la luz mediante el principio de
Fermat enunciado en 1662 por el matemático francés Pierre de Fermat (1601-1665).
El principio de Fermat se basa en el principio filosófico de mínimo que con tanto éxito se ha
aplicado en diversos campos de la física: principio de mínima acción de Maupertuis en mecánica, o el
principio de mínima energía. Pierre de Fermat aplicó este mismo principio a la óptica y enunció que:
El trayecto seguido por la luz al propagarse de un punto a otro es tal que el tiem-
po empleado en recorrerlo es mínimo.
En algunos casos ocurre que el tiempo, en vez de ser un mínimo, es un máximo, por lo que el
principio de Fermat no recoge estas situaciones. Por ello es conveniente enunciar el principio de Fer-
mat de forma más general como:
El trayecto seguido por la luz al propagarse de un punto a otro es tal que el tiempo
empleado en recorrerlo es estacionario respecto a posibles variaciones en la trayectoria.
Otra forma de enunciar el principio de Fermat es mediante el concepto de camino óptico. Si en
un medio homogéneo de índice de refracción n la luz recorre un trayecto de longitud s, se define el ca-
mino óptico (L) como:
(L) = ns (7)

Si la trayectoria seguida por la luz atraviesa diferentes medios de índices de refracción ni, recorriendo
en cada uno de ellos una longitud si, el camino óptico vendrá dado por:
(L) = n1s1 + n2s2 + n3s3 + ... = å nisi (8)

Si el medio es heterogéneo y el índice de refracción cambia de un punto del espacio a otro, podremos
escribir para el camino óptico entre dos puntos A y B:

( L ) = òA nds
B
(9)

Sustituyendo en esta expresión la relación (3) obtenemos que:


ds
( L ) = còA = còA dt = ct
B B
(10)
u

Es decir, que el camino óptico es igual al producto de la velocidad de la luz por el tiempo que tarda en
recorrer la trayectoria.
De acuerdo con las expresiones (10) y (9) el tiempo empleado por la luz viene dado por:
1 1 B
t = ( L ) = òA nds (11)
c c

El principio de Fermat establece que el tiempo es estacionario con respecto a posibles variaciones en
la trayectoria. Matemáticamente esto significa que:
1 1
dt = d( L ) = dòA nds = 0
B
(12)
c c

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 239


Volumen II. Física II

Por lo tanto, la forma matemática del principio de Fermat es:


d( L ) = dòA nds = 0
B
B (13)
l + dl
Esta expresión indica que si la luz va desde un punto A a
l otro punto B por una determinada trayectoria l, ésta es tal que el
A camino óptico a lo largo de ella es un extremal comparado con
otras trayectorias geométricas muy próximas a l que pasan por A
Figura 2. Camino óptico. y B y que no son trayectorias reales. Es decir, que si pasamos de
la trayectoria l a otra trayectoria l + dl (Figura 2) por variacio-
nes infinitesimales de primer orden de los parámetros que definen l, el camino óptico se mantendrá es-
tacionario, o sea, su variación será nula si se desprecia infinitésimos de segundo orden y superiores.
Por consiguiente, el principio de Fermat puede enunciarse en función del camino óptico como sigue:
El camino óptico a lo largo de una trayectoria real de luz es estacionario, es de-
cir, un extremal.

1.2. Leyes de la óptica geométrica


La óptica geométrica se suele construir tomando como axiomas la propagación rectilínea de la luz,
la conservación del plano de incidencia y las leyes de la reflexión y la refracción, a la que se le añade el
postulado de no interacción de los rayos de luz. Sin embargo, también puede construirse tomando como
único postulado el principio de Fermat y obteniendo a partir de él las leyes citadas anteriormente.

1.2.1. Propagación rectilínea de la luz


Consideremos una superficie S que separa dos medios homogé-
A
^
u neos de índices de refracción n y n´ y supongamos un rayo de luz que
sale del punto A se refracta en el punto P y llega al punto B, como se
n muestra en la figura 3. Sea u$ N el vector unitario en la dirección normal a
la superficie en el punto P y definido en el sentido de la dirección de la
P proyección del rayo sobre él, es decir, en el sentido de la propagación.
Q drP
Según el principio de Fermat, la trayectoria seguida por el rayo de
luz desde el punto A hasta el punto P ha de ser tal que el camino óptico
n’ sea mínimo:
^
u’
^
uN ( L ) = n AP (14)
B
Si n es constante, el camino óptico es mínimo si AP tiene longitud míni-
Figura 3. Superficie de ma, por lo que deberá ser un segmento recto. Por consiguiente, las tra-
separación entre dos medios. yectorias de la luz en un medio homogéneo e isótropo son rectilíneas.

1.2.2. Conservación del plano de incidencia


Si la trayectoria real seguida por la luz es la trayectoria APB, según el principio de Fermat, al pa-
sar a otra trayectoria infinitamente próxima, como la AQB, por un desplazamiento infinitesimal de
primer orden desde el punto P al Q, la variación del camino óptico será nula.
r r r r
Tomando un origen cualquiera en el espacio, y designando por rA , rB , rP y rQ a los vectores posi-
ción de los puntos A, B, P y Q, el camino óptico en la trayectoria APB será:
r r r r
( L ) = nu$ ×( rP – rA )+ n' u'
$ ×( rB – rP ) (15)

240 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

$ son los vectores unitarios en las direcciones que van desde A a P y desde P a B.
en donde u$ y u'
Si se desplaza el punto P hasta el punto Q sobre la superficie, la variación del camino óptico ven-
drá dada por:
r r r r
d( L ) = nu$ ×d( rP – rA )+ ndu$ ×( rP – rA )+
r r r r (16)
+n'u' $ ×d( rB – rP )+ n'du'
$ ×( rB – rP )

Ahora bien, puesto que los puntos A y B son fijos, tendremos que:
r r r
d( rP – rA ) = drP
r r r
d( rB – rP ) = – drP

Por otra parte, se tiene que:

u$ ×u$ = 1Þ 2u$ ×du$ = 0 Þ u$ ^du$ (17)


r r
Como rP – rA tiene la misma dirección que u, $ del resultado anterior se obtiene que elrsegundo
r término
del segundo miembro de (16) es cero. Un razonamiento análogo nos lleva a que u' $ ^rB – rP , por lo que
el último término de (16) también es cero. Con todo esto, resulta que:
r r r
d( L ) = nu$ drP – n'u'
$ drP = ( nu$ – n'u'
$ )×drP (18)

Pero por el principio de Fermat, la variación del camino óptico es cero, por consiguiente:
r r
( nu$ – n'u'
$ )×drP = 0 Þ ( nu$ – n'u'
$ )^drP (19)
r
Puesto que drP está situado en el plano de separación de los dos medios, el vector nu$ – n'u'
$ deberá ser
normal a dicha superficie. Si llamamos u$ N al vector unitario normal a la superficie en el punto P, ten-
dremos que:

nu$ – n'u'
$ = Ku$ N (20)

Este resultado nos dice que el rayo incidente, el rayo refractado y la normal se encuentran en el mismo
plano.

1.2.3. Ley de la refracción de Snell


Si multiplicamos vectorialmente la expresión anterior por el vector u$ N se tiene que:

nu$ N ´ u$ – n´u$ N ´ u´
$ =0 (21)

Y si llamamos q al ángulo que forma el rayo incidente con la dirección de la normal y q´al que forma
el rayo refractado con la normal, se obtiene que:

n sen q = n´ sen q´ (22)

que es la ley de la refracción de Snell.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 241


Volumen II. Física II

1.2.4. Ley de la reflexión


Si en lugar de la refracción se tratara de una reflexión, la ecuación (20) tendría la forma:

nu$ – nu'
$ = Ku$ N (23)

Y de nuevo, multiplicando vectorialmente por el vector u$ N se tiene que:

nu$ N ´ u$ – nu$ N ´ u'


$ =0 (24)

Si llamamos q al ángulo que forma el rayo incidente con la dirección de la normal y q’ al que for-
ma el rayo reflejado con la normal, se obtiene que:

sen q = +sen q´ (25)

que es la ley de la reflexión.

1.3. Sistemas ópticos


Un sistema óptico es un conjunto de superficies que separan medios de distintos índices. Estas
superficies pueden ser de revolución respecto de un eje. Si el sistema se construye de forma que todos
los ejes de revolución coincidan, decimos que el sistema es centrado, y el eje recibe el nombre de eje
principal del sistema.
Si el sistema está formado por superficies refractantes o refringentes se denomina dioptrio; si
está formado por espejos se denomina catóptrico; y en el caso que cuente con ambos tipos de superfi-
cie se denomina catadióptrico.

1.3.1. Objeto e imagen


Consideremos un sistema óptico cuyas superficies de entrada y salida son Se y Ss y supongamos
un punto O emisor de luz. Puede ocurrir que, después de reflejarse o refractarse en las diferentes super-
ficies del sistema, los rayos que partan de O vuelvan a reunirse a la salida en un punto O´, como se
muestra en la figura 4a. En este caso, decimos que el punto O´ es la imagen del punto objeto O, o que O
y O´ son puntos conjugados. Si los rayos salen realmente del punto O y se cortan realmente en O’ deci-
mos que O es un punto objeto real y O´ un punto imagen real.
En otras ocasiones los rayos a la salida son divergentes, pero sus prolongaciones en la dirección
contraria a la de propagación de la luz se cortan en un punto O´ (Figura 4b). Decimos que el punto O´
es un punto imagen virtual del punto objeto O.
En general, los sistemas ópticos no se utilizan aislados, sino acoplados a otros sistemas ópti-
cos, de manera que la imagen de un sistema es el objeto del sistema siguiente. Puede ocurrir, como
se muestra en la figura 4c, que los rayos que entran en un segundo sistema divergen antes de for-
marse la imagen del primer sistema, decimos entonces que el objeto del segundo sistema es un ob-
jeto virtual.
Se consideran como espacio objeto todos los puntos del espacio donde puede existir un objeto
real o virtual. Por tanto, el espacio objeto real abarca todos los puntos situados a la izquierda de la su-
perficie Se, y el espacio objeto virtual está formado por todos los puntos situados a la derecha de la su-
perficie Ss. Análogamente, el espacio imagen real está formado por todos los puntos situados a la de-
recha de la superficie Ss, y el espacio imagen virtual está formado por todos los puntos situados a la
izquierda de la superficie Se.

242 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

O Se Ss O Se Ss O Se Ss O’2

O’
O’1 = O2
O’
(a) (b) (c)
Figura 4. Objeto e imagen en un sistema óptico: a) objeto real e imagen real, b) objeto real e imagen
virtual, y c) objeto real e imagen real, para el segundo sistema el objeto es virtual.

1.3.2. Condición de stigmatismo


En general, un rayo que parte de un punto O y pasa por un punto O´ es único, y los demás rayos
que salen de O no pasan por O´. No obstante, en algunos casos particulares, existen infinidad de rayos
que van desde O a O´. Puesto que en todos estos rayos el camino óptico es un extremal, deberá ser in-
dependiente del rayo. Por tanto, se ha de cumplir que (L) = cte. En este caso decimos que el sistema se
comporta stigmáticamente para los puntos O y O´.
La ecuación de una superficie (figura 5a) que separe dos medios de índices de refracción n y n´
de forma que represente a O stigmáticamente en un punto O´ a una distancia d, vendrá dada por:
nr + n´r´ = ns + n´s´ = K (26)
en donde K es una constante.

y y S
n n’
n n’
r r r’ O’
r’
s s’
O V O’ z O V z
d
Figura 5. a) Óvalo de Descartes, d
b) Caso en que la imagen se
encuentra en el infinito. a) b)

De la figura se tiene que:

n z 2 + y 2 + n' ( d – z ) 2 + y 2 = K (27)

en donde d = s + s´. Esta ecuación conduce a otra de cuarto orden cuya solución es un óvalo, denomi-
nado de Descartes en honor de René Descartes, quien al comienzo del siglo XVII estudió su significa-
do en óptica.
En el caso particular de que uno de los puntos se encuentre en el infinito, como se muestra en la
figura 5b, bastará calcular el camino óptico hasta una superficie plana S perpendicular al eje. En este
caso, la ecuación anterior se reduce a:

n z 2 + y 2 + n' ( d – z ) = K (28)

que corresponde a la ecuación de una cónica.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 243


Volumen II. Física II

1.3.3. Sistemas ópticos ideales


Un sistema óptico ideal o perfecto es un sistema en el que a todo punto de un espacio objeto le
corresponde un punto en el espacio imagen, y se encuentran conectados por rayos que pasan por to-
dos los puntos del sistema óptico, siendo el camino óptico el mismo a lo largo de cualquier rayo.
En principio sería deseable que todo sistema óptico fuese perfecto en este sentido, pero puede
demostrarse que un sistema de estas características tendría muy poca utilidad para construir instru-
mentos ópticos. La razón de esta afirmación fue formulada por Maxwell, quien demostró que un sis-
tema óptico perfecto sólo puede tener una amplificación igual al cociente entre los índices de refrac-
ción de los espacios objeto e imagen. Así, por ejemplo, un sistema cuyos objetos e imagen se encuen-
tren en el aire, tendría una amplificación igual a uno, lo que no sería de mucha utilidad en el diseño de
instrumentos ópticos. Por consiguiente, un espejo puede ser un sistema perfecto, pero una lente de au-
mento no.
El sistema perfecto más sencillo es un espejo plano. Pero ni siquiera un simple plano refractante
es un sistema perfecto, y sólo se aproxima a un sistema perfecto para los rayos que son casi normales
a la superficie.
Tal como hemos visto en el apartado anterior, especificados dos puntos, éstos se pueden conec-
tar por medio de rayos stigmáticos resolviendo la ecuación (27). Pero la mayoría de los sistemas no
son perfectos o stigmáticos para todo el espacio objeto. Sin embargo, existe una amplia variedad de
sistemas que proporcionan imágenes más o menos exactas de una porción importante del espacio ob-
jeto e imagen. Así, por ejemplo, una lente esférica es stigmática para un par de superficies conjuga-
das; pero si nos limitamos a los rayos próximos al eje óptico, éstos pueden producir buenas imágenes
en un rango muy amplio de distancias, como se requiere a un sistema perfecto. Esta aproximación se
denomina aproximación paraxial, y es la que utilizaremos en este tema. Por consiguiente, en el estu-
dio que vamos a realizar a continuación, nos centraremos en el estudio de sistemas cuyas superficies
son esféricas y siempre en la aproximación paraxial.

2. FORMACIÓN DE IMÁGENES EN ESPEJOS Y LENTES


En esta sección vamos a estudiar los elementos básicos que se utilizan en la construcción de ins-
trumentos y dispositivos ópticos:

– Espejos, que reflejan la luz.


– Lentes, que son piezas de material refractante, normalmente de vidrio, que se utilizan para
cambiar el ángulo de convergencia o divergencia de los rayos de luz.

2.1. Espejos
El espejo es el instrumento óptico más antiguo utilizado por el hombre. Algunas muestras en-
contradas datan de la edad de bronce, alrededor de 4000 años antes de Cristo. En la Biblia ya se men-
cionan espejos hechos de latón, y los antiguos egipcios, griegos y romanos empleaban habitualmente
espejos de bronce. Ya en la edad media se empezaron a sustituir los espejos metálicos por espejos de
vidrio metalizados en su parte posterior, que fueron fabricados en serie a escala comercial en el barrio
de Murano, en Venecia, alrededor del año 1300. Los primeros espejos de vidrio se fabricaban con una
lámina de este mismo material que se recubría con una amalgama de mercurio y estaño prensados. El
primero en intentar cubrir el reverso del vidrio con una solución de plata fue el químico alemán Justus
von Liebig, en 1836, y desde entonces se han desarrollado diferentes métodos que se basan en la re-
ducción química a plata metálica de una sal de plata.

244 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Actualmente, los espejos de calidad se construyen con recubrimientos de aluminio evaporados


al vacío sobre substratos de vidrio altamente pulidos. En algunas aplicaciones especiales, en concreto
con láseres, se utilizan espejos formados por múltiples películas dieléctricas.

2.1.1. Espejos planos


La determinación de la imagen formada por un espejo
plano es sencilla si utilizamos las leyes de la reflexión y el
concepto de rayo de luz. Consideremos una fuente puntual de
luz O situada frente a un espejo plano como se muestra en la O V
a1 a2 O’
figura 6. Después de la reflexión, los rayos divergen exacta- qi
mente como si procediesen de un punto O´ situado detrás del qr
plano del espejo, que es la imagen de O. Cuando los rayos pe-
netran en el ojo, este no puede distinguir entre estos rayos re-
flejados y los que pudieran proceder de una fuente situada en
Figura 6. Imagen de un punto en un
O´. El cerebro lo que hace es interpolar hacia atrás, a lo largo espejo plano.
de líneas rectas, los rayos divergentes que inciden en el ojo y
los proyecta en el punto de convergencia O´. Puesto que la luz
no procede realmente de la imagen, decimos que la imagen es
virtual.
La imagen se encuentra situada en la línea que pasa por
el punto objeto O y es perpendicular al espejo, a una distan-
cia de éste igual a la distancia entre el objeto y el espejo. Esto
es fácil de demostrar a partir de la ley de la reflexión. En y y´
efecto, de la figura se tiene que a1 + a2 = qi + qr. Pero por la q
ley de la reflexión qi = qr, y como a1 = qi, se tiene que a2 = qi q
y, por tanto, la distancia entre O y el plano del espejo es igual
a la distancia entre O’ y el espejo.
Si tenemos un objeto extenso, como el mostrado en s s´
la figura 7, cada punto imagen se encuentra detrás del es-
pejo a la misma distancia de éste que la que existe entre el
espejo y cada punto objeto. La imagen de la punta de la Figura 7. Imagen de un objeto en un
flecha, y de cualquier otro punto, se puede obtener inme- espejo plano.
diatamente dibujando dos rayos. Uno perpendicular al es-
pejo que se refleja sobre sí mismo, y otro formando un án-
gulo q con la normal que se refleja formando el mismo án-
gulo. Proyectando hacia atrás ambos rayos, su punto de
intersección determina la posición de la imagen de la pun-
ta de la flecha. Observamos que la imagen es derecha y Es
pej
tiene el mismo tamaño que el objeto. Ahora bien, la ima- o
^
i´ ^

gen que se ve en un espejo es una imagen invertida. Si co-
locamos una mano derecha frente a un espejo, la imagen
^

que vemos es del mismo tamaño, pero es de una mano iz-
quierda. Esta inversión de la mano es resultado de una in-
versión en profundidad. Vemos una mano izquierda por- ^
que el espejo invierte la palma y el dorso de la mano. El j
efecto de esta inversión puede verse en la figura 8: el espe- ^
k
^
i
jo transforma un sistema de coordenadas rectangular a de-
rechas en el que i$ ´ $j = k$ en otro sistema de coordenadas Figura 8. Efecto de la inversión en un
$.
rectangular a izquierdas en donde i$' ´ $j' = – k' espejo plano.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 245


Volumen II. Física II

2.1.2. Espejos esféricos


Los espejos curvos también forman imágenes, como las que podemos ver en algunas instalacio-
nes de los parques de atracciones en donde podemos vernos alargados, acortados o deformados. En
este apartado vamos a limitarnos estudiar la formación de imágenes en los espejos esféricos, princi-
palmente por dos razones. En primer lugar, porque la superficie esférica es más fácil de construir que
otras que requieren una gran dedicación en tiempo y esfuerzo si queremos que sean de calidad. Y en
segundo lugar, porque los espejos esféricos son utilizados en algunos instrumentos ópticos, como te-
lescopios, y en otros dispositivos, como los receptores solares. Es por ello por lo que nos centraremos
en el estudio de los espejos esféricos.
Consideremos un espejo cóncavo de radio r y centro de
curvatura C, como el mostrado en la figura 9. El punto V en el
P centro de la superficie reflectora se denomina vértice del espejo
y la línea CV es el eje del espejo. Supongamos que sobre el eje
q se sitúa un punto objeto O a una distancia a del centro y consi-
q deremos dos rayos, uno que incide sobre el vértice del espejo y
r
otro sobre un punto P cualquiera del mismo. Después de la re-
O b C a g V flexión los dos rayos se cortan formando un punto imagen O´
O´ situado a una distancia a´ del centro del espejo. Vamos a deter-
a a´ s´
s minar la posición del punto imagen y vamos a estudiar si todos
los demás rayos cortan al eje en ese mismo punto; es decir, si
todos los rayos se reflejan sobre el mismo punto imagen O´.
Si llamamos q al ángulo que el rayo incidente en P forma
con la normal en ese punto, y tenemos en cuenta que del trián-
gulo el ángulo exterior es igual a la suma de los ángulos opues-
Figura 9. Espejo cóncavo.
tos internos, del triángulo CPO´ se tiene que el rayo reflejado
forma un ángulo g con el eje, dado por:
g=a+q (29)
siendo a el ángulo que forma el radio trazado hasta P con el eje. Análogamente, del triángulo OPC:
a=b+q (30)

Aplicando ahora la ley de los senos a los triángulos CPO´ y OPC se tiene que:
sen ( p – g ) sen q
= (31)
r a'
sen b sen q
= (32)
r a

De la ecuación (31), sustituyendo g por su valor dado por (29) se tiene que:
r
= sen a cot q +cos a (33)
a'

Y de la ecuación (32), sustituyendo b por su valor dado por (30) se tiene que:
r
= sen a cot q – cos a (34)
a

246 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Restando estas dos últimas ecuaciones y despejando a´ se tiene que:


ar
a´= (35)
r+ 2a cos a

Por tanto, vemos que a´ no es el mismo para todos los valores


de a; es decir, que diversos rayos procedentes del punto O se
reflejan de manera que no constituyen un solo punto imagen
O´, sino que más bien forman una línea corta de puntos ima-
gen, como se puede apreciar en la figura 10. Los rayos cerca-
nos al eje, denominados rayos paraxiales, se reflejan todos
muy cerca de un mismo punto imagen O´. Sin embargo, los O
rayos no paraxiales difuminan esta imagen. A este efecto se le C V
denomina aberración esférica.
En la práctica, los instrumentos ópticos van provistos de
espejos esféricos para minimizar esta falta de nitidez, bien con
espejos de un radio de curvatura grande o seleccionando me-
diante diafragmas (una placa opaca que cuenta con una peque-
ña abertura) sólo los rayos prácticamente paraxiales. En este Figura 10. Aberración esférica.
caso, en una aproximación de primer orden, para todos los ra-
yos paraxiales el ángulo a es pequeño, por lo que podemos ha-
cer cos a = 1, de modo que la ecuación (35) se transforma en:
ar
a' = (36)
r+2a

En un espejo cóncavo los rayos reflejados convergen en


el punto imagen; posteriormente los rayos divergen desde ese
punto como si hubiera un objeto situado en él. Por tanto, la q
q P
imagen en un espejo cóncavo es real, ya que la luz realmente r´´
emana del punto imagen. O b V g O´ a C
De forma análoga podemos encontrar la ecuación co-
rrespondiente para espejos convexos como el mostrado en la s s´´ a´´
figura 11. En este tipo de espejos la luz reflejada diverge, por
a
lo que la imagen formada es una imagen virtual. De la figura
se tiene que:
g=a+q (37)
Figura 11. Espejo convexo.
g + b = 2q Þ b = q – a (38)

Aplicando ahora la ley de los senos a los triángulos O’PC y OPC se tiene que:
sen ( p – g ) sen q
= (39)
r'' a''
sen b sen ( p – q )
= (40)
r'' a

De la ecuación (39), sustituyendo g por su valor dado por (37) se tiene que:
r''
= sen a cot q +cos a (41)
a''

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 247


Volumen II. Física II

Y de la ecuación (40), sustituyendo b por su valor dado por (38) se tiene que:
r''
= –sen a cot q +cos a (42)
a

Sumando estas dos últimas ecuaciones y despejando a” se tiene que:


ar''
a'' = (43)
2a cos a – r''

Expresión que en la aproximación paraxial se reduce a:


ar''
a'' = (44)
2a – r''
Las ecuaciones (36) y (44) pueden escribirse de forma idéntica si adoptamos un criterio de sig-
nos para las distancias y el radio del espejo, basado en la diferencia que hay entre objeto e imagen y
entre puntos reales y virtuales (Figura 12):
1. Supondremos siempre que la luz incide por la izquierda.
2. La distancia objeto s será positiva si el objeto es real y los rayos incidentes divergen, y la consi-
deraremos negativa si el objeto es virtual y los rayos incidentes convergen.
3. Consideraremos que la distancia s’ desde el vértice es positiva si la imagen es real y los rayos
convergen hacia el punto imagen, pero la consideraremos negativa si la imagen es virtual y los
rayos divergen desde el punto imagen.
4. El radio del espejo será positivo si la superficie produce una imagen real de un objeto real, y la
consideraremos negativa si produce una imagen virtual de un objeto real.


O O´
O

a) Objeto real e imagen real: b) Objeto real e imagen virtual:


s > 0 y s´ > 0. s > 0 y s´ < 0.

O´ O
O´ O

c) Objeto virtual e imagen real: d) Objeto virtual e imagen virtual:


s < 0 y s´ > 0. s < 0 y s´ < 0.

Figura 12. Combinaciones objeto-imagen para un sistema reflector.

248 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Para el espejo cóncavo, de la figura 9, tenemos que:


a=s–r a´ = r – s´ (45)
sustituyendo estos valores en la expresión (36), se obtiene que:

1 1 2
+ = (46)
s s' r

Expresión que se conoce con el nombre de ecuación de los espejos.


Por otro lado, para el espejo convexo, de la figura 11, se tiene que:
a = s + r´´ a´´ = r´´ – s´´ (47)

Sustituyendo estos valores en la expresión (44), resulta:


1 1 2
– = (48)
s'' s r''

Ahora bien, por el convenio de signos adoptado anteriormente, s´ = –s´´< 0 y r = –r´´< 0, luego, susti-
tuyendo estos valores en la ecuación anterior, volvemos a obtener la ecuación (46).

C F V V C
F

Figura 13. Distancias focales en espejos esféricos.

Si el punto objeto se encuentra sobre el eje a una distancia infinita del espejo, los rayos incidentes son
paralelos al eje del espejo, y el punto imagen se encuentra situado a una distancia del vértice dada por:
r
s' = = f (49)
2

en donde f se denomina distancia focal del espejo. La distancia focal será positiva para un espejo cón-
cavo (r > 0) y negativa para un espejo convexo (r < 0) (figura 13). El punto imagen F de los rayos pro-
cedentes del infinito se denomina foco o punto focal del espejo. La ecuación del espejo la podemos
escribir en función de la distancia focal como:
1 1 1
+ = (50)
s s' f

De esta ecuación observamos que si el punto objeto se encuentra situado en el foco, el punto imagen
se encuentra en el infinito, y, por tanto, los rayos que salen del espejo son paralelos entre sí.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 249


Volumen II. Física II

y y´
F y C
a a´
y´ V
C V F
a

s s


a) b)

Figura 14. Construcción de imágenes en espejos esféricos.

Hasta ahora hemos considerado objetos puntuales situados en el eje del espejo. La imagen de
un objeto extenso, con puntos fuera del eje, puede obtenerse mediante un método gráfico de trazado
de rayos o diagrama de rayos. Consideremos un objeto, como el representado en la figura 14, situa-
do a una distancia s del vértice de un espejo esférico. La imagen del punto de la base se encontrará
a una distancia s´ del vértice del espejo, dada por la ecuación (46). La posición del extremo supe-
rior del objeto la podemos encontrar representando dos de los cuatro rayos denominados rayos
principales:
1. El rayo paralelo, que sale paralelo al eje del espejo y que se refleja pasando por la focal F.
2. El rayo focal, que pasa por el foco y se refleja paralelamente al eje.
3. El rayo radial, que pasa por el centro de curvatura y se refleja volviendo sobre sí mismo.
4. El rayo central, que incide sobre el vértice del espejo y se refleja formando un ángulo igual por el
otro lado del eje óptico del espejo.

El cociente entre el tamaño de la imagen y el del objeto se define como la amplificación lateral o
aumento:
y'
m= (51)
y

Antes de encontrar una expresión para la amplificación vamos a añadir un punto más a nuestro
convenio de signos:

– Las distancias transversales al eje óptico se considerarán positivas cuando se miden por en-
cima del eje, y negativas cuando se miden por debajo del eje.

De la figura 14a, por la semejanza de los triángulos, se tiene que:


– y' a' r – s' s' (1/ s' – 1/ r )
= = = (52)
y a s– r s(1/ r – 1/ s )

Si ahora tenemos en cuenta la ecuación de los espejos, de la que se deduce que (1/s´ – 1/r) = (1/r – 1/s),
finalmente obtenemos para la amplificación lateral:
+ y' s'
m= =– (53)
y s

250 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Se puede comprobar que, para un espejo esférico convexo, con el convenio de signos adoptado, se
obtiene la misma ecuación que para la amplificación lateral.
En la tabla 1 se da un resumen de las imágenes formadas en los espejos esféricos en distintas po-
siciones del objeto y el carácter de dicha imagen.

Posición del objeto Posición de la imagen Amplificación lateral Carácter de la imagen


Espejos cóncavos
En el ¥ En F m=0 Real, puntual
Entre ¥ y C Entre F y C –1 < m < 0 Real, invertida
En C En C m = –1 Real, invertida
Entre C y F Entre C y ¥ m < –1 Real, invertida
En F En ¥ Indefinida Indefinida
Entre F y V Entre –¥ y V m>1 Virtual derecha
Espejos convexos
En el ¥ En F m=0 Virtual, puntual
Entre ¥ y V Entre F y V 0<m<1 Virtual, derecha

Tabla 1. Clasificación de las imágenes formadas por los espejos esféricos

2.2. Lentes
Desde hace mucho tiempo, el hombre ha utilizado superficies refractoras para la producción de
imágenes. Ya los antiguos caldeos de Mesopotamia utilizaban lentes de aumento, y en los escritos grie-
gos y romanos se hace mención a los espejos incendiarios, que eran esferas de vidrio llenas de agua uti-
lizadas para encender fuego. No obstante, en la antigüedad clásica no se conocían las auténticas lentes
de vidrio, que posiblemente se fabricaron por primera vez en Europa a finales del siglo XIII, hecho que
dio lugar a la aparición de las gafas.
En un principio, la mayoría de las lentes estaban hechas de variedades especiales de vidrio de
alta calidad, conocidas como vidrios ópticos, libres de tensiones internas, burbujas y otras imperfec-
ciones. En la actualidad, el gran desarrollo de los plásticos y de los procesos especiales para su mane-
jo ha supuesto un mayor uso de estos materiales en la fabricación de lentes. Por otra parte, estas lentes
de plástico son más baratas que las de vidrio y a su vez son más ligeras y menos frágiles.
En este apartado vamos a estudiar las características fundamentales de las lentes y su utilización
para formar imágenes. Comenzaremos por estudiar las imágenes formadas por refracción en una su-
perficie esférica.

2.2.1. Refracción en una superficie esférica


Consideremos una superficie esférica que separa dos medios de índices de refracción n y n’ (fi-
gura 15). Para encontrar una relación entre la distancia s del objeto al vértice, la distancia s’ de la ima-
gen al vértice, y el radio r, apliquemos la ley de los senos a los triángulos DOPC y DO’PC. Haciendo
esto, se tiene que:
sen ( p – q ) sen a a sen q
= Þ = (54)
a l l sen a
y
sen q' sen ( p – a ) a' sen q'
= Þ = (55)
a' l' l' sen a

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 251


Volumen II. Física II

Teniendo en cuenta que la ley de Snell establece que n sen q = n´ sen q´, de las expresiones anteriores
se tiene que:
na n'a'
= (56)
l l'

En la aproximación paraxial, podemos considerar que l » s y l´ » s´. Si ahora tenemos en cuenta que
a = r + s y a´ = s´ – r, la expresión anterior se transforma en:
n n' n' – n
+ = (57)
s s' r
en donde hemos considerado que todas las distancias s, s´ y r son positivas.

n n´
P
q

l q´
O b V a C g O´

s s´
Figura 15. Refracción en
a a´ una superficie esférica
convexa.
Consideremos ahora el caso de refracción en una superficie esférica cóncava a los rayos inciden-
tes, como se muestra en la figura 16. Aplicando la ley de los senos a los triángulos DOPC y DO’PC
obtenemos que:
sen q sen ( p – a ) a sen q
= Þ = (58)
a l l sen a
y
sen q ' sen ( p – a ) a' sen q '
= Þ = (59)
a' l' l' sen a

De nuevo, como en el caso de la superficie convexa, de la ley de Snell (n sen q = n´ sen q´) y de las ex-
presiones anteriores se tiene que:
na n'a'
= (60)
l l'
En la aproximación paraxial, podemos considerar que l » s y l´ » s´. Si ahora tenemos en cuenta que
a = s – r y a´ = s´ – r, la expresión anterior se transforma en:
n n' n' – n
+ = (61)
s – s' –r


P
l q
l´ a V
O O´ a´ C

a
s
s´ Figura 16. Refracción en una
superficie esférica cóncava.

252 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Vemos que esta ecuación es similar a la encontrada para una superficie convexa, y se puede es-
cribir igual si consideramos que la distancia s´ es negativa y si el radio también lo consideramos nega-
tivo. La diferencia entre ambos casos es que la imagen formada por la superficie convexa es real (ra-
yos convergentes en O´), mientras que la imagen producida por la superficie cóncava es virtual (los
rayos no convergen realmente en O´).
1. Supondremos siempre que la luz incide por la izquierda.
2. La distancia objeto s será positiva si el objeto es real y los rayos incidentes divergen, y la consi-
deraremos negativa si el objeto es virtual y los rayos incidentes convergen.
3. Consideraremos que la distancia s´ desde el vértice es positiva si la imagen es real y los rayos
convergen hacia el punto imagen, pero la consideraremos negativa si la imagen es virtual y los
rayos divergen desde el punto imagen.
4. El radio será positivo si la superficie produce una imagen real de un objeto real, y la considerare-
mos negativa si produce una imagen virtual de un objeto real.

Según el criterio 3, en el caso de superficies convexas, la imagen es real y s´ es positivo, mientras


que para superficies cóncavas, la imagen es virtual y s´ es negativo. El criterio 4 establece que en su-
perficies convexas, en las que la imagen es real, el radio de curvatura es positivo, mientras que en su-
perficies cóncavas, en donde la imagen es virtual, el radio es negativo. En la figura 17 se resumen los
signos para s y s´ en diferentes situaciones. Vemos, por tanto, que el criterio de signos adoptado es vá-
lido tanto para espejos como para las superficies refractantes.

n n´ n n´


O O´ O

a) Objeto real e imagen real: b) Objeto real e imagen virtual:


s > 0 y s´ > 0. s > 0 y s´ < 0.

n n´ n n´

O´ O O´ O

c) Objeto virtual e imagen real: d) Objeto virtual e imagen virtual:


s < 0 y s´ > 0. s < 0 y s´ < 0.

Figura 17. Combinaciones de objetos e imágenes en un sistema refractor.

La ecuación (57) proporciona la posición de la imagen de un punto O situado sobre el eje. Esta
ecuación no presenta aberración esférica debido a la aproximación paraxial, pero ahora nos encontra-
mos con otro efecto denominado aberración cromática. Esta es debida a que el índice de refracción
cambia con la frecuencia, y, por consiguiente, los distintos colores procedentes de un mismo punto
objeto se enfocarán en puntos de imágenes distintos.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 253


Volumen II. Física II

Una superficie refractora posee dos puntos focales. El primer punto F corresponde al punto del
eje cuya imagen se encuentra en el infinito. De la ecuación (57) encontramos que la distancia focal f
de este punto vendrá dada por:
n n' n' – n
+ = (62)
f ¥ r

Y por consiguiente:
nr
f= (63)
n' – n

El segundo punto focal F´ corresponde a la posición en el eje de la imagen de un punto situado


en el infinito. La distancia focal f ´ vendrá dada por:
n n' n' – n
+ = (64)
¥ f' r

Y por consiguiente:
n'r
f' = (65)
n' – n

De las expresiones de las distancias focales f y f ´ dadas por (63) y (65), resulta que la expresión (57) la
podemos escribir como:
n n' n n'
+ = = (66)
s s' f f'

La imagen de un objeto extenso, situado en una determinada posición sobre el eje, puede especi-
ficarse gráficamente con la ayuda de los tres rayos principales:

– El rayo paralelo al eje óptico que pasa por la focal F´.


– El rayo que pasa por F y se refracta paralelamente al eje óptico.
– El rayo que pasa por el centro de curvatura y que al ser normal a la superficie refractora no
se desvía.

En las figuras 18 y 19 se muestran dos ejemplos de construcción de imágenes utilizando los ra-
yos principales. La amplificación lateral puede calcularse de la semejanza de los triángulos DOQC y
DO´Q´C, y de la ecuación (57):
– y' a' s' – r ns'
= = = (67)
y a s+ r n's

de donde se obtiene que


y' ns'
m= =– (68)
y n's

254 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Por consiguiente, la imagen real de un objeto real siempre está invertida.


n n´ n´
n
O P O P

F´ Q´ O´
V V
Q F C F´ C F

Figura 18. Construcción de imágenes refractadas Figura 19. Construcción de imágenes refractadas
en una superficie esférica convexa. en una superficie esférica cóncava.

2.2.2. Lentes delgadas


Los resultados que acabamos de obtener pueden aplicarse a cualquier sistema óptico formado
por varias superficies esféricas, que separan diferentes medios, y cuyos centros se encuentran en una
recta común denominada eje óptico del sistema.
En la aproximación paraxial, a partir de la expresión (57) se determina la posición de la imagen
formada por la primera interfase. Esta imagen se toma como objeto de la segunda interfase y, así su-
cesivamente, se determina la posición de la imagen formada por el sistema total. En el proceso hay
que tener en cuenta que, si la imagen formada por una interfase se encuentra más allá de la posición de
la interfase siguiente, entonces debe considerarse como un objeto virtual para esta interfase.
Las lentes las podemos clasificar en sencillas y compuestas. Una lente sencilla es una porción de
un medio transparente, como puede ser el vidrio, limitada por dos superficies esféricas coaxiales. En
caso de que el sistema cuente con más de dos superficies refractantes, se denomina lente compuesta.

O´1 O V1 V2 O´
s

s´1

s2
Figura 20.
Lente sencilla. t

A continuación vamos a estudiar y a deducir una ecuación que resulta útil en el caso de lentes
delgadas. Para ello consideremos una lente sencilla como la mostrada en la figura 20. Denominemos
n´´ = n´/n al índice de refracción del material de la lente respecto al índice del medio que la rodea, y
sean r1 y r2 los radios de curvatura de cada una de las superficies esféricas de la lente, de espesor t. La
posición s´1 de la imagen formada por la primera superficie de un punto O situado en el eje a una dis-
tancia s del vértice, vendrá dada, según (57), por:
1 n'' n'' – 1
+ = (69)
s s' 1 r1

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 255


Volumen II. Física II

La imagen no llega a formarse debido a que la luz se refracta de nuevo en la segunda superficie.
La posición del objeto s2 para la segunda superficie, es decir, la distancia hasta el vértice V2, vendrá
dada por:
s2 = t – s' 1 (70)
en donde t es el espesor de la lente y en donde hemos tenido en cuenta que, al ser una imagen virtual,
s' 1 < 0.
De nuevo, la expresión (57) nos permite calcular la posición de la imagen formada por la segun-
da superficie. Teniendo en cuenta que la luz pasa del medio de índice n’ al medio de índice n, tendre-
mos que:
n'' 1 1– n''
+ = (71)
s2 s' r2

En el caso de lentes delgadas, el espesor es despreciable frente a las distancias a las que se for-
man las imágenes, de manera que s2 = – s' 1 . Con esta aproximación, sumando las ecuaciones (69) y
(71), resulta que:
1 1 æ 1 1ö
+ = ( n'' – 1)ç
ç – ÷
÷ (72)
s s' è r1 r2 ø

Se define el primer punto focal F de la lente como aquel punto del eje cuya imagen se encuentra
en el infinito, y el segundo punto focal F’ como la posición sobre el eje de la imagen de un punto en el
infinito. Por tanto, de la expresión (72) se tiene que:
1 æ 1 1ö
= ( n'' – 1)ç
ç – ÷
÷ (73)
f è r1 r2 ø

en donde f es la distancia focal de la lente. Esta ecuación se denomina ecuación del constructor de len-
tes. Se define la potencia D de la lente como:
1
D= (74)
f

La potencia de la lente se mide en m–1 o dioptrías.


En función de la distancia focal de la lente, la expresión (72) se puede escribir como:
1 1 1
+ = (75)
s s' f

Ecuación que se denomina ecuación de la lente delgada.


En cuanto a la amplificación lateral de la lente, se puede calcular utilizando la expresión de la am-
plificación de una superficie refractante dada por (68). De acuerdo con esta expresión, se tiene que:
y 1 s' 1
y' 1 = – (76)
n''s1

Análogamente se tiene que:


y 2 n''s' 2
y' 2 = – (77)
s2

256 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

De ambas ecuaciones, y teniendo en cuenta que s1 = s, s' 2 = s' y que y 2 = y' 1 y s2 = – s' 1 , obtene-
mos que la amplificación lateral de la lente viene dada por:

y' 2 y' y' s'


m= = 2 1 =– (78)
y1 y2 y1 s

La determinación de la posición de una imagen formada por una lente puede hacerse mediante
métodos gráficos. Para ello se definen tres planos perpendiculares al eje óptico: dos planos focales,
que pasan cada uno de ellos por un punto focal, y un plano denominado plano principal, que pasa por
un punto denominado punto principal cuya característica es que los rayos no se desvían de su trayec-
toria. La posición de la imagen la determinamos trazando los tres rayos principales:

– El rayo paralelo, que se dibuja paralelo al eje y pasa por el segundo punto focal F’ de la lente.
– El rayo focal, que pasa por el primer punto focal y sale paralelo al eje óptico.
– El rayo central que pasa por el punto principal H y no se desvía.

En la figura 21 se muestran algunos ejemplos de construcción de imágenes en lentes, utilizando


los rayos principales.

y F´ y´ F´
y´ y
F F

y y´
y
F´ y´ F F´ F

Figura 21. Ejemplos de formación de imágenes mediante


lentes delgadas.

Decimos que una lente es convergente si aumenta la convergencia de los rayos incidentes. Esto
es así si el segundo punto focal F´ es una imagen real del objeto en el infinito, y por tanto se encuentra
en el lado opuesto al del rayo incidente. En este caso, la distancia focal f es positiva, por lo que a las
lentes convergentes se les denomina también lentes positivas. Por el contrario, si la imagen de un
punto objeto en el infinito es virtual, entonces los rayos que emergen de la lente son divergentes, por
lo que a este tipo de lentes se les denomina lentes divergentes. Puesto que, en este caso, la distancia
focal es negativa, a este tipo de lentes se les denomina también negativas.
Si el índice de refracción n´ del material de la lente es mayor que el índice de refracción n del medio
en que se encuentra la lente, una lente convergente será más gruesa por el centro que por los extremos;
mientras que si ocurre lo contrario n´ < n se cumple lo inverso. La nomenclatura de las lentes se basa en la
forma de las superficies esféricas con respecto a la luz incidente sobre ellas. De esta manera, las lentes se

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 257


Volumen II. Física II

denominan doble convexas o biconvexas, doble cóncavas o bicóncavas, plano-convexas, plano-cóncavas,


convexo-cóncavas o menisco convexo, cóncavo-convexa o menisco cóncavo, etc. (figura 22).

Biconvexa Plano convexa Menisco convexo

Bicóncava Plano cóncava Menisco cóncavo

Figura 22. Nombres de algunas lentes sencillas.

2.2.3. Combinación de lentes delgadas


En este apartado vamos a deducir algunas expresiones útiles de los parámetros asociados con las
combinaciones de lentes delgadas.

F ’1 F ’2

F1 F2

f1 f2
d
s2
s1 s’1

Figura 23. Combinación de dos lentes delgadas separadas una


distancia menor que cualquiera de sus distancias focales.

Consideremos dos lentes delgadas positivas separadas una distancia d que supondremos más pe-
queña que cualquiera de las distancias focales de las lentes (figura 23). La determinación de la posi-
ción de la imagen se puede hacer de manera gráfica como sigue. En primer lugar se determina la ima-
gen formada por la primera lente, sin tener en cuenta la presencia de la segunda. Para ello, basta trazar
el rayo paralelo que se refracta y pasa por el punto focal F´1 de la primera lente, y el rayo focal, que
pasa por el punto focal F1 y se refracta paralelo al eje óptico. También se puede dibujar el rayo que
pasa por el centro de la primera lente sin desviarse. En segundo lugar, se construye hacia atrás el rayo
que pase por el extremo de la imagen y que pasa por el centro de la segunda lente, y por tanto no es
desviado por ésta. A continuación se traza para la segunda lente el rayo paralelo que ha de pasar por el
punto focal F´2 de la segunda lente. La intersección de estos dos últimos rayos determina la posición
de la imagen formada por el sistema compuesto por las dos lentes.
Consideremos ahora el esquema mostrado en la figura 24, en el que se muestran dos lentes del-
gadas separadas una distancia d que se ha aumentado. Al igual que antes, en primer lugar determina-
mos la imagen que produce la primera lente trazando el rayo paralelo y el rayo focal. De nuevo traza-
mos hacia atrás el rayo que pasa por el centro de la segunda lente sin desviarse. Prolongando el rayo

258 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

focal de la primera lente, su intersección con el rayo anterior determina la posición de la imagen pro-
ducida por el sistema compuesto.

F ’2
F1 F ’1 F2

s2

Figura 24. Combinación de dos lentes f1 d f2


delgadas separadas una distancia mayor s1 s’1
que la suma de sus distancias focales.

La posición de la imagen y su tamaño las podemos calcular de forma analítica como sigue. Para
la primera lente, se tiene que:
1 1 1
= – (79)
s' 1 f 1 s1

De donde se obtiene que:


s1 f 1
s' 1 = (80)
s1 – f 1

Esta distancia será positiva si el objeto se encuentra situado detrás de la distancia focal s1 > f 1, y si ésta
es positiva.
Para la segunda lente se tiene que:
1 1 1
= – (81)
s' 2 f 2 s2

De donde se obtiene que:


s2 f 2
s' 2 = (82)
s2 – f 2

Por otra parte, el objeto de la segunda lente es la imagen producida por la primera, por consiguiente se
tiene que:
s2 = d – s' 1 (83)

El valor de esta distancia es positivo si el objeto para la segunda lente es real, y es negativa si el objeto
es virtual, como se vio en el análisis gráfico realizado más arriba. Llevando las expresiones (80) y
(82) a (83) obtenemos finalmente que:
f 2 s1 f 1
f2 d –
s1 – f 1
s' 2 = (84)
s f
d – f2 – 1 1
s1 – f 1

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 259


Volumen II. Física II

El aumento o amplificación lateral de la lente compuesta es el producto de los aumentos indivi-


duales de cada lente:
y' 2 y' y'
m= = 2 1 = m1 m2 (85)
y1 y2 y1

en donde hemos tenido en cuenta que y' 1 = y 2 . Teniendo en cuenta la expresión de la amplificación
lateral de una lente delgada, dada por (78), resulta que:
s' 2 s' 1
m= (86)
s2 s1

Sustituyendo en esta expresión las ecuaciones (80) y (83), finalmente se obtiene que:
f 1 s' 2
m= (87)
d ( s1 – f 1 ) – s1 f 1

En un sistema óptico, a la distancia entre la última superficie y el segundo punto focal del sis-
tema se le denomina distancia focal posterior o d.f.p. De la misma forma, a la distancia entre la pri-
mera superficie y el primer punto focal del sistema se le denomina distancia focal frontal o d.f.f. Si
en la expresión (82) hacemos que s' 2 ® ¥ resulta que s2 ® f2. Por tanto, de la expresión (83) se tiene
que s' 1 ® d – f2. Llevando este último resultado a la expresión (79) obtenemos que:
f1 (d – f2 )
d. f. f.= (88)
d – ( f1 + f2 )

Análogamente, haciendo s1 ® ¥ en (84), y puesto que, en este caso, s' 2 º d.f.p., se obtiene que:
f2 (d – f1 )
d. f. p.= (89)
d – ( f1 + f2 )

Cuando las lentes se ponen en contacto, d = 0, se tiene que:


f2 f1
d. f. p. = d. f. p.= (90)
f1 + f2

Es decir, que la lente resultante tiene una focal efectiva dada por:
1 1 1
= + (91)
f f1 f2

Expresión que, en el caso de N lentes en contacto, se transforma en:


N
1 1 1 1 1
= + +...+ = å (92)
f f1 f2 fN i = 1 fi

260 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

3. EL OJO Y LOS DEFECTOS DE LA VISIÓN


Es evidente que el ojo es el instrumento óptico más importante, sin el cual no tendría sentido la
construcción de instrumentos de ayuda. Puesto que el ojo es parte fundamental en todos los procesos
que se producen en un instrumento óptico, comenzaremos por estudiar su funcionamiento.
El ojo es, aproximadamente, una es-
tructura esférica, de unos 2,5 cm de diá- Retina
metro, abombada en su parte delantera
(figura 25). La capa más externa es una Cristalino
membrana que tiene una función pro- Humor vítreo
tectora y se denomina esclerótica. Esta Córnea
membrana cubre unos cinco sextos de la
superficie ocular y se prolonga en la par- Humor
te anterior con la córnea, que es una acuoso
membrana resistente y transparente, de
radio de curvatura mucho menor que el Iris
del ojo, por la que penetra la luz en su in-
terior. Detrás de la córnea hay un espa- Esclerótica
cio lleno de un líquido transparente (el
humor acuoso), que separa la córnea de
la lente del ojo, denominada cristalino. Figura 25. Esquema del ojo humano.
El cristalino es una esfera aplanada,
constituida por un gran número de fibras
transparentes dispuestas en capas y cuyo índice de refracción medio es n = 1.396. Este valor disminu-
ye desde el centro hasta los extremos. Una propiedad importante del cristalino es que la curvatura de
la lente puede ajustarse para obtener imágenes a distintas distancias. Para ello, la lente está unida a un
músculo, denominado ciliar, que tiene forma de anillo y que la rodea mediante unos ligamentos.
En la región intermedia entre la córnea y el cristalino, se encuentra el iris, que es un diafragma
opaco que dispone de una abertura circular en el centro, denominada pupila. El tamaño de la pupila
puede variar por la acción de un músculo que rodea sus bordes, aumentando o disminuyendo cuando
se contrae o se relaja, controlando la cantidad de luz que entra en el ojo. En condiciones de alta lumi-
nosidad se cierra hasta un diámetro de 2 mm, mientras que antes una gran oscuridad se abre hasta los
8 mm de diámetro.
Por detrás de la lente, el cuerpo principal del ojo está lleno de un fluido similar al humor acuoso
que se denomina humor vítreo. En la parte posterior se encuentra la retina, que es una capa delgada
compuesta sobre todo por células nerviosas. El ojo humano tiene dos tipos de células receptoras sen-
sibles a la luz: los conos y los bastones. La intensidad de la luz en las diversas partes de la retina pro-
duce señales eléctricas que son transmitidas al cerebro. Estos impulsos son recibidos por el lóbulo oc-
cipital, donde se produce la sensación, y de allí pasan a los centros superiores de la corteza cerebral,
donde tiene lugar la percepción consciente. Toda esta cadena constituye el proceso de visión.
Acomodación del ojo. El ojo humano se puede considerar como un sistema positivo de lentes
que forman una imagen real en la retina. En cierta manera, el ojo funciona como una cámara fotográ-
fica sencilla, en la que la lente del cristalino forma en la retina una imagen invertida de los objetos que
enfoca, siendo la retina la película sensible a la luz.
El proceso de enfocar el ojo sobre objetos que se encuentran a distancias variables se denomina
acomodación. Dicho proceso está controlado por los músculos ciliares. Cuando estos músculos están
relajados, el cristalino se encuentra en un estado tal que el radio de curvatura de la lente es muy gran-
de, con lo que la distancia focal también lo es. De esta manera un objeto situado en el infinito se enfo-
cará en la retina. Cuando el objeto se acerca, los músculos se contraen y el cristalino se redondea y
disminuye su radio de curvatura y por tanto su distancia focal.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 261


Volumen II. Física II

Puesto que la distinción de los detalles de un objeto depende del tamaño de la imagen formada
en la retina, y por tanto del ángulo subtendido por el objeto en el ojo, para hacer esta imagen mayor lo
que hacemos es acercar el objeto al ojo. Sin embargo, la capacidad de acomodación del ojo establece
un límite a ese acercamiento. A partir de una distancia mínima, el ojo no puede enfocar cómodamente
la imagen en la retina. A esta distancia se le denomina punto próximo o cercano. Una persona con
ojos normales puede ver objetos enfocados nítidamente en la retina cuya distancia varíe desde el infi-
nito hasta unos 15 cm del ojo. El valor del punto próximo varía mucho de una persona a otra y con la
edad. Así, por ejemplo, un niño puede ver con claridad a una distancia tan corta como 7 cm. Al au-
mentar la edad del individuo, las lentes se van endureciendo poco a poco y la visión cercana disminu-
ye hasta unos límites de unos 15 cm a los 30 años y 40 cm a los 50 años. A edades más avanzadas, la
mayoría de los seres humanos sólo son capaces de acomodar sus ojos a distancias por encima de 1 o 2
m, por lo que necesita utilizar gafas para acomodaciones inferiores a estas distancia. Como valor me-
dio normalizado del punto próximo se suele tomar 25 cm.

3.1. Defectos visuales


Como ocurre con cualquier otro sistema óptico, el funcionamiento adecuado del ojo requiere
una determinada relación geométrica entre sus componentes. Los defectos visuales más comunes son
debidos, precisamente, a las diferencias de tamaño relativo de las distintas estructuras del ojo. Estos
defectos son:

– Miopía. Objeto en el infinito

– Hipermetropía.
– Astigmatismo.

Un ojo normal o emétrope es aquel que, en estado de relajación, es Objeto distante


capaz de enfocar los rayos paralelos sobre la retina. Es decir, es un ojo
cuyo segundo punto focal se encuentra en la retina. En consecuencia, el
punto más alejado o distante que puede enfocar, punto lejano, se encuen-
tra en el infinito. Si el segundo punto focal no se encuentra en la retina,
se dice que el ojo es amétrope. Punto lejano

3.1.1. Miopía
La miopía es la condición en la que los rayos paralelos tienen su Objeto en el infinito
foco delante de la retina. Esto se debe a que el ojo es excesivamente con-
vergente debido a varias causas como, por ejemplo, un alargamiento del
ojo o un aumento de la curvatura de la córnea. En cualquier caso, las
imágenes de los puntos lejanos se forman enfrente de la retina, el punto
lejano está más cerca del infinito y los objetos que se encuentran a ma-
yor distancia se ven borrosos (figura 26). Es por esta razón por lo que a la
Objeto cercano
miopía también se le denomina vista corta.
La corrección de la miopía se realiza colocando una lente divergen-
te, de manera que el sistema formado por la lente y la lente del ojo tenga
su segundo punto focal en la retina. Puesto que el ojo puede ver clara-
mente las imágenes de los objetos que se encuentran más cercanos que el
punto lejano, la lente divergente debe formar imágenes relativamente Figura 26. Corrección
cercanas de los objetos distantes. del ojo miope.

262 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Supongamos, por ejemplo, que un ojo miope tiene un punto lejano de 2 m. La lente deberá traer
los objetos distantes más cerca de 2 m. Si la lente forma una imagen virtual de un objeto en el infinito
a 2 m, el ojo podrá ver el objeto claramente sin acomodación. Utilizando la aproximación para lentes
delgadas, se tiene que:
1 1 1 1 1
= + = + (93)
f s s' ¥ –2

Por lo que la distancia focal de la lente ha de ser f = –2 m o, lo que es lo mismo D = –1/2 dioptría.
Observemos que en este cálculo no hemos tenido en cuenta la distancia de separación entre la lente y
el ojo.

3.1.2. Hipermetropía
La hipermetropía es una alteración que hace que el segundo Objeto en el infinito
punto focal del ojo se encuentre situado detrás de la retina. Esto se
debe a que el ojo es menos convergente de lo que debiera, por lo
que el resultado es que puede ver con claridad objetos lejanos que
requieren poca convergencia, pero no así los objetos cercanos (fi-
gura 27). Para su corrección es necesario colocar una lente positiva, Punto cercano
de manera que forme una imagen virtual distante que el ojo pueda
ver claramente.
Supongamos, por ejemplo, un ojo hipermétrope que tiene un
punto cercano de 1,25 m. Para que un objeto situado a 25 cm tenga
su imagen a 125 cm, la distancia focal de la lente deberá ser: 25 cm

1 1 1 1 1
= + = + (94)
f s s' 0 ,25 –1,25

Objeto distante
Con lo que se obtiene que f = 0,31 m, o, lo que es lo mismo,
D = 3,2 dioptrías.

3.1.3. Astigmatismo
Objeto cercano
El defecto más común del ojo es el astigmatismo; se puede de-
finir como una consecuencia de la deformación de la córnea o de la
alteración de la curvatura de la lente ocular, con una curvatura ma-
yor a lo largo de un meridiano que del otro. El resultado es una vi-
sión distorsionada debido a la imposibilidad de que converjan los
rayos luminosos en un solo punto de la retina. Figura 27. Corrección del ojo
hipermétrope.
La corrección del astigmatismo se hace por medio de una lente
cilíndrica, como se muestra en la figura 28. En (a) y en (b) se mues-
tra una vista superior y lateral, respectivamente, de un ojo astigmático. La curvatura de la córnea en
un plano horizontal como el mostrado en (a) tiene el valor adecuado para que los rayos formen una
imagen sobre la retina. Sin embargo, en el plano vertical, como el (b), la curvatura no es suficiente
para formar una imagen nítida en la retina. Si colocamos una lente cilíndrica con el eje horizontal,
como se muestra en (c) y en (d), los rayos situados en un plano horizontal no se ven afectados, mien-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 263


Volumen II. Física II

a) tras que la lente proporciona una convergencia adicional a los rayos


situados en un plano vertical de manera que forman una imagen nítida
en la retina.

b) 4. ANÁLISIS Y CONSTRUCCIÓN DE LOS


INSTRUMENTOS ÓPTICOS
En este apartado vamos a aplicar los resultados de la óptica para-
xial, vistos en las secciones precedentes, al estudio de diversos instru-
c) mentos ópticos de gran importancia práctica. Estos sistemas ópticos
han ampliado la capacidad de nuestros sentidos en el rango de lo muy
pequeño y de lo muy lejano y han permitido el desarrollo de campos
científicos como la microbiología y la astronomía.
Un instrumento óptico es un sistema compuesto por sistemas
d) más simples como lentes y espejos, dispuestos de manera adecuada
para cumplir ciertas funciones específicas. Atendiendo a sus propie-
dades ópticas más generales, los instrumentos ópticos pueden clasifi-
carse en:

– Microscopios o sistemas de amplificación.


Figura 28. Corrección del – Telescopios.
ojo astigmático.
– Otros dispositivos como, por ejemplo, cámaras fotográficas.

Los microscopios y lupas son instrumentos de distancia focal corta, por regla general, diseñados
para formar imágenes a cierta distancia finita de objetos pequeños y próximos. Por el contrario, los te-
lescopios son sistemas de distancia focal muy grande que se diseñan para aumentar el ángulo que un
objeto muy distante parece subtender desde el ojo de un observador, y capaces de detectar radiación
muy débil procedente de las estrellas lejanas. Dentro de esta misma categoría podemos incluir los an-
teojos y los prismáticos. En una zona intermedia, en lo que se refiere a la distancia focal, se encuen-
tran dispositivos como la cámara fotográfica, que utiliza lentes con distancias focales cuyos valores
se encuentran entre los utilizados en microscopios y telescopios.

4.1. Microscopio simple o lupa


La dimensión aparente de un objeto queda determinada por el tamaño de la imagen en la reti-
na, que es mayor cuanto más cerca está el objeto. Por tanto, un observador puede hacer que un ob-
jeto se vea más grande, y examinarlo con más detalle, simplemente acercándolo al ojo. Conforme
lo acercamos, el cristalino enfoca la imagen en la retina y ésta aumenta su tamaño. Ahora bien, el
ojo sólo puede acomodarse hasta una distancia mínima, punto próximo, que en promedio es de d0 =
= 25 cm. Si acercamos el objeto más allá del punto próximo, la imagen en la retina se hace borrosa
(figura 29).

d0 Figura 29.
Punto próximo o cercano.

264 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Podemos utilizar una lente positiva para aumentar el poder refractor del ojo, de manera que el
objeto pueda acercarse más estando todavía enfocado en la retina. Una lente usada con este fin recibe
el nombre de lente de aumento, lupa o microscopio simple.


y q´
s
f

s´ d

Figura 30. Microscopio simple o lupa.

Una medida adecuada del tamaño de la imagen sobre la retina es el ángulo q subtendido por el ob-
jeto en el ojo. Una lente de aumento nos permite situar el objeto a una distancia más cerca del ojo, de
manera que subtienda un mayor ángulo, como se indica en la figura 30. El objeto se coloca en el punto
focal o dentro de él, y la lente produce una imagen virtual que deberá encontrarse más allá del punto
próximo del ojo, para que éste pueda enfocarlo. En este caso, el ángulo que subtiende el objeto es q´.
Se define la amplificación angular o poder amplificador M de la lente como el cociente entre el án-
gulo subtendido con la lente y el que el ojo subtiende sin ayuda de la lente a una distancia d0 = 25 cm:
q'
M= (95)
q

La amplificación angular recibe también otros nombres, como, por ejemplo, aumento angular o po-
tencia de aumento.
Si llamamos y a la altura del objeto y suponemos que y es pequeña, entonces los ángulos q y q´
son pequeños, y los podemos aproximar por sus tangentes:
y y'
q» q' = (96)
d0 d'

Sustituyendo estas expresiones en (95), resulta:


y' d 0
M= (97)
y d'

Vamos a determinar el aumento en función de la distancia focal de la lente. Puesto que la imagen es
virtual, de la figura se tiene que –s´ = d´ – d. La distancia del objeto a la lente vendrá dada por:
1 1 1 1 1
= – = + (98)
s f s' f d' – d

De donde se obtiene que:


( d' – d ) f
s= (99)
d' – d + f

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 265


Volumen II. Física II

Si ahora utilizamos la expresión (78), se tiene que:


y' s' f + d' – d
=– = (100)
y s f
Sustituyendo este resultado en (97), se obtiene finalmente que:
d f + d' – d
M= 0 (101)
d' f

Para que la visión sea cómoda, el objeto se sitúa justo a la distancia focal de la lente, de manera que la
imagen se forma en el infinito –s´ = d´ = ¥. En este caso, la amplificación de la lente viene dada por:
d
M= 0 (102)
f

Si la imagen se encuentra en el punto próximo, d´ = d0, y, si consideramos que d << d´ la amplificación de


la lente viene dada por:

d0
M = 1+ (103)
f

Vemos que ambos valores son ligeramente diferentes, pero esta diferencia es siempre pequeña,
ya que tanto la distancia focal f como la distancia del ojo a la lente d son también pequeñas compara-
das con d0.
Para obtener un valor grande de la amplificación se debe utilizar una lente con una distancia fo-
cal muy pequeña. Pero es difícil de obtener este tipo de lentes con distancias focales pequeñas y que
estén suficientemente libres de aberraciones esféricas para obtener una imagen nítida. Debido a estas
aberraciones, los microscopios de lente simple son muy limitados en su amplificación, que puede ser
de 2,5. Esta amplificación se suele especificar con un número seguido del signo de multiplicación,
por ejemplo 2,5´. La utilización de más de una lente formando dobletes o tripletes permiten obtener
lupas, relativamente caras, con amplificaciones altas entre 10 y 20.

4.2. Microscopio compuesto


Para conseguir una mayor amplificación es necesario utilizar un microscopio compuesto. La in-
vención del microscopio se le atribuye a Zacharias Janssen, un fabricante de lentes de Middleburg y
pudo tener lugar en el año 1590; unos años antes de que Galileo Galilei, 1610, anunciara la invención
del microscopio compuesto.
Un microscopio compuesto básicamente está formado por dos lentes: el objetivo, de distancia fo-
cal muy corta, y el ocular, de distancia focal un poco mayor. El objeto se coloca justo detrás del punto
focal del objetivo, como se muestra en la figura 31. El objetivo forma una imagen real amplificada y´
del objeto, que es luego amplificada por el ocular en una imagen muy grande y´oc, que observa el ojo.
La amplificación del microscopio se define como la relación entre el ángulo subtendido por la
imagen virtual en el ojo y el subtendido por el objeto cuando se observa sin ningún instrumento ópti-
co a la distancia del punto próximo d0:
q'
M= (104)
q

266 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

s s’
x f1 x’
y F1 F’1 F2 F’2
y’
q’

y’oc
f2 d
Figura 31.
Microscopio compuesto.
d’

En la aproximación paraxial:
y – y' oc
q= q' = (105)
d0 d'

Llevando estas expresiones a (104), resulta:


q' y' d
M= = – oc 0 (106)
q y d'

Teniendo en cuenta que y´ = yoc, de la ecuación de la amplificación lateral de una lente (78) y de la ex-
presión (106), se tiene que:
y' y' oc d 0
M=– = – mob M oc (107)
y y oc d'

Por consiguiente, la amplificación del microscopio es igual al producto de la amplificación lateral


mob del objetivo por la amplificación angular Moc del ocular. Puesto que la amplificación lateral del
objetivo es negativa, la amplificación del microscopio será positiva.
Si llamamos f1 a la distancia focal del objetivo, de la figura se obtiene que:
y' f x'
=– 1 =– (108)
y x f1

Si el objeto se coloca de tal manera que la imagen se forme en el primer punto focal del ocular, y llamamos
L a la distancia entre las focales del objetivo y del ocular, la expresión anterior se transforma en:
y' L
=– (109)
y f1

Si, como estamos considerando, la imagen del objetivo (que es el objeto del ocular) está situada en el
foco del ocular, los rayos saldrán paralelos de éste; es decir, la imagen que forma el ocular se encuen-
tra en el infinito. Entonces, según vimos en el apartado anterior (102), la amplificación del ocular
vendrá dada por:
d0
M oc = (110)
f2

siendo f2 la distancia focal del ocular. Llevando las expresiones (109) y (110) a (107), obtenemos para
la amplificación del microscopio:
Ld 0
M= (111)
f1 f2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 267


Volumen II. Física II

en donde, recordamos, L es la distancia entre el segundo punto focal del objetivo y el primer punto fo-
cal del ocular, d0 es la distancia del punto próximo, y f1 y f2 son las distancias focales del objetivo y del
ocular, respectivamente.
Los fabricantes han fijado el valor de L en 16 cm. Por otro lado, el valor promedio del punto pró-
ximo es d0 = 25 cm. Con estos valores, la amplificación del microscopio viene dada por:
400cm 2
M= (112)
f1 f2

En la práctica, el objetivo de un microscopio de alta calidad suele estar formado por hasta diez lentes
diseñadas para que el sistema corrija las aberraciones cromática, esférica y otras. La distancia focal
de un instrumento de gran potencia puede ser de sólo 2 mm, y la amplificación del objetivo tiene valo-
res típicos entre 50 y 100. El poder amplificador del ocular suele tener un valor comprendido entre 5 y
10. No obstante, los efectos de difracción establecen un valor superior límite para el poder de amplifi-
cación del microscopio compuesto de alrededor de 2000. Al igual que para el caso de las lupas o mi-
croscopios simples, se suele especificar la amplificación de un microscopio compuesto por un núme-
ro seguido por el signo de multiplicación. Así, por ejemplo, se dice que un microscopio tiene una am-
plificación de 500´, lo que significa que M = 500.

4.3. Telescopios
Un telescopio es un instrumento óptico que se utiliza para observar objetos muy lejanos que sub-
tienden un ángulo muy pequeño en el ojo. Los telescopios se pueden clasificar en tres categorías:
– Telescopios refractores o anteojos.
– Telescopios reflectores.
– Binoculares prismáticos.

Los primeros telescopios construidos fueron los anteojos, que se componían de un objetivo de gran
distancia focal y un ocular con una distancia focal mucho más corta, montados en un tubo largo. Aunque
el invento del telescopio parece ser anterior, la primera prueba de su descubrimiento es la solicitud de pa-
tente presentada en 1608 por Hans Lippershey en Holanda. De forma independiente, según parece, Gali-
leo Galilei ya tenía construido un telescopio con dos lentes y un tubo de órgano, en 1609. Poco tiempo
después se construyeron telescopios mejorados que permitieron un gran avance de la astronomía.

4.3.1. Telescopios refractores o anteojos


Telescopio de Galileo. En la figura 32 se representa esquemáticamente un telescopio de Galileo.
Está formado por una lente objetivo convergente y un ocular divergente. La imagen del objetivo actúa
como objeto virtual del ocular, que forma una imagen virtual que subtiende un ángulo mayor en el ojo.
Objetivo Ocular –f2

q q´

f1 + f 2

f1
Figura 32.
Telescopio de Galileo.

268 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Puesto que el objeto que se observa está muy lejos, no podemos considerarlo en el punto próximo,
por lo que el poder amplificador de un telescopio se define como el cociente entre el ángulo q´ subtendi-
do por la imagen que procede del ocular, y el ángulo q subtendido por el objeto lejano (s1 >> f1):
q'
M= (113)
q

La imagen real del objeto lejano se forma en el plano focal del objetivo, por lo que s' 1 = f 1 , por
lo que en la aproximación paraxial:
y'
q= – (114)
f1

En un telescopio de Galileo, el segundo punto focal del objetivo coincide con el primer punto fo-
cal del ocular, pues en una lente divergente o negativa f2 < 0. Por tanto, la luz que procede del ocular
será paralela y formará un ángulo q’ dado por:
– y'
q' = (115)
– f2

Sustituyendo (114) y (115) en (113), el poder amplificador del telescopio de Galileo vendrá dado por:

f1
M=– >0 (116)
f2

Como el valor de la distancia focal f1 es positivo y el valor de la distancia focal f2 es negativo, el po-
der amplificador del telescopio de Galileo es positivo M > 0, y, por consiguiente, la imagen se verá
derecha.
Una ventaja de este tipo de telescopios es que su longitud ha de ser sólo f1 – |f2|, con lo que en la
práctica resultan ser instrumentos compactos. Por ello, este tipo de diseño es el utilizado en los anteo-
jos de teatro.
Telescopio de Kepler o astronómico. En 1611, el astrónomo Johannes Kepler (de ahí el nom-
bre dado a este instrumento) propuso la utilización de un telescopio con un ocular convergente.

Objetivo Ocular

q q´

Figura 33.
f1 f2 Telescopio de Kepler o
astronómico.

En este tipo de telescopio, la imagen se forma en el primer plano focal del ocular, por lo que
constituye un objeto real para éste (figura 33), y los rayos que emergen de cualquier punto del plano
focal salen del ocular en trayectorias paralelas. En la aproximación paraxial, tendremos que:
– y'
q= (117)
f1

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 269


Volumen II. Física II

y
– y'
q' = – (118)
f2

en donde el signo menos lo hemos introducido para establecer la diferencia entre el ángulo que gira en
sentido antihorario hacia el eje y el ángulo q’ que gira en sentido horario hacia el eje. Sustituyendo estos
valores en la expresión (113), obtenemos para el poder amplificador del telescopio astronómico:
f1
M=– <0 (119)
f2

Como los valores de las distancias focales f1 y f2 son positivos, el poder amplificador del telescopio
astronómico es negativo M < 0, y por consiguiente la imagen se verá invertida.
Telescopio terrestre. Si el telescopio de Kepler quiere utilizarse para hacer observaciones te-
rrestres, es un inconveniente que la imagen esté invertida. Para evitar esto se coloca una lente inverso-
ra intermedia de distancia focal f0 entre el objetivo y el ocular, tal como se muestra en la figura 34. La
lente inversora no modifica el poder amplificador del telescopio, sólo invierte su signo. Por consi-
guiente, para el telescopio terrestre, el poder amplificador viene dado por:
f1
M= >0 (120)
f2

Aparte del cambio de signo, la lente inversora hace que la longitud del telescopio tenga que au-
mentar en una cantidad igual a 4f0.
Objetivo Lente inversora Ocular

q
y q´

f1 2f0 2f0 f2

Figura 34. Telescopio o anteojo terrestre.

4.3.2. Telescopios reflectores


La necesidad de disponer de telescopios de mayor poder amplificador llevó a realizar diseños
con lentes de gran tamaño. Pero desde el punto de vista práctico no son factibles, debido a las compli-
caciones técnicas para la fabricación de lentes de gran tamaño. Es por esto por lo que surgieron y se
desarrollaron los telescopios reflectores, en los que el objetivo es un espejo. En la actualidad, todos
los telescopios grandes son telescopios reflectores. El mayor telescopio reflector del mundo es el te-
lescopio Keck, de 982 cm, en el Observatorio Mauna Kea en Hawai. Otros grandes telescopios re-
flectores en el mundo son: el telescopio del Observatorio Astrofísico de Rusia (Zelenchukskaya, 600
cm de diámetro), el del Observatorio Monte Palomar (California, 508 cm), el del Observatorio del
Roque de los Muchachos (Islas Canarias, 420 cm), el del Observatorio Interamericano de Cerro Tolo-
lo (Chile, 401 cm), el telescopio del Observatorio Anglo-australiano (Australia, 389 cm), el del
Observatorio Nacional Kitt Peak (Arizona, 381 cm).

270 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Aunque fue el jesuita italiano, Niccolò Zucchi, el primero en utilizar un ocular para ver la ima-
gen producida por un espejo cóncavo, fue el matemático escocés James Gregory (1638-1785) quien
describió por primera vez un telescopio con un espejo reflector en 1661. No obstante, fue Isaac New-
ton quien, en 1668, construyó con éxito el primer telescopio reflector.
En este tipo de telescopio la luz es reflejada por un espejo cóncavo y luego los rayos se llevan a
un punto de visión conveniente denominado foco primario. Sólo en aquellos telescopios de gran ta-
maño es factible colocar la cabina del observador en el foco primario. De lo contrario, se utilizan di-
versos arreglos para dirigir los rayos a una región situada al lado del instrumento o debajo de él, con el
objeto de no interceptar gran parte de los rayos incidentes.
Para salvar esta dificultad, Gregory utilizó en su diseño un segundo espejo cóncavo, que refleja-
ba los rayos al ocular (figura 35a). En el montaje de Newton se utiliza un espejo plano para sacar la
luz en un ángulo recto con el eje del telescopio (figura 35b). Una modificación de este telescopio se
debe a Henry Draper, uno de los primeros astrónomos estadounidenses que construyó un telescopio
reflector, en el que utilizó con éxito un prisma de reflexión total en lugar de un espejo plano. Otro di-
seño, debido al astrónomo francés Giovanni D. Cassegrain, sustituía el espejo cóncavo del foco pri-
mario por un espejo convexo (figura 35c).

a)

b)

Figura 35. Diversos esquemas de


telescopios reflectores: a) telescopio c)
de Gregory, b) telescopio de Newton,
y c) telescopio de Cassegrain.

En 1931, el óptico alemán Bernard Schmidt utilizó un


sistema catadióptrico, formado por una combinación de ele- Lámina
mentos reflectores (catóptricos) y refractores (dióptricos),
para la construcción de un telescopio (figura 36). En este te-
lescopio se utilizaba una lámina correctora para eliminar la
aberración esférica del espejo. La lámina desvía lo suficiente
los rayos laterales para que queden enfocados claramente en
la esfera imagen. Posteriormente, se han introducido muchas
variaciones en este tipo de montajes: unas sustituyen la lámi-
na correctora con arreglos de meniscos concéntricos (Bou-
wers-Maksutov), y otras, por ejemplo, utilizan tres lentes
esféricas (Baker). El mayor telescopio Schmidt dispone
de una lente de 134 cm y un espejo de 200 cm, y se encuen-
Figura 36. Telescopio catadióptrico
tra en el Observatorio Karl Schwarzschild, en Tautenberg, de Schmidt.
Alemania.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 271


Volumen II. Física II

4.3.3. Binoculares
Los binoculares prismáticos son una modalidad de telescopio terrestre en donde se sustituye la
lente inversora por un par de prismas de reflexión (figura 37). De esta manera se consigue el mismo
efecto pero en menos espacio.

Binoculares

Figura 37.
Binoculares.

Si consideramos el objetivo de cualquier telescopio como un objeto que es observado por el ocu-
lar, su imagen se forma detrás del ocular (figura 38). Esta imagen circular se denomina pupila de sali-
da, y toda la luz que entra por el objetivo y llega al ocular debe pasar por la pupila de salida. Por el
principio de reversibilidad, si invertimos el camino de la luz, el objetivo es la imagen de la pupila de
salida. Por esta razón al objetivo se le denomina pupila de entrada.

D

f1 f2

Figura 38. Pupila de salida de un objetivo.

Podemos determinar la relación existente entre el diámetro D del objetivo (pupila de entrada) y
el diámetro D´ de la pupila de salida con el poder amplificador del telescopio. Para ello, tengamos en
cuenta que el objetivo se encuentra a una distancia del ocular s = f1 + f2, por lo que su imagen se en-
contrará a una distancia del ocular dada por:
1 1 1 f1
= – = (121)
s' f2 s f2 ( f1 + f2 )

De la figura se obtiene que:


D D' D' s' f
= Þ = = 2 (122)
s s' D s f1

Por lo tanto, se tiene que:


f1 D
| M |= = (123)
f 2 D'

272 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Por consiguiente, el poder amplificador de un telescopio puede determinarse midiendo el diámetro


D´ de la imagen brillante que forma el telescopio cuando se enfoca sobre una pantalla situada detrás
del ocular.
En las especificaciones de los telescopios se suele dar tanto el poder amplificador como el diá-
metro de la pupila de salida en la forma p ´ d, en donde p es el poder amplificador y d el diámetro de
la pupila de salida. Así, por ejemplo, unos prismáticos 8 ´ 25 tienen un poder amplificador de 8 y una
pupila de salida de 25 mm.

4.4. Cámara fotográfica


La cámara fotográfica más sencilla consiste en una cámara oscura, con un orificio en una de sus
paredes, con el objeto de que la luz incida en una película fotográfica situada en la pared opuesta.
Cada punto del objeto formará una imagen que será un punto del tamaño del orificio. Por tanto, si éste
es muy grande no se formará imagen. Conforme disminuimos el tamaño del agujero, la imagen se va
definiendo, hasta llegar a un punto en que la imagen que se obtiene es lo más nítida posible. Tamaños
más pequeños hacen que la imagen sea borrosa debido a los efectos de difracción. Por otra parte, el ta-
maño del orificio es del orden de 0,5 mm, por lo que para que la luz que entre en la cámara sea sufi-
ciente para impresionar la película, es necesario que la exposición sea muy larga. El proceso de for-
mación de imágenes puede mejorarse si se añade una lente compuesta, lo que, por otro lado, aumenta-
rá la cantidad de luz que incide en la película.
Obturador
Una cámara fotográfica normal consta esencialmente de Objetivo
una caja o cámara oscura, una lente positiva, un sistema de aper-
tura variable, un obturador que puede abrirse durante un corto
espacio de tiempo y una película fotográfica (figura 39). Como
vemos, la estructura de una cámara fotográfica es similar a la del
ojo humano; pero, a diferencia de éste, cuya lente tiene una dis-
tancia focal variable, la distancia focal de la lente de una cámara
fotográfica es constante. Por consiguiente, para enfocar una Apertura Película
imagen en la película, lo que se hace es variar la distancia de la
lente a la película, acercándola o alejándola. En una cámara nor- Figura 39. Esquema de una
mal de 35 mm (tamaño de la película), la distancia focal suele cámara fotográfica simple.
ser igual a 50 mm.
La cantidad de luz que entra en la cámara depende del ángulo que la lente subtiende desde la pe-
lícula. Cuanto mayor es el ángulo, mayor es la luz que incide sobre la película, y, por tanto, menor
será el tiempo necesario para la exposición (figura 40).

D a

Figura 40. Ángulo subtendido


por la lente desde la película.

Si llamamos D al diámetro de la apertura y f a la distancia focal de la lente, se define el número


de apertura como:
f
Número f = (124)
D

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 273


Volumen II. Física II

Puesto que la distancia entre la película y la lente es aproximadamente igual a la distancia focal al ser
siempre f << s, vemos que el número es igual a la cotangente del ángulo que subtiende la lente.
El número f de la lente nos da la máxima apertura:
f
D= (125)
número f

Así, por ejemplo, una lente descrita como f /2,8, con una distancia focal f = 50 mm, tiene una máxima
apertura D = 17,9 mm. Las lentes grandes son muy caras por lo costoso que resulta su fabricación y la
corrección de las aberraciones.
Para una lente dada, reduciendo el diámetro de apertura se reduce la luz que incide sobre la pelí-
cula. En las cámaras suelen marcarse las posiciones de apertura f /22, f /16, f /11, f /8, f /5,6, f /4, f /2,8,
f /2, f /1,4, f /1 y así, hasta el número más bajo, que corresponde al diámetro más grande que puede
utilizarse de la lente. Observemos que cada posición relativa corresponde a un diámetro que es 2 ve-
ces más grande que el anterior. Puesto que la cantidad de luz es proporcional al área de la lente, signi-
fica que entre una posición y la siguiente la cantidad de luz que entra es doble.

s1 s´2
s´1
d s2


D

d1 d2 d´1 d´2

s0 L

Figura 41. Esquema de una cámara fotográfica simple para


calcular la profundidad de campo.

Las variaciones de la apertura tienen repercusión en la profundidad de campo de la imagen, en-


tendiendo como tal el margen de distancia que está definido de forma nítida en la película. Por ejem-
plo, supongamos que un objeto situado a una distancia s0 se encuentra perfectamente enfocado, y con-
sideremos un punto objeto situado a una distancia s = s0 + d1 (figura 41). Los rayos que proceden de s
se enfocan a una distancia s´ de la lente dada por:
1 1 1
= – (126)
s' f s0 + d 1

Teniendo en cuenta que s0 se enfoca perfectamente en la película, se tiene que:


1 1 1
= – (127)
s0 f L

Por otra parte, de la figura se tiene que:


s' 1 = L – d' 1 (128)

274 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica geométrica

Llevando (128) a (126) y sustituyendo el valor de 1/f dado por (127), obtenemos que:
1 1 d' 1 d1
– = = (129)
L – d' 1 L L( L – d' 1 ) s0 ( s0 + d 1 )

De la figura también se obtiene que:


D D'
= (130)
s' 1 d' 1

De las expresiones (129) y (130) se obtiene que:


D' d' 1 d' 1 d1L
D= = = = (131)
D s' 1 L – d' 1 s 0 ( s 0 + d 1 )

De donde se tiene que:


s02 D
d1 = (132)
L – s0 D

Fijado un valor de D’ = 0,05 mm, denominado círculo de confusión, el valor de d1 dado por (132) nos
da el límite exterior de la profundidad de campo.
Haciendo un estudio análogo al que hemos realizado anteriormente, se tiene que el límite inte-
rior de la profundidad de campo viene dado por:
s02 D
d2 = (133)
L+ s0 D

La profundidad de campo vendrá dada por:


2Ls02 D
d= d1 +d2 = (134)
L2 – s02 D2
Derivando con respecto a D tendremos que:
dd dd ædD ö 2Ls0 ( L + s0 D )æ D' ö
2 2 2 2

= ç ÷= ç– ÷< 0 (135)
dD dD èdD ø ( L2 – s02 D2 ) 2 è D 2 ø

Por consiguiente, la profundidad de campo aumenta cuando disminuye la apertura del diafragma de
la cámara D.
El campo de visión angular de la cámara es el ángulo sustentado en la lente por la imagen que se
quiere fotografiar. Para una cámara con una distancia focal de 50 mm, el campo de visión es alrede-
dor de 45º. Para aumentar el campo de visión se utilizan objetivos de menor distancia focal, por ejem-
plo de 24 mm, denominados gran angular. Cuando el objeto se encuentra muy alejado del objetivo, la
distancia a la que se forma la imagen es aproximadamente igual a la distancia focal. Puesto que el au-
mento de la lente es m = –s´/s, resulta que un gran angular produce una imagen más pequeña en la pe-
lícula que la que produce un objetivo normal. Por el contrario, un teleobjetivo tiene una gran distancia
focal, para que la imagen del objeto sea muy grande en la película y parezca más cercano. Por ejem-
plo, un teleobjetivo con una distancia focal de 200 mm produce una imagen 4 veces mayor que la que
produce un objetivo normal de 50 mm.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 275


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Annequin, R. Boutigni, J.: Óptica. Reverté. Barcelona, 1976.
Casas, J.: Óptica. Publicaciones de la Cátedra de Óptica, Facultad de Ciencias
de la Universidad de Zaragoza. Zaragoza, 1978.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall. Upper Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall. México, 1988.
Hecht, E. Y Zajac, A.: Óptica. Addison-Wesley Iberoamericana. Madrid, 1990.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Purcell, E. M.: Electricidad y magnetismo. Editorial Reverté. Barcelona, 1980.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté. Barcelo-
na, 1986.
Rossi, B.: Fundamentos de Óptica. Reverté. Barcelona, 1973.
Sears, F. W.: Óptica. Aguilar. Madrid, 1960.
Smith, F. G. y Thomson, J. H.: Optics. John Wiley and Sons. Chichester, 1988.
Tipler, P. A.: Física. Editorial Reverté. Barcelona, 1992.
Young, H. D.: Fundamentals of Optics and Modern Physics. McGraw-Hill.
New York, 1968.

276 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

27
Óptica física. Propiedades de
las ondas luminosas.
Observación en el laboratorio.
Teoría física del color.
Espectrofotometría

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. NATURALEZA DE LA LUZ

2. ÓPTICA FÍSICA
2.1. Comportamiento ondulatorio de la luz
2.1.1. Ondas electromagnéticas
2.1.2. Ondas electromagnéticas planas
2.1.3. Transversalidad de las ondas electromagnéticas

3. PROPIEDADES DE LAS ONDAS LUMINOSAS


3.1. Polarización
3.1.1. Polarización de las ondas electromagnéticas
3.1.2. Polarización de la luz
3.1.3. Métodos para polarizar la luz
3.2. Interferencia
3.2.1. Condiciones de interferencia
3.2.2. Franjas de interferencias
3.2.3. Interferencia de varias fuentes
3.3. Difracción
3.3.1. Principio de Huygens-Fresnel y teoría de la difracción de Kirchhoff
3.3.2. Difracción de Fraunhofer y de Fresnel
3.3.3. Difracción de Fraunhofer por una abertura rectangular
3.3.4. Difracción de Fraunhofer por una rendija rectangular
3.3.5. Difracción de Fraunhofer por un diafragma circular

4. TEORÍA FÍSICA DEL COLOR


4.1. Iluminantes
4.2. Mezcla aditiva de colores
4.3. Representación geométrica de los colores
4.4. Sistema RGB de especificación del color y sistema XYZ
4.5. Cálculo de coordenadas cromáticas
4.6. Pureza de un color y longitud de onda dominante

5. ESPECTROFOTOMETRÍA

BIBLIOGRAFÍA

278 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

1. NATURALEZA DE LA LUZ
La naturaleza de la luz ha sido una de las cuestiones que más ha preocupado e intrigado al hom-
bre. Las primeras teorías consideraban la luz como algo emitido por el ojo, aunque posteriormente se
aceptó que debía ser algo que procedía de los objetos que se veían y que entraban en el ojo producien-
do la sensación de visión.
La naturaleza de la luz probablemente haya sido una de las cuestiones más interesantes de la his-
toria de la ciencia. Isaac Newton, uno de los pocos y grandes genios de la física, defendía una teoría
corpuscular de la luz. Según esta teoría la luz estaba formada por corpúsculos diminutos que viajaban
en línea recta, a gran velocidad, desde los cuerpos visibles hasta el ojo. A partir de esta teoría Newton
pudo explicar las leyes de la reflexión y de la refracción. No obstante, su demostración se basaba en
hipótesis que luego se demostraron falsas: que la luz se propaga en el agua y en el vidrio a mayor ve-
locidad que en el aire.
Entre los defensores de una teoría ondulatoria para la luz se encontraban, entre otros, Christian
Huygens y Robert Hook. Huygens consideraba que la luz se comportaba como un movimiento ondu-
latorio similar al del sonido, pero a diferencia de éste que se propagaba en la materia ordinaria, la luz
se propagaba en un medio que lo impregnaba todo y que recibió el nombre de éter. A partir de su teo-
ría, Huygens encontró las leyes de la reflexión y la refracción, suponiendo una menor velocidad de
propagación de la luz en el agua y en el vidrio que en el vacío.
El rechazo de Newton a la teoría ondulatoria se basaba fundamentalmente en que en su época no
existían pruebas experimentales de la difracción de la luz. Sin embargo, había observado que la luz de
un foco pequeño producía una sombra con bordes nítidos, lo que corroboraba la propagación rectilí-
nea de la luz. Debido a su gran autoridad científica, la teoría corpuscular de Newton perduró durante
más de un siglo.
En 1801 Thomas Young, con su experimento de la doble rendija, aportó la prueba experimental
decisiva a favor de la teoría ondulatoria de la luz. Este experimento mostraba algunos fenómenos que
sólo podían explicarse en términos de interferencias constructivas y destructivas propios de las on-
das. Posteriormente, Augustin Fresnel realizó un gran número de experimentos sobre interferencias y
difracción de la luz y desarrolló la teoría ondulatoria con una base matemática.
No obstante, la evidencia teórica de la existencia de ondas electromagnéticas se debió a James
Clerk Maxwell, quien en 1864 en su artículo titulado “Teoría dinámica del campo electromagnético”
presentó las célebres ecuaciones, que hoy denominamos ecuaciones de Maxwell, que unificaban los
campos eléctricos y magnéticos y predecían la existencia de ondas electromagnéticas. A partir de es-
tas ecuaciones del electromagnetismo, Maxwell demostró que podían combinarse r rpara dar lugar a
una ecuación de onda que debían satisfacer los campos eléctricos y magnéticos, E y B, al mismo tiem-
po que demostró que la velocidad de propagación de estas ondas en el vacío debía ser c = (m0e0)–1/2.
En la segunda mitad del siglo XIX Kirchhoff y otros científicos aplicaron la teoría electromag-
nética de Maxwell para explicar con éxito los fenómenos de interferencia y difracción de la luz.
La teoría ondulatoria es útil para explicar la propagación de la luz pero no puede explicar otras
propiedades de la luz, sobre todo su interacción con la materia. Algunos fenómenos como el efecto
fotoeléctrico no pueden entenderse mediante una teoría ondulatoria que lleva consigo una transferen-
cia continua de energía. Sólo un modelo de partículas para la luz puede explicar estos fenómenos.
Desde el punto de vista de la electrodinámica cuántica, la interacción de la luz y cualquier onda elec-
tromagnética con la materia se describe mediante una partículas sin masa denominadas fotones. La
energía de un fotón está relacionada con la frecuencia de la onda electromagnética y la energía trans-
portada por un gran número de fotones es en promedio igual a la transportada por una onda electro-
magnética. Esta naturaleza dual de la luz no se comprendió bien hasta la década de los años veinte
cuando se demostró que otras partículas como los electrones daban lugar a fenómenos de interferen-
cia y difracción. Este hecho constituye uno de los pilares de la física moderna y de la mecánica cuánti-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 279


Volumen II. Física II

ca: la luz, al igual que los demás objetos materiales, muestran propiedades de partículas y de onda. La
manifestación de estas propiedades dependen del tipo de experimento y medida que se realice.
Erwin C. Schrödinger (1887-1961), uno de los fundadores de la teoría cuántica escribía en
Science theory and Man:
En el nuevo arreglo de ideas la distinción entre partículas y ondas ha desapareci-
do, porque se descubrió que todas las partículas tienen también propiedades ondula-
torias, y viceversa. Ninguno de los dos conceptos se debe desechar, ellos deben
amalgamarse. Qué aspecto sobresalga depende no sólo del objeto físico sino del ins-
trumento experimental usado para examinarlo.

2. ÓPTICA FÍSICA
En el tema 26 hemos basado el estudio de la luz en el concepto de rayo de luz como trayectoria
de la energía radiante, y nos hemos limitado a estudiar las trayectorias seguidas por estos rayos de luz.
Esta restricción conduce a la óptica geométrica, la cual nos permite obtener relaciones cuantitativas
de algunas propiedades de la luz. Sin embargo, existen una serie de fenómenos tales como la polariza-
ción, interferencia y la difracción que sólo pueden explicarse si se admite que la energía luminosa se
propaga como una onda. Este tratamiento de los fenómenos ópticos es lo que se denomina óptica física,
o también óptica ondulatoria.

2.1. Comportamiento ondulatorio de la luz


La base teórica del comportamiento ondulatorio de la luz la constituye el trabajo realizado por
Maxwell, que sintetizó en cuatro ecuaciones los fenómenos eléctricos y magnéticos.
En su forma más general, las ecuaciones de Maxwell se escriben como:

– Ley de Gauss para el campo eléctrico


r r
Ñ×D = r (1)
en donde r es la densidad de carga eléctrica.

– Ley de Gauss para el campo magnético


r r
Ñ×B = 0 (2)

– Ley de Ampère-Maxwell
r
r r r ¶D
Ñ´ H = J + (3)
¶t

– Ley de Faraday-Henry
r
r r ¶B
Ñ´ E = – (4)
¶t
r
Las ecuaciones anteriores
r se completan conrotras dos que relacionan el vector desplazamiento D
con el campo eléctrico
r E, y el campo magnético B (denominado también inducción magnética) con el
campo magnético H. Además de estas dos ecuaciones, hay una tercera que relaciona la densidad de
corriente con el campo eléctrico, la ley de Ohm. Estas tres ecuaciones se denominan ecuaciones cons-

280 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

titutivas del medio donde aparecen los parámetros que caracterizan los medios materiales: la permiti-
vidad o constante dieléctrica, la permeabilidad magnética y la conductividad eléctrica. Para un medio
isótropo, homogéneo y lineal (ni ferroeléctrico ni ferromagnético) caracterizado por una permitivi-
dad e, una permeabilidad m, y una conductividad s, estas ecuaciones son:
r r
D = eE (5)
r 1 r
H= B (6)
m

r r
J = sE (7)
Haciendo uso der estas
r ecuaciones constitutivas, las ecuaciones de Maxwell pueden escribirse en función
de los campos E y B como:
r r r
Ñ×E = (8)
e
r r
Ñ×B = 0 (9)
r
r r r ¶E
Ñ´ B = msE + me (10)
¶t
r
r r ¶B
Ñ´ E = – (11)
¶t

2.1.1. Ondas electromagnéticas


Las ecuaciones de Maxwell pueden
r combinarse de manera que se obtiene
r una ecuación de onda
tanto para la componente eléctrica E como para la componente magnética B. Para obtener estas ecua-
ciones tengamos en cuenta que la ecuación de onda es una ecuación diferencial que relaciona las deri-
vadas segundas respecto al espacio y al tiempo de la magnitud física que se propaga. Por consiguien-
te, apliquemos en primer lugar el operador rotacional a la ecuación (10). Haciendo esto, se tiene que:
r
r r r r æ r ¶E ö
Ñ´ ( Ñ´ B ) = Ñ´ç ç ms E + me ÷
÷ (12)
è ¶ t ø

Intercambiando el orden de las derivadas espaciales y temporales en el segundo miembro de la ecua-


ción anterior, resulta:
r r r r r ¶ r r
Ñ´ ( Ñ´ B ) = msÑ´ E + me
¶t
Ñ´ E ( ) (13)

Sustituyendo en esta expresión la ecuación (11) del rotacional del campo eléctrico, se tiene que:
r r
r r r ¶B ¶2B
Ñ´ ( Ñ´ B ) = – ms – me 2 (14)
¶t ¶t
El primer miembro de la ecuación anterior se puede simplificar haciendo uso de la relación vectorial:
r r r r r r r
Ñ´Ñ´ B = Ñ ( Ñ×B ) – Ñ 2 B (15)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 281


Volumen II. Física II

en donde, en coordenadas cartesianas, el operador Ñ2 viene dado por:


r r ¶2 ¶2 ¶2
Ñ 2 = ( Ñ×Ñ ) = 2 + 2 + 2 (16)
¶x ¶y ¶z
Sustituyendo la expresión (15) en (14) y teniendo en cuenta que, según (9), la divergencia del campo
magnético es cero, obtenemos que:
r r
r ¶B ¶2B
Ñ B – ms
2
– me 2 = 0 (17)
¶t ¶t

Para el campo eléctrico podemos encontrar una ecuación similar a la anterior. Aplicando el ope-
rador rotacional a la ecuación (11) obtenemos que:
r
r r r r æ ¶B ö
Ñ´ ( Ñ´ E ) = – Ñ´ç ÷
ç
÷ (18)
è ¶t ø
Intercambiando en el segundo miembro el orden de las derivadas temporales y espaciales del campo
magnético, la ecuación anterior la podemos escribir como:
r r r ¶ r r
Ñ´ ( Ñ´ E ) = – Ñ´ B (19)
¶t
Sustituyendo en esta expresión la ecuación (10) del rotacional del campo magnético, se tiene que:
r r
r r r ¶E ¶2E
Ñ´ ( Ñ´ E ) = – ms – me 2 (20)
¶t ¶t
Al igual que antes, el primer miembro de la ecuación anterior se puede simplificar haciendo uso de la
relación vectorial:
r r r r r r r
Ñ´Ñ´ E = Ñ ( Ñ×E ) – Ñ 2 E (21)
Sustituyendo la expresión (21) en (20) y teniendo en cuenta que la divergencia del campo eléctrico
viene dada por (8) obtenemos finalmente que:
r r
r ¶E ¶ 2 E ræ r ö
Ñ E – ms
2
– me 2 = Ñç ÷ (22)
¶t ¶t èeø
En una zona del espacio libre de carga, r = 0, la ecuación anterior se transforma en:
r r
r ¶E ¶2E
Ñ E – ms
2
– me 2 = 0 (23)
¶t ¶t
Las ecuaciones (17) y (23) relacionan las derivadas espaciales de las componentes magnética y
eléctrica del campo electromagnético con las derivadas primera y segunda respecto al tiempo. Estas
ecuaciones se denominan ecuaciones del telegrafista o ecuaciones de telegrafía. En el caso de un me-
dio no conductor s = 0, las ecuaciones (17) y (23) se simplifican y quedan en la forma:
r
r ¶2B
Ñ 2 B – me 2 = 0 (24)
¶t
r
r ¶2E
Ñ E – me 2 = 0
2
(25)
¶t

282 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Si comparamos estas expresiones con la ecuación de onda tridimensional dada por:

1 ¶2F
Ñ 2F – =0 (26)
u 2 ¶t 2

vemos que las componentes del campo electromagnético satisfacen una ecuación diferencial de onda.
Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio como una
onda, siendo su velocidad de propagación u:

1
u= (27)
me

Las dos ecuaciones vectoriales (24) y (25) proporcionan seis ecuaciones de onda una para cada
componente del campo eléctrico (Ex, Ey, y Ez) y del campo magnético (Bx, By, y Bz).
En el vacío, las ecuaciones anteriores se transforman en:
r
r ¶2B
Ñ B – m0e0 2 = 0
2
(28)
¶t
r
r ¶2E
Ñ E – m0e0 2 = 0
2
(29)
¶t

Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio vacío como
una onda. Su velocidad de propagación se designa normalmente como c, y viene dada por:

1
c= (30)
m0e0

Haciendo uso de los valores encontrados en su época para la permitividad de vacío y la permeabili-
dad, Maxwell encontró que la velocidad de propagación de las ondas electromagnéticas en el vacío
era:
1
c= » 3´108 m / s (31)
m0e0

Este valor teórico deducido para la velocidad de propagación de las ondas electromagnéticas estaba de
acuerdo con el valor experimental encontrado por Fizeau para la velocidad de la luz, 315000 km/s, y esta
coincidencia llevó a Maxwell a escribir:

Esta velocidad es tan cercana a la de la luz que parece haber fuertes razones para
concluir que la propia luz (incluyendo el calor radiante y otras radiaciones si las hay)
es una perturbación electromagnética en forma de ondas que se propagan a través del
campo electromagnético de acuerdo con las leyes electromagnéticas.

Por consiguiente, la teoría de Maxwell constituía no sólo la unificación de la electricidad y el magne-


tismo, sino también la unificación de la óptica. De ahí que esta teoría sea considerada como uno de los
grandes logros de la física y del intelecto humano.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 283


Volumen II. Física II

2.1.2. Ondas electromagnéticas planas


La forma de las soluciones de las ecuaciones de onda dadas por (24) y (25) dependerán de la for-
ma en que se generan las ondas, de las características del medio, distancia a la fuente, etc.
Una solución de dichas ecuaciones son las ondas planas. Estas ondas se caracterizan por que el
valor del campo eléctrico y del campo magnético es el mismo en un plano perpendicular a la direc-
ción de propagación. Si consideramos que esta dirección de propagación coincide con el eje z, enton-
ces, los campos eléctricos y magnéticos deben ser independientes de las coordenadas x e y:
r r
E = E( z, t ) (32)
r r
B = B( z, t ) (33)
En consecuencia:
r r
¶E ¶E
= =0 (34)
¶x ¶y
r r
¶B ¶B
= =0 (35)
¶x ¶y
En este caso, las ecuaciones de onda de los campos eléctrico y magnético se reducen a:
r r
¶2E ¶2E
– me 2 = 0 (36)
¶z 2 ¶t
r r
¶2B ¶2B
– me =0 (37)
¶z 2 ¶t 2

Cada componente de los campos debe satisfacer una ecuación de onda similar a las anteriores. Si con-
venimos que los campos físicos eléctrico y magnético se obtienen tomando la parte real de magnitu-
des complejas, podemos escribir la solución de estas ecuaciones como:
r r
E = E 0 e i ( kz– wt) (38)
r r
B = B 0 e i ( kz– wt) (39)
en donde k está relacionado con la frecuencia w de la onda y la velocidad de propagación u por:
w = ku (40)
Más tarde, analizaremos detalladamente las soluciones de onda plana dadas (38) y (39).

2.1.3. Transversalidad de las ondas electromagnéticas


r rA continuación vamos a estudiar la posibilidad de obtener la orientación relativa de los campos
E y B. Para ello, escribamos las ecuaciones de Maxwell para el caso de ondas planas en las que se sa-
tisfacen las ecuaciones (34) y (35). Haciendo esto tenemos que, de la ecuación de la divergencia del
campo eléctrico:
¶E z
=0 (41)
¶z

284 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

De la ecuación de la divergencia del campo magnético, se tiene que:


¶B z
=0 (42)
¶z
Por otro lado, de la ecuación (11) del rotacional del campo eléctrico se obtiene que:
¶E y ¶B x
= (43)
¶z ¶t

¶E x ¶B y
=– (44)
¶z ¶t
¶B z
0= (45)
¶t
Y de la ecuación (10) del rotacional del campo magnético:
¶B y ¶E x
= – me (46)
¶z ¶t

¶B x ¶E y
= me (47)
¶z ¶t
¶E z
0= (48)
¶t
Las ecuaciones (41) y (48), por un lado, y las ecuaciones (42) y (45) por otro, muestran que las
componentes Ez y Bz son constantes en el tiempo y en el espacio. Por tanto, si suponemos que los
campos eléctrico y magnético son nulos antes de la llegada de la onda (es decir en ausencia de campos
estáticos), siguen siendo nulos en todo instante de tiempo. Por consiguiente, podemos escribir que:
Ez = 0 Bz = 0 (49)
r r
Estos resultados indican que las ondas electromagnéticas son transversales: los vectores E y B son
perpendiculares a la dirección de propagación. Por consiguiente, los vectores campo eléctrico y mag-
nético sólo tendrán componentes perpendiculares a la dirección de propagación; es decir:
r
E = E x i$ + E y $j (50)
r
B = B x i$ + B y $j (51)

y son soluciones de las ecuaciones (36) y (37).


Cada una de estas
r ecuaciones
r da lugar a dos ecuaciones escalares de onda, una para cada una de
las componentes de E y B:
¶ 2 Ex ¶ 2 Ex
– me =0 (52)
¶z 2 ¶t 2

¶2E y ¶2E y
– me =0 (53)
¶z 2 ¶t 2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 285


Volumen II. Física II

Y para el campo magnético:


¶ 2 Bx ¶ 2 Bx
– me =0 (54)
¶z 2 ¶t 2
¶2B y ¶2B y
– me =0 (55)
¶z 2 ¶t 2

Con el convenio de utilizar magnitudes complejas para representar los campos físicos, las solu-
ciones de estas ecuaciones las podemos escribir como:
E x = E 0x e i ( kz– wt) (56)
E y = E 0 y e i ( kz– wt) (57)

Y para el campo magnético:


B x = B 0x e i ( kz– wt) (58)
i ( kz– wt)
B y = B0 y e (59)

Las magnitudes E0x, E0y, B0x y B0y son en general complejas con el objeto de incorporar el desfase en-
tre las distintas componentes.
Por otra parte, las componentes del campo eléctrico y el campo magnético están relacionadas
mediante las ecuaciones de Maxwell. Así, por ejemplo, de la ecuación (43) y de las ecuaciones (57) y
(58), obtenemos que:
1
KE y = – wB x Þ B x = – E y (60)
u
Análogamente, de las ecuaciones (44) y de las ecuaciones (56) y (59), resulta que:
1
B y = Ex (61)
u
Por tanto, las soluciones generales de una onda plana que se propaga en la dirección del eje z la pode-
mos escribir como:
r
E = E x i$ + E y $j = ( E 0x i$ + E 0 y $j )e i ( kz– wt) (62)
r 1
B = B x i$ + B y $j = (– E 0 y i$ + E 0x $j ) e i ( kz– wt) (63)
u
r r
Calculando el producto escalar de los vectores E y B se tiene que:
r r
E ×B = 0 (64)
Es decir, que el campo eléctrico y el campo magnético son perpendiculares entre sí, y perpendiculares
a la dirección de propagación de la onda electromagnética.
r r
Por otro lado, del producto vectorial de E y B, se tiene que:
r r 1 1 E2
E ´ B = ( E x B y – E y B x )k$ = ( 2 E x2 + 2 E y2 )k$ = 2 k$ (65)
u u u
r r
Es decir, los vectores E, B y la dirección de propagación, en nuestro caso k$ forman un triedro a derechas.
Por tanto, los campos eléctrico y magnético en una onda electromagnética plana son perpendi-
culares a la dirección de propagación y forman con ésta un triedro a derechas.

286 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

3. PROPIEDADES DE LAS ONDAS LUMINOSAS


Los resultados experimentales de Young y las bases teóricas de Maxwell ponen en evidencia que la
luz se comporta como una onda electromagnética. Por tanto, como cualquier onda da lugar a una serie de
fenómenos característicos como la interferencia y la difracción. Pero a diferencia de las ondas longitudi-
nales, como el sonido, la luz presenta además unos fenómenos que se conocen como polarización, que son
consecuencia del carácter transversal de las ondas electromagnéticas y por consiguiente de la luz.
En este apartado vamos a estudiar las propiedades de las ondas luminosas y sus fenómenos ca-
racterísticos. Debido a la gran extensión que requeriría un tratamiento detallado de estos importantes
fenómenos vamos a limitarnos a exponer los aspectos fundamentales de los mismos.

3.1. Polarización

3.1.1. Polarización de las ondas electromagnéticas


Hemos visto que la solución de la ecuación de onda para una onda electromagnética plana viene
dada por las ecuaciones (56)-(59) en donde las amplitudes son magnitudes complejas que permiten
englobar
r rla diferencia de fase entre las distintas componentes del campo. La orientación de los cam-
pos E y B en el espacio, respecto de un sistema de ejes establecido, dependen precisamente de la di-
ferencia de fase o fase relativa entre las diferentes componentes.
Para estudiar este fenómeno, supongamos que las componentes del campo eléctrico son de la
forma dada por las ecuaciones (56)
E x = E 0x e i ( kz– wt)
E y = E 0 y e i ( kz– wt)

Supongamos que el desfase entre ellas es q. Es decir, podemos considerar que E0x es un número real y
reescribir la cantidad compleja E0y como E0ye–iq. De esta manera, sustituyendo esto en las expresiones
anteriores, y (57) y tomando la parte, se tiene que:
E x = E 0x cos( kz – wt ) (66)
E y = E 0 y cos( kz – wt + q ) (67)
r
Por tanto, en general, el campo eléctrico E de componentes Ex y Ey variará con el tiempo su mó-
dulo y su orientación en el espacio. Veamos esto, en algunos casos.
– Polarización lineal: supongamos que el desfase entre las dos componentes del campo
eléctrico es cero. En este caso, haciendo q = 0 en la ecuación (67), tendremos que:
E x = E 0x cos( kz – wt ) (68)
E y = E 0 y cos( kz – wt ) (69)
Y por consiguiente:
r
E = ( E 0x i$ + E 0 y $j )cos( kz – wt ) (70)

Por tanto, el campo eléctrico está orientado siempre en una misma dirección que forma un
ángulo a con el eje x dado por:
E0 y
a= arctan (71)
E 0x

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 287


Volumen II. Física II

Es decir, que el campo eléctrico oscila siempre en un plano que contiene a la dirección de
propagación k$ y que forma un ángulo a con el eje x. A este plano se le denomina plano de
polarización, y decimos que la onda está polarizada linealmente.
De las expresiones (58) y (59) encontramos que el campo magnético vendrá dado por:
r 1
B = (– E 0 y i$ + E 0x $j )cos( kz – wt ) (72)
c
en donde hemos denominado c a la velocidad de proporción.
Por tanto, el campo magnético oscila en fase con el campo eléctrico en una direcciónr fija
r en
el espacio. Resultado que ya sabíamos, puesto que anteriormente se demostró que E, B y la
dirección de propagación forman un triedro a derechas. En la figura 1 se muestra la orienta-
ción relativa de los campos eléctricos y magnéticos en un instante dado en distintos puntos
del espacio.

Figura 1. Onda
electromagnética
polarizada linealmente.

– Polarización circular y elíptica: supongamos ahora que el desfase de las dos componen-
tes del campo eléctrico es de –p/2. En este caso, tendremos que:
E x = E 0x cos( kz – wt ) (73)
E y = E 0 y cos( kz – wt – p / 2) = E 0 y sen ( kz – wt ) (74)
El campo eléctrico vendrá dado por:
r
E = E 0x cos( kz – wt )i$ + E 0 y sen ( kz – wt ) $j (75)

Por tanto, el campo eléctrico cambia en módulo y en dirección con el tiempo, y con la posición.
Esto lo podemos ver si encontramos la curva que describe el extremo del vector campo eléc-
trico. De la expresión (73) obtenemos que:
Ex
= cos( kz – wt ) (76)
E 0x
Por otro lado, de (74):
Ey
= sen ( kz – wt ) (77)
E0 y

Elevando al cuadrado y sumando, obtenemos que:


E x2 E y2
+ =1 (78)
E 02x E 02y

288 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Esta ecuación corresponde a una elipse cuyos semiejes son E0x y E0y. Por consiguiente, al
avanzar la onda, el campo eléctrico describe una elipse en un plano perpendicular a la di-
rección de propagación. Decimos que la onda está polarizada elípticamente.
En el caso concreto en que las amplitudes E0x y E0y son iguales, E0x = E0y = E0, la relación en-
tre las componentes del campo eléctrico se convierte en:
E x2 + E y2 = E 02 (79)
Expresión que corresponde a una circunferencia de radio E0. En este caso, el extremo del
vector campo eléctrico describe una circunferencia y decimos que la onda electromagnéti-
ca está polarizada circularmente. En la figura 2 se muestra el valor del campo eléctrico en el
instante t = 0 para distintos valores de la variable z.

y
x

E
E
E
B
B E
Figura 2. Onda B B
z
electromagnética
polarizada circularmente.

Para una onda electromagnética polarizada circularmente, se tiene que:


r
E = E 0 [cos( kz – wt )i$ + sen( kz – wt ) $j ] (80)
r
Por lo que el campo E forma en todo momento un ángulo con la dirección del eje x dado por:
sen ( kz – wt )
a = arctan = kz – wt (81)
cos( kz – wt )
Se tiene, por tanto, que la velocidad con la que gira el campo eléctrico es igual a la frecuen-
cia angular w omega de la onda electromagnética.

3.1.2. Polarización de la luz


Una fuente ordinaria de luz está compuesta de un número enormemente grande de emisores ató-
micos que están orientados al azar. La emisión de luz de cada una de estas fuentes atómicas es debida
a las transiciones de los electrones entre diferentes niveles energéticos en el átomo. Estas transiciones
electrónicas tienen una duración del orden de 10–8 segundos y cada una de ellas producirá una onda
polarizada de esa duración. Las diferentes emisiones producidas por los distintos átomos de la fuente
se superponen para dar lugar a una onda polarizada resultante que no tiene una duración mayor que
esos 10–8 segundos. En consecuencia se emiten continuamente trenes de onda con polarizaciones que
varían de forma aleatoria. Si estos cambios se producen tan rápidamente que no se puede detectar un
estado de polarización resultante decimos que la luz es no polarizada o luz natural.
La luz natural se puede representar matemáticamente como una combinación de dos ondas pola-
rizadas linealmente que sean ortogonales e incoherentes, es decir, que la diferencia relativa de fase
entre ambas componentes varía rápida y aleatoriamente en el tiempo.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 289


Volumen II. Física II

Por regla general, la luz que procede tanto de fuentes naturales como artificiales no es ni luz
completamente polarizada ni luz no polarizada. Es decir, que el campo eléctrico no varía de forma re-
gular pero tampoco lo hace de forma completamente irregular. Se dice entonces que la luz está par-
cialmente polarizada. En este caso podemos suponer que la luz es una superposición de luz
polarizada y de luz natural (no polarizada). El grado de polarización de la luz se define como:
Ix – I y
G= (82)
I x +I y

en donde x e y son las direcciones en las que la intensidad es máxima y mínima respectivamente.
Cuando la luz es natural, G = 0 pues la intensidad es la misma en cualquier dirección, de manera
que si representamos la luz con dos campos eléctricos ortogonales, como dijimos anteriormente, Ix = Iy.
En el caso de luz polarizada linealmente, si adoptamos como dirección x la dirección del plano de pola-
rización se tiene que G = 1.

3.1.3. Métodos para polarizar la luz


La luz puede polarizarse haciéndola pasar a través de unos dispositivos denominados polarizado-
res. Estos dispositivos ópticos transmiten la luz de forma selectiva dejando pasar sólo aquella que tiene
su plano de polarización paralelo al eje de transmisión del polarizador. Por el contrario, la luz que tiene
su plano de polarización perpendicular al eje de transmisión del polarizador queda bloqueada.
En la figura 3 se muestra un haz de luz no polarizada incidiendo sobre un polarizador. El campo
eléctrico transmitido es paralelo al eje de transmisión. El detector sirve para medir la intensidad de la
onda transmitida. Si ahora giramos el polarizador cierto ángulo, el detector no sufrirá ningún cambio,
debido a la simetría completa de la luz no polarizada.

Detector
Polarizador

E
Luz no
polarizada

Eje de
transmisión
Plano de proyección
del campo E

Figura 3.Onda electromagnética no polarizada incidiendo


sobre un polarizador. La luz transmitida es aquella cuyo
plano de polarización es paralelo al eje de transmisión.

Supongamos ahora que realizamos la misma experiencia pero introducimos un segundo polari-
zador, que llamaremos analizador para distinguirlo del primero, cuyo eje de transmisión es vertical
(figura 4). En este caso, si la amplitud del campo eléctrico que deja pasar el polarizador es E0, la am-
plitud del campo eléctrico que pasa a través del analizador es E0 cos q. Es decir, el analizador sólo
deja pasar la componente paralela al eje de transmisión. La intensidad de la onda medida por el detec-
tor vendrá dada por:
ce o 2
I= E cos 2 q (83)
2 0

290 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Esta intensidad será máxima, e igual a la intensidad de la luz que deja pasar el polarizador, si el eje del
analizador coincide con el eje del polarizador. Si denominamos I0 a esta intensidad:
ce o 2
I0 = E (84)
2 0
Por lo tanto, la intensidad medida por el detector en presencia del analizador será:

I = I0 cos q
2
(85)

Este resultado se conoce como ley de Malus puesto que fue enunciado por primera vez por Etienne
Malus (1775-1812).

Detector

E
Polarizador q

Luz no E
polarizada

Analizador
Figura 4. Polarizador Eje de
lineal y analizador que transmisión Plano de proyección
permiten comprobar la del campo E
ley de Malus.

Existen cuatro procesos mediante los cuales puede obtenerse luz polarizada a partir de luz no po-
larizada. Estos cuatro procesos son:

– Absorción selectiva o dicroísmo: debido a su anisotropía en la estructura cristalina, algu-


nas sustancias absorben una de las dos componentes ortogonales de un haz de luz que inci-
de sobre ella. Esta situación denominada dicroísmo se ilustra en la figura 5.

Luz no
polarizada

Luz linealmente
polarizada

Componente horizontal
completamente absorbida

Componente vertical
Figura 5. Dicroísmo. parcialmente absorbida

La más conocida de estas sustancias es la turmalina (borosilicato de aluminio). Para esta sus-
tancia, existe una dirección privilegiada en el cristal denominada eje principal o eje óptico
que está determinada por la estructura cristalina. La componente del campo eléctrico de una
onda incidente que es perpendicular al eje óptico es fuertemente absorbida por la sustancia. De
manera que cuanto más grueso sea el cristal más completa será la absorción y por tanto menos
será la componente transmitida en esa dirección. Por consiguiente esta sustancia puede utilizar-
se como un polarizador cuyo eje de transmisión coincide con el eje óptico del cristal.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 291


Volumen II. Física II

Sin embargo, la utilización de la turmalina como polarizador es limitada por dos razones.
En primer lugar porque los cristales de turmalina son pequeños; y en segundo lugar porque
la absorción depende de la frecuencia, por lo que la muestra se ve coloreada. Así por ejem-
plo, un cristal de turmalina puede verse de color verde (depende de la orientación) cuando
se mira perpendicular al eje óptico y negro cuando se mira en la dirección del eje óptico,
pues en este caso todos los campos eléctricos son perpendiculares a él. De aquí el nombre
dado a estos cristales, pues dicroico significa dos colores.
Hay otras sustancias que presentan el mismo comportamiento que la turmalina, como por
ejemplo la herapatita (sulfato de yodoquinina), pero que tiene el inconveniente de que sus
cristales son muy quebradizos y por tanto son difíciles de usar.
En 1928 Edwin Herbert Land inventó el primer polarizador de hoja, que consistía en mu-
chos cristales de herapatita paralelos entre sí y situados entre dos hojas de vidrio o celu-
loide. A este polarizador se le conoce como hoja polaroide J. Diez años más tarde, este
mismo investigador inventó la hoja polaroide H, que básicamente consiste en una hoja de
alcohol de polivinilo calentada y estirada, y posteriormente sumergida en una solución de
yodo. De esta manera se consiguen largas moléculas orientadas paralelamente que se
comportan como alambres por los que pueden circular los electrones del yodo. La com-
ponente de un campo eléctrico paralela a la orientación de estas moléculas realizan un
trabajo sobre los electrones del yodo y es fuertemente absorbida por el material. Por tan-
to, la hoja se comporta como un polarizador cuyo eje de transmisión es perpendicular a la
orientación de las moléculas en el cristal.
– Reflexión y transmisión Otra manera de conseguir luz polarizada es mediante reflexión.
Consideremos una haz de luz no polarizada que incide sobre una superficie reflectante
(figura 6). En los casos extremos en los que el ángulo de incidencia es cero (incidencia
normal) o 90º (incidencia rasante) la luz reflejada no está polarizada. Para ángulos de in-
cidencia comprendidos entre esos valores extremos, el haz refractado siempre está par-
cialmente polarizado, mientras que el haz reflejado también lo está, salvo para un ángulo,
denominado ángulo de polarización qp, para el que el haz reflejado está completamente
polarizado.

Luz incidente
Haz reflejado
no polarizada
0P polarizado
0P
n


p/2

Haz reflactado
parcialmente Figura 6. Polarización
polarizado por reflexión.

Si el ángulo de incidencia es igual al ángulo de polarización el haz reflejado está completa-


mente polarizado y su plano de polarización es perpendicular al plano de incidencia. Por
consiguiente, el campo eléctrico del haz reflejado oscila en la dirección paralela a la super-
ficie reflectora.

292 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Sir David Brewster (1781-1868) descubrió en 1812 que cuando el ángulo de incidencia es
igual al ángulo de polarización, el haz reflejado y el haz refractado forman entre sí un ángu-
lo de 90º. Este resultado lo podemos escribir, teniendo en cuenta que qi = qp como:
p
q p +q r = (86)
2
Teniendo en cuenta la ley de la refracción de Snell, si denominamos n1 al índice de refrac-
ción del medio incidente y n2 al índice de refracción del medio que contiene el haz refracta-
do, podemos escribir:
æp ö
n 1 sen q p = n 2 senç – q p ÷ (87)
è2 ø
Utilizando la igualdad trigonométrica sen(p/2 – qp) = cosqp, la expresión anterior puede es-
cribirse como:
n
tan q p = 2 (88)
n1
Esta expresión se conoce como ley de Brewster, y es normal denominar al ángulo de polari-
zación como ángulo de Brewster.
Si el haz de luz incidente contiene el campo eléctrico en el plano de incidencia, si incide en
una superficie con el ángulo de Brewster no habrá haz reflejado.
En cuanto a la luz transmitida, siempre está parcialmente polarizada, aun cuando el ángulo
de incidencia sea el ángulo de Brewster. Esto es así debido a que sólo se refleja una parte
pequeña de la luz incidente.
Este fenómeno de la polarización por reflexión puede utilizarse en la construcción de gafas
de sol con material polarizador para evitar los deslumbramientos. Si la luz se refleja en una
superficie horizontal como puede ser un lago, el suelo, o nieve, el plano de incidencia será
perpendicular y el vector del campo eléctrico reflejado será predominantemente horizontal.
Por consiguiente si las gafas se construyen con un material cuyo eje de transmisión es per-
pendicular absorberán gran parte de la luz reflejada evitando así los deslumbramientos.
Esto puede observarse fácilmente si se dispone de unas gafas de este tipo sin más que girar-
las. Observaremos que la luz transmitida aumenta de forma apreciable si las giramos 90º.
– Dispersión o scattering: la luz también se polariza cuando es dispersada por los átomos
del medio en el que se propaga. Para entender este fenómeno supongamos una luz no pola-
rizada que incide sobre unas moléculas dispersoras situadas en las cercanías del origen (fi-
gura 7). Puesto que el campo eléctrico incidente se propaga en la dirección del eje z, no
tendrá componente en esa dirección y por consiguiente la luz que incida sobre un observa-
dor perpendicular a la dirección de propagación, por ejemplo el eje x sólo tendrá compo-
nente a lo largo del eje y. Por tanto se tendrá luz linealmente polarizada. Lo mismo se
observará desde un punto situado en el eje y. La luz que se propaga en esa dirección será luz
polarizada linealmente y su plano de polarización será el plano xy.
y x
Luz incidente
no polarizada

Luz transmitida
no polarizada
(fundamentalmente roja)

Figura 7. Polarización por Luz dispersada polarizada


dispersión o scattering. (fundamentalemente azul)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 293


Volumen II. Física II

Un ejemplo de dispersión lo observamos al mirar al cielo. La luz que nos llega es la luz dis-
persada por las moléculas de la atmósfera. Si ésta no existiera, el cielo se vería negro y po-
drían verse las estrellas durante el día. La magnitud de esta dispersión depende en gran
medida de la frecuencia o de la longitud de onda de la luz incidente, de manera que la dis-
persión es mayor para las longitudes de onda más cortas. Así, la zona roja del espectro (lon-
gitudes de onda alta) no se desviarán prácticamente o lo hacen en mucha menor medida que
la luz azul y violeta (longitud de onda corta). Esta luz fuertemente dispersada proviene de
muchas direcciones mientras que la luz roja proviene sólo de la dirección de propagación,
por lo que observamos un cielo azul y brillante. En las puestas de sol, este se encuentra en
una posición muy baja, de manera que la luz que incide sobre un observador es práctica-
mente la luz que no es dispersada por la atmósfera, por lo que las puestas de sol son de color
rojo anaranjado que corresponde a las mayores longitudes de onda.
– Birrefringencia: en muchos materiales cristalinos la velocidad de propagación de las on-
das electromagnéticas es la misma en todas las direcciones, son los denominados materia-
les isótropos. Sin embargo, en otros materiales la velocidad de propagación depende de la
dirección en que tenga lugar. A este tipo de materiales se les denomina anisótropos.
Esos materiales anisótropos, entre los que se encuentran la calcita y el cuarzo, presentan la
propiedad de doble refracción o birrefringencia, que consiste en que en su interior hay dos
haces o rayos refractados, el haz ordinario (rayo O) y el haz extraordinario (rayo E). Ade-
más estos rayos están polarizados de forma que sus planos de polarización son perpendicu-
lares entre sí (figura 8). Para estos haces, si se miden los ángulos de incidencia y de refrac-
ción se observa que la ley de Snell se satisface sólo para el haz ordinario, pero no para el haz
extraordinario. Sin embargo, existe una dirección en el cristal, denominada eje óptico, tal
que si el plano de incidencia es perpendicular a dicho eje entonces la ley de Snell se cumple
para ambos rayos. En este caso, los rayos se propagan en la misma dirección pero con velo-
cidades diferentes. Por consiguiente, el número de longitudes de onda de cada uno de los
haces contenidos en el cristal es diferente, al serlo su longitud de onda l = u/f. Los rayos or-
dinario y extraordinario emergen del cristal desfasados cierta cantidad que depende del es-
pesor del cristal y de la longitud de onda de la luz incidente. Si el desfase a la salida es de
90º se dice que el cristal es una lámina de cuarto de onda, mientras que si es de 180º se de-
nomina lámina de media onda. En general a este tipo de cristales utilizados con esta finali-
dad se les denomina retardadores.

Figura 8. Polarización
por birrefringencia.

3.2. Interferencia
El fenómeno de interferencias ya ha sido estudiado en el tema 18 para ondas escalares. En este apar-
tado vamos a estudiarlo de nuevo teniendo en cuenta que las ondas luminosas son ondas vectoriales.
Tal como se vio en el tema dedicado a las ondas en general, la interferencia es el fenómeno de
superposición de dos ondas de la misma frecuencia, pero de fase y amplitud diferentes, en un punto
cualquiera del espacio. Como veremos esto da lugar a que la intensidad resultante sea diferente de la
suma de las intensidades de las ondas incidentes.
Los resultados que encontraremos a continuación son muy generales e independientes del tipo
de ondas utilizadas. No obstante, con el objeto de simplificar nuestro análisis vamos a considerar dos

294 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

fuentes puntuales S1 y S2, con una separación mayor que la longitud de onda que emiten ondas mono-
cromáticas de la misma frecuencia las cuales se propagan en un medio homogéneo. Los campos eléc-
tricos de las ondas esféricas producidas por las fuentes los podemos escribir como:
r r
E 1 = E 01 sen(wt – kr1 – f1) (89)
r r
E 2 = E 02 sen(wt – kr2 – f2) (90)

en donde r1 y r2 son las distancias a las fuentes. Las amplitudes de las ondas serán distintas aún cuan-
do ambas fuentes sean idénticas, puesto que al tratarse de ondas esféricas, decrecerán con la distancia
en la forma 1/r1 y 1/r2.
De acuerdo con el principio de superposición, en un punto cualquiera del espacio, el campo eléc-
trico resultante de la composición de las dos ondas vendrá dado por:
r r r r r
E = E 1 + E 2 = E 01 sen ( wt – kr1 – f 1 )+ E 02 sen ( wt – kr2 – f 2 ) (91)

Puesto que el campo eléctrico varía muy rápidamente es imposible detectar el valor del campo
eléctrico en un instante dado, por lo que el estudio de la interferencia y de otros fenómenos ondulato-
rios se hace en función de la intensidad. La intensidad de una onda electromagnética viene dada por
(ver tema 25):
I = eu áE ñ
2
(92)
siendo e la permitividad del medio y u la velocidad de propagación de la onda en dicho medio. Tenien-
do en cuenta que el campo eléctrico resultante es la suma de los campos eléctricos, la intensidad será:
r r r r r r r r
I = eu ( E 1 + E 2 )×( E 1 + E 2 ) = eu ( E 12 + E 22 + 2E 1 E 2 ) = I 1 + I 2 +I 12 (93)

en donde:
r
I 1 = eu E 12 (94)
r
I 2 = eu E 22 (95)
r r
I 12 = 2eu E 1 ×E 2 (96)

Esta última expresión


r se rconoce con el nombre de término de interferencia. Utilizando las expresio-
nes de los campos E 1 y E 2 , el producto escalar de ambos es:
r r r r
E 1 ×E 2 = E 01 ×E 02 sen ( wt – kr1 – f 1 ) sen ( wt – kr2 – f 2 ) (97)

Si tenemos en cuenta la propiedad trigonométrica sen(a – b) = sena cosb – cosa senb, y la aplicamos
a la expresión anterior, agrupando términos tenemos que:
r r r r
E 1 ×E 2 = E 01 ×E 02 [sen wt cos( kr1 + f 1 ) – cos wt sen ( kr1 + f 1 )]´
(98)
´ [sen wt cos(kr2 + f2) – cos wt sen(kr2 + f2)]
Si tenemos en cuenta que los valores medios de las funciones trigonométricas son:
1
sen 2 wt = cos 2 wt = (99)
2
sen wt cos wt = 0 (100)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 295


Volumen II. Física II

Calculando el promedio temporal de la expresión (98) se tiene que:


r r 1r r
E 1 ×E 2 = E 01 ×E 02 cos( kr1 + f 1 – kr2 – f 2 ) (101)
2
Por consiguiente el término de interferencia puede escribirse como:
r r
I 12 = euE 01 ×E 02 cos d (102)

en donde d es la diferencia de fase resultante de combinar la diferencia de fase inicial y la diferencia


de camino recorrido por las dos ondas hasta llegar al punto P:
d = k(r1 – r2) + (f1 – f2) (103)
Observemos que si los campos eléctricos son perpendiculares el término de interferencia vale cero:
r r
E 01^E 02 Þ I 12 = 0 (104)

En lo que sigue vamos a considerar que los campos eléctricos de las dos ondas son paralelos, con lo
que el tratamiento es exactamente el mismo que el que realizamos para el caso de ondas escalares.
Considerando que los campos son paralelos, la intensidad de la onda se escribe como:
I 12 = euE 01 E 02 cos d (105)
Expresión que podemos escribir de forma más conveniente si tenemos en cuenta que:
r 1 r2
I 1 = eu E 12 = euE 01 (106)
2
r 1 r2
I 2 = eu E 22 = euE 02 (107)
2
Con estos resultados, el término de interferencia puede escribirse como:
I 12 = 2 I 1 I 2 cos d (108)

Y la intensidad total como:


I = I 1 + I 2 + 2 I 1 I 2 cos d (109)

La intensidad resultante puede ser mayor, menor o igual a I1 + I2 dependiendo del valor del término de
interferencia, o lo que es lo mismo del valor de d.
En aquellos puntos del espacio en los que se satisfaga que cos d = 1 se tendrá un máximo en la
intensidad:
I máx = I 1 + I 2 + 2 I 1 I 2 (110)

lo que ocurrirá cuando:


d = 0, ±2p, ±4p, … (111)
Es decir, la interferencia es máxima cuando la diferencia de fase entre las ondas es un múltiplo entero
de 2p, o lo que es lo mismo, cuando las dos ondas están en fase. Se dice entonces que la interferencia
es constructiva total.
En aquellos puntos para los que se satisface que 0 < cos d < 1 las ondas no están en fase y la in-
tensidad es mayor que I1 + I2 pero menor que la intensidad máxima. Decimos que hay interferencia
constructiva. Cuando d = p/2 las dos ondas están desfasadas 90º y la intensidad es igual a la suma de

296 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

las intensidades de las dos ondas por separado. Para aquellos puntos del espacio en los que se satisfa-
ce que 0 > cos d < –1 la intensidad resultante es menor que I1 + I2 y decimos que la interferencia es
destructiva. Por último, cuando cos d = –1, se tiene el valor mínimo de la intensidad:
I mín = I 1 + I 2 – 2 I 1 I 2 (112)
lo que ocurrirá cuando:
d = ±p, ±3p, … (113)
La intensidad es mínima cuando las ondas están desfasadas 180º. En este caso se dice que la interfe-
rencia es destructiva total.
Las condiciones anteriores de máximos y mínimos de interferencia se pueden escribir de otra
manera si tenemos en cuenta la relación (103):
2p f – f2
d = 2np Þ ( r – r )+ ( f 1 – f 2 ) = 2np Þ r1 – r2 = nl + 1 l (114)
l 1 2 2p
Y de la misma manera se obtiene que:
2p
d = ( 2n+1)p Þ ( r – r )+ ( f 1 – f 2 ) = ( 2n+1)p Þ
l 1 2 (115)
l f – f2
Þ r1 – r2 = ( 2n+1) + 1 l
2 2p

Si las ondas emitidas por los focos S1 y S2 están en fase, las expresiones de las condiciones de
máximos y mínimos de intensidad se simplifican:
ìnl interferencia máxima
ï
r1 – r2 = í l (116)
ï( 2n+1) interferencia mínima
î 2

Ahora bien, r1 – r2 = Cte define un hiperboloide de revolución en cuyos focos se encuentran las fuen-
tes S1 y S2 (figura 9). Los hiperboloides de amplitud máxima corresponden a r1 – r2 = nl y los de míni-
ma amplitud a r1 – r2 = (2n + 1) l/2.

Figura 9. Hiperboloides de S S´
interferencia constructiva total
(máxima) y destructiva total (mínima).

Un caso particular e interesante de lo que hemos estudiado anteriormente se tiene cuando la inten-
sidad de las ondas emitidas por los dos focos son iguales. Si en la ecuación (109) hacemos I1 = I2 = I0, la
intensidad resultante será:
d
I = 2I 0 (1+cos d ) = 4I 0 cos 2 (117)
2
de donde se obtiene que, en este caso particular, la intensidad mínima es Imín = 0 y la intensidad máxi-
ma Imáx = 4I0

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 297


Volumen II. Física II

3.2.1. Condiciones de interferencia


Un aspecto fundamental del fenómeno de interferencia es que para que se produzca debe ocurrir
que en cualquier punto del espacio, la diferencia de fase f1 – f2 entre las ondas que se superponen ha
de ser constante en el tiempo. Si esto no es así, el patrón de interferencia que se obtiene no es lo sufi-
cientemente estable en el tiempo como para poder ser observado. Esto es lo que ocurre cuando las on-
das que se superponen proceden de dos fuentes distintas. Un fuente típica de luz contiene un número
muy grande de átomos excitados cuyas transiciones electrónicas son las que producen la luz. Pero la
duración de estas transiciones, y por tanto de los trenes de ondas individuales emitidos por cada áto-
mo, son del orden de 10–8 segundos. Por tanto, dos fuentes distintas podrían mantener sus fases relati-
vas constantes durante ese intervalo de tiempo. Lo que evidentemente resulta inadecuado para
mantener un patrón de interferencia estable. Es decir, que es imposible observar el fenómeno de inter-
ferencia para ondas de luz que provienen de dos fuentes distintas.
Por otro lado, las ondas que se superponen deben ser casi de la misma frecuencia. Si existe una
diferencia apreciable en la frecuencia emitida por ambas fuentes esto se traduce en una diferencia de
fase variable con el tiempo lo que llevaría consigo que el promedio temporal del término de interfe-
rencia fuera cero y por tanto no tuviese lugar el fenómeno de interferencia.
Estas condiciones se denominan condiciones de coherencia. Es decir, que para que se produzca
el fenómeno de interferencia, las fuentes emisoras de ondas han de ser coherentes. Si las fuentes no
emiten ondas de la misma frecuencia, o si sus desfasajes cambian aleatoriamente en el tiempo, no se
produce el fenómeno de interferencia, y se dice que las fuentes son incoherentes.
En cuanto a las amplitudes de las ondas que interfieren, estas pueden ser cualesquiera. No obs-
tante, los patrones de interferencia más claros se obtienen cuando las ondas que interfieren sean de
amplitud igual o casi igual, pues en este caso el mínimo de interferencia es cero lo que da lugar a zo-
nas obscuras con gran contraste con las zonas de máxima intensidad.

3.2.2. Franjas de interferencias


En este apartado vamos a determinar el patrón de interferencia que se obtiene en una pantalla si-
tuada en un plano paralelo a la línea que une dos fuentes puntuales coherentes S1 S2 (figura 10).

s1

D
d q
R r1

s2 x Figura 10. Esquema para


encontrar las franjas de
r2
interferencia producidas por
P dos fuentes puntuales.
Si suponemos que las amplitudes de las ondas emitidas por las fuentes son iguales, la intensidad
resultante en cualquier punto del espacio viene dada por la expresión (117)
d
I = 4I 0 cos 2 (118)
2
En donde d es el desfase entre las dos ondas. Si suponemos que las ondas emitidas por las fuentes es-
tán en fase, d viene dado por:
d = k(r1 – r2) (119)

298 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

De la figura, encontramos que:


æ d ö2
r12 =çx+ ÷ + D 2 (120)
è 2ø

æ d ö2
r22 =çx – ÷ + D 2 (121)
è 2ø

Restando ambas expresiones:


2xd
r12 – r22 = 2xd Þ r1 – r2 = (122)
r1 + r2

Si el punto P se encuentra suficientemente alejado de las fuentes (D >> d), entonces:


r1 + r2 • 2R (123)
Y por lo tanto:
xd
r1 – r2 = = d sen q (124)
R

De la expresión anterior y de (116) se tiene que la condición para que exista un máximo de amplitud
en el punto P, es:
l
sen q = n (n = 0,1, 2, ...) (125)
d

Si el ángulo q no es muy grande, esta condición se escribe como:


x l lD
sen q • = n Þ x= n (126)
D d d
Es decir que los puntos de máxima amplitud son equidistantes, siendo la distancia entre dos máximos
consecutivos:
lD
Dx = (127)
d

Análogamente, de (116) y (124) se tiene que la condición para que exista un mínimo de amplitud
en el punto P, es:
l
sen q = ( 2n+1) (n = 0,1 2, ...) (128)
2d

Si el ángulo q no es muy grande, esta condición se escribe como:


x l lD
sen q • = ( 2n+1) Þ x = ( 2n+1) (129)
D 2d 2d
Es decir que los puntos de mínima amplitud son equidistantes, siendo la distancia entre dos mínimos
consecutivos:
lD
Dx = (130)
d

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 299


Volumen II. Física II

Para la intensidad, sustituyendo en la expresión (118) el resultado encontrado para d, se tiene


que:
æk ö æ p d sen q ö
I = 4I 0 cos 2ç ( r2 – r1 )÷= 4I 0 cos 2ç ÷ (131)
è2 ø è l ø

En la figura 11 se muestra la distribución de la intensidad dada por la expresión anterior.

-3 -2 -1 0 1 2 3
(d/l) send q

Figura 11. Patrón de interferencia


de las ondas emitidas por dos
fuentes puntuales.

3.2.3. Interferencia de varias fuentes


Consideremos N fuentes coherentes alineadas separadas una distancia d una de otra. Supondremos
que las distintas fuentes emiten en fase y que el campo eléctrico de todas las ondas es paralelo. Si consi-
deramos un punto P muy distante de las fuentes, los rayos que llegan a él son todos prácticamente para-
lelos (figura 12). Además, podemos suponer que la amplitud de todas las ondas esféricas individuales
que llegan al punto son iguales, pues todas han viajado casi las mismas distancias desde cada una de las
fuente al punto P. Por tanto, supondremos que:
E0(r1) = E0(r2) = E0(r3) = … E0(rN) = E0(r) (132)
Para simplificar los cálculos utilizaremos notación compleja para representar el campo eléctrico
de cada una de las ondas, siendo el campo real, la parte real de este campo complejo:
E n = E 0 e i ( krn – wt) (133)
El campo eléctrico total será la suma de los campos eléctricos individuales:
N N

E = å E n = E 0 å e i ( krn – wt) (134)


n= 1 n= 1

s1 r2 – r1
d r3 – r1
s2
s3 r 4– r 1
s4
s5 q

Figura 12. Conjunto de N


fuentes alineadas.

300 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Esta expresión puede escribirse como:


N

E = E 0 e – iwt e ikr1 å e ik ( rn – r1) (135)


n= 1

La diferencia de fase d entre fuentes adyacentes es, según la figura:


d = kd senq (136)
siendo q el ángulo que forman los rayos con la horizontal y d la separación entre dos fuentes adyacen-
tes. Utilizando este desfase, se tiene que k(r2 – r1) = d, k(r3 – r1) = 2d, etc. Llevando este resultado a la
expresión anterior del campo eléctrico resultante, podemos escribir:
N

E = E 0 e – iwt e ikr1 å ( e id ) n– 1 (137)


n= 1

La serie geométrica puede calcularse y se tiene que:


e iNd – 1 e iNd / 2 [ e iNd / 2 – e – iNd / 2 ]
N

å (e id
) n– 1 =
e id – 1
= id / 2 id / 2
e [e – e – id / 2 ]
=
n= 1 (138)
sen ( Nd / 2)
= e i ( N – 1) d / 2
sen ( d / 2)

Con este resultado, el campo eléctrico queda como:


sen ( Nd / 2)
E = E 0 e – iwt e ikr1 e i ( N – 1) d / 2 (139)
sen ( d / 2)

Si llamamos R a la distancia entre el centro de la línea que une las fuentes y el punto P:
N –1
R = r1 + d sen q (140)
2
En función de esta distancia R podemos expresar el campo como:
sen ( Nd / 2)
E = E 0 e i ( kR – wt) (141)
sen ( d / 2)

La intensidad resultante será:


r ue
I = ue E 2 = EE * (142)
2
sustituyendo en esta expresión el resultado obtenido para el campo eléctrico:
ue 2 sen 2 ( Nd / 2)
I= E (143)
2 0 sen 2 ( d / 2)

Si ahora tenemos en cuenta que la intensidad de cada una de las fuentes individuales viene dada por:
ue 2
I0 = E (144)
2 0

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 301


Volumen II. Física II

La intensidad resultante queda como:


sen 2 ( Nd / 2)
I = I0 (145)
sen 2 ( d / 2)

Si hacemos N = 2 se comprueba inmediatamente que esta ecuación se reduce a la dada por (118) en el
caso de dos fuentes puntuales.
La ecuación anterior la podemos expresar en función del ángulo q si sustituimos en ella la expre-
sión de d dada por (136). Haciendo esto, se tiene que:
2
ésen ( Npd sen q / l ) ù
I = I 0ê ú (146)
ë sen ( pd sen q / l ) û

3.3. Difracción
Se denomina difracción a la distorsión sufrida por las ondas en su propagación cuando se en-
cuentra un obstáculo de dimensiones comparables a la longitud de onda. Este obstáculo puede ser un
diafragma que sólo deja pasar una pequeña porción del frente de onda, o un objeto que impide el paso
de una porción del frente de onda.
A continuación vamos a analizar la difracción producida por ciertas aberturas y obstáculos de
geometría simple. Pero antes de realizar el estudio, conviene distinguir entre dos situaciones especia-
les. Si suponemos que los frentes de onda incidentes son planos y, además, el patrón de difracción se
observa a una distancia muy alejada del obstáculo, hablamos de difracción de Fraunhofer. Por el con-
trario, si los frentes de onda no son planos, o bien se observa el patrón de difracción a una distancia
pequeña del obstáculo, o ambas cosas a la vez, hablamos de difracción de Fresnel. Discutiremos sola-
mente el caso de la difracción de Fraunhofer.
El estudio del fenómeno de difracción lo vamos a realizar tomando como punto de partida el teo-
rema de Huygens-Fresnel y la fórmula integral para la difracción de Fresnel-Kirchhoff.

3.3.1. Principio de Huygens-Fresnel y teoría de la difracción de Kirchhoff


La propagación de una onda no es más que la propagación de una perturbación. Si consideramos
una superficie cerrada S que rodea la fuente de la onda, es evidente que la onda alcanzará puntos exte-
riores a S únicamente partiendo de los puntos de S.
Podemos preguntarnos ahora si el problema de la propagación hacia el exterior de una superficie
cerrada S se reduce al de emisión de fuentes convenientemente situadas sobre esta superficie. Esto es
precisamente lo que establece el principio de Huygens-Fresnel, que podemos enunciar como sigue:
Una perturbación que se propaga hacia el exterior de una superficie cerrada S,
que contiene una fuente de ondas, es idéntica a la que se obtendría suprimiendo esta
fuente y sustituyéndola, en el instante t, por fuentes de ondas convenientemente repar-
tidas sobre toda la superficie S.

Para demostrar este principio o teorema calcularemos la amplitud de la onda en un punto P exte-
rior a una superficie S, a partir de la amplitud de las ondas sobre la superficie S. Esto nos permitirá
precisar lo que se entiende por “fuentes convenientemente situadas sobre la superficie”, según esta-
blece el principio anterior. Veremos que la amplitud Yp puede considerarse como la superposición de
ondas esféricas emitidas por fuentes elementales repartidas sobre la superficie S.

302 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Consideremos una fuente de ondas armónicas que se pro- S


pagan en un medio homogéneo, y sea S una superficie cerrada V
cualquiera que rodea a dicha fuente (figura 13). La ecuación de
onda es: qr n
r0
r
1 ¶2Y
Ñ 2Y – 2 =0 (147) S P
u ¶t 2

y su solución armónica general viene dada por:
i 2p [ Tt +F ( x , y ,z) ]
Y = A ( x, y, z )e (148)
Figura 13. Onda secundaria
emitida por un punto de una
en donde A y F deben satisfacer las ecuaciones: superficie.

éæ¶F ö2 æ¶F ö2 æ¶F ö2 ù p 2


Ñ A – 4p Aêç ÷ +ç
2 2
ç ÷ ÷ +ç ÷ ú+ 4 A= 0 (149)
ëè ¶x ø è ¶y ø è ¶z ø ú
ê û l

æ¶A ¶F ¶A ¶F ¶A ¶F ö

ç + + ÷
÷+ AÑ F = 0
2
(150)
è ¶x ¶x ¶y ¶y ¶z ¶z ø

ecuaciones que se obtienen sin más que sustituir la solución general (148) en la ecuación de onda (147).
Consideremos ahora la función auxiliar u, que es una solución particular de la ecuación de onda:
1 1
u = e i ( wt – kr) = e iwt e – ikr (151)
r r
siendo r la distancia de cualquier punto al punto P.
Tanto la función Y como u y sus derivadas primera y segunda son continuas en el volumen V li-
mitado interiormente por las superficies S y S´ y exteriormente por una superficie S¥, que supondre-
mos infinitamente alejada.
Si estas condiciones de continuidad se cumplen también en las superficies límite, podemos apli-
car el teorema de Green:
æ ¶u ¶Y ö
ò ( YÑ
V
2
u – uÑ 2 Y ) dV = – òS+ S '+ S çY – u
¥è ¶n
÷dS
¶n ø
(152)

en donde n$ es un vector unitario normal a la superficie y dirigido hacia el interior del volumen V.
De las ecuaciones (147), (148) y (151) se tiene que:
ÑY+kY=0
2 2
(153)
Ñu+ku=0
2 2
(154)
Por lo que resulta que:
YÑ u – uÑ Y = 0
2 2
(155)
La integral (152) se escribirá entonces como:
æ ¶u ¶Y ö æ ¶u ¶Y ö æ ¶u ¶Y ö
– òS 'çY – u ÷dS = òçY – u ÷dS + ò çY – u ÷dS (156)
è ¶n ¶n ø è ¶n
S ¶n ø S¥è ¶n ¶n ø

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 303


Volumen II. Física II

Ahora bien, la segunda integral del segundo miembro tiende a cero cuando la superficie se aleja hasta
el infinito, por lo que la relación (156) se reduce a:
æ ¶u ¶Y ö æ ¶u ¶Y ö
– òS 'çY – u ÷dS = òçY – u ÷dS (157)
è ¶n ¶n ø Sè ¶n ¶n ø

Calculemos ahora la integral del primer miembro de (157). Teniendo en cuenta la expresiónde u dada
por (151), la derivada de u en la dirección normal a la superficie (en S´ la dirección normal es la direc-
ción de r) vendrá dada por:
¶u ¶u 1 æ 1ö
= = – iku – u = –çik + ÷u (158)
¶n ¶r r è rø

Como la superficie S´ es una superficie esférica con centro en el punto P, u y ¶u/¶n son constantes. Si
tomamos ahora los valores medios de Y y ¶Y/¶n, tendremos que:
æ ¶u ¶Y ö æ 1ö ¶Y
– òS 'çY – u ÷dS = 4pr02ç
ç ik + ÷ ÷u Y + 4pr0 u 0
2
=
è ¶n ¶n ø è r0 ø 0 ¶n (159)
é ¶Y ù i ( wt – kr0 )
= 4pêir0 kY + Y + r0 úe
ë ¶n û

Si hacemos tender r0 a cero, la expresión anterior queda como:


æ ¶u ¶Y ö
– òS 'çY – u ÷dS = 4pYP e iwt (160)
è ¶n ¶n ø

Llevando este resultado a la relación (157), se obtiene que:


æ ¶u ¶Y ö
4pYP e iwt = òSçY – u ÷dS (161)
è ¶n ¶n ø

Por otra parte, para la superficie S:


¶u ¶u ¶r ¶u æ 1ö 1
= = cos( n, r ) = –çik + ÷cos q r e i ( wt – kr) (162)
¶n ¶r ¶n ¶r è rø r

Llevando este resultado a (161) se obtiene finalmente que:


¶Y e – ikr æ 1ö e – ikr
4pYP = – òS dS – òSYçik + ÷cos q r dS (163)
¶n r è rø r

Esta relación es la expresión matemática del teorema de Huygens-Fresnel, y muestra que la intensidad
de la onda en el punto P se puede considerar como la superposición de dos tipos de ondas secundarias
esféricas emitidas por cada uno de los puntos de la superficie S: ondas isótropas de amplitud YI:
1 ¶Y
YI = dS (164)
4pr ¶n
y ondas anisótropas de amplitud YA:
1 1
YA = Y k 2 + 2 cos q r dS (165)
4pr r

304 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

en donde la directividad de estas fuentes de ondas viene expresada por cos qr. En estos términos, el
teorema de Huygens-Fresnel puede escribirse como:
YP = – òSYI e – ikr dS – òSYA e – ikr dS (166)

Si consideramos que la función de onda es de la forma:


Y0 i ( wt – kr)
YS = e (167)
r

La derivada con respecto a la normal a la superficie la podemos escribir como (figura 14):
¶YS ¶YS ¶r ¶YS æ 1ö Y0 i ( wt – kr)
= = cos( n, r ) = –ç
çik + ÷÷cos q r e (168)
¶n ¶r ¶n ¶r è r ø r

(n, r)
(n, r)
n

®
r P
®
r
Figura 14. Esquema para la
determinación de la fórmula de la
difracción de Fresnel-Kirchhoff. P0

Sustituyendo esta expresión en (163) y teniendo en cuenta que r >> l y r >> l, por lo que pode-
mos despreciar los términos 1/r y 1/r frente a k, se tiene que:
i Y0 iwt e – ik ( r+ r)
YP = – e òS [cos( n, r ) – cos( n, r )] dS (169)
2l rr
en donde:
cos(n,r) = cos qr (170)
cos(n, r) = cos qr (171)
La expresión (169) es la fórmula integral de Fresnel-Kirchhoff.
Si la superficie S es una superficie o frente de onda, el teo-
rema de Huygens-Fresnel permite prever lo que ocurrirá con
Frente de ondas
esta superficie al cabo de un tiempo Dt. Si consideramos las en un instante posterior
ondas esféricas secundarias de radio uDt emitidas por las fuen-
tes secundarias situadas sobre el frente de onda, la envolvente Frente de ondas
de estas ondas es, necesariamente, el nuevo frente de ondas. secundario
Por tanto, el teorema de Huygens-Fresnel nos proporciona un
método cualitativo para determinar la propagación de los fren-
tes de onda (figura 15).
El teorema de Huygens-Fresnel es de gran utilidad para Frente de ondas
estudiar los fenómenos de difracción por una pantalla o dia- primario
fragma, así como para el estudio de la emisión de ondas por
fuentes extensas.
Figura 15. Evolución de un frente
Un caso particular muy importante, por su utilidad, es de ondas a partir de las ondas
aquél en el que la distancia de la fuente al punto P es muy gran- secundarias emitidas por él en un
de comparada con la longitud de la onda l de la onda emitida instante de tiempo dado.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 305


Volumen II. Física II

por la fuente. En estas condiciones, vamos a tomar como superficie S una superficie de onda suficien-
temente alejada de la fuente con relación a las dimensiones de ésta. Esta superficie es prácticamente
esférica y el caso es análogo al de una fuente puntual situada en el punto O, siendo S una superficie de
onda (figura 16).

q r
r0
P

P0 Figura 16. Caso particular de la


integral de Fresnel-Kirchhoff,
cuando la superficie de integración
es un frente de ondas esférico.

En este caso, cos(n, r) = 1. Por otro lado, si llamamos q = p – (n, r) y r0 al radio de la superficie
esférica S, la integral de Fresnel-Kirchhoff se reduce a:
i Y0 i ( wt – kr0 ) e – ikr
YP =
2lr 0
e òS r
(1+cos q ) dS (172)

Este resultado es igual que el que obtendríamos si tuviésemos una fuente de ondas secundarias
en cada elemento de superficie dS emitiendo hacia el punto P ondas esféricas de la forma:

i e – ikr
dYP =+ (1+cos q )Y0 dS (173)
2lr0 r

3.3.2. Difracción de Fraunhofer y de Fresnel


Vamos a examinar ahora con más detalle la integral de Fresnel-Kirchhoff dada por (169):

i Y0 iwt e – ik ( r+ r)
YP = – e òS [cos( n, r ) – cos( n, r )] dS (174)
2l rr

Para ello, supongamos una pantalla con una abertura como la mostrada en la figura 17.

r Q
P0 r
P
r´ r´

y Figura 17. Difracción por una


z
abertura en una pantalla plana.

306 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Conforme nos trasladamos sobre la superficie el factor e–ik(r+r) oscila muy rápidamente. Por otro
lado, si las distancias de los puntos P0 y P a la pantalla son muy grandes comparadas con las dimen-
siones de la apertura, el término cos(n, r) – cos(n, r) variará muy poco sobre la abertura. Además, su-
pondremos que si Q es cualquier punto de la pantalla, los ángulos que las líneas P0Q y QP forman con
la línea que une P0 con P son pequeños. Podemos reemplazar este término por 2cos d, siendo d el án-
gulo que forma la línea P0P con la normal a la pantalla. Por último, supondremos que para cualquier
punto de la pantalla, se tiene que r = r´ y r = r´, siendo r´ y r´ las distancias de P0 y P al origen de la
pantalla. Con estas suposiciones, la integral anterior se escribe como:

i Y0 e iwt cos d
YP = –
lr' r'
òe S
– ik ( r+ r)
dS (175)

Tomemos un sistema de referencia cartesiano con origen en la pantalla, tal como se muestra en la fi-
gura. Si (x0, y0, z0) y (x, y, z) son las coordenadas de P0 y P y (x, h) las del punto Q, se tiene que:

r 2 = ( x 0 – x ) 2 + ( y 0 – h ) 2 + z 02 (176)

r 2 = (x – x )2 + ( y – h )2 + z 2 (177)

Por otro lado:

r' 2 = x 02 + y 02 + z 02 (178)

r' 2 = x 2 + y 2 + z 2 (179)

De estas expresiones se tiene que:

r 2 = r' 2 –2( x 0 x + y 0 h )+ x 2 + h 2 (180)

r 2 = r' 2 –2( xx + yh )+ x 2 + h 2 (181)

Puesto que asumimos que las dimensiones de la abertura son pequeñas podemos escribir las ecuacio-
nes anteriores como un desarrollo en series en x/r´, h/r´, x/r´ y h/r´. Se tiene que:

x0 x + y0 h x 2 + h 2 ( x0 x + y0 h ) 2
r = r'– + – –... (182)
r' 2r' 2r' 3

xx + yh x 2 + h 2 ( xx + yh ) 2
r = r'– + – –... (183)
r' 2r' 2r' 3
Sustituyendo estas expresiones en la ecuación integral, se tiene que:

i cos dY0 e iw – ik ( r '+ r ')


YP = –
lr' r'
òe S
– ikf ( x ,h)
dxdh (184)

donde:
x 0 x + y 0 h xx + yh x 2 + h 2 x 2 + h 2
f (x, h )= – – + + –
r' r' 2r' 2r'
(185)
( x0 x + y0 h ) 2
( xx + yh ) 2

– – –...
2r' 3
2r' 3

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 307


Volumen II. Física II

Si llamamos:
x0 y0
l0 = – m0 = – (186)
r' r'

y
x y
l= m= (187)
r' r'

podemos escribir que:

1éæ 1 1 ö ( l0 x + m0 h ) 2 ( lx + mh ) 2 ù
f ( x , h ) = ( l0 – l )x + ( m0 – m )h+ êç
ç + ÷ ÷( x + h ) –
2 2
– +...ú (188)
2ëè r' r' ø r' r' û

Si a la hora de calcular la integral de Kirchhoff, los términos cuadráticos y de orden superior en la


expresión anterior se pueden despreciar, hablamos de difracción de Fraunhofer. Cuando no son despre-
ciables, hablamos de difracción de Fresnel.
Estrictamente hablando, los términos de segundo orden y superiores sólo desaparecen en el lími-
te de r´ ® ¥ y r´ ® ¥, es decir, cuando la fuente y el observador se encuentran en el infinito. Sin em-
bargo, los términos de segundo orden no contribuyen de forma relevante si se satisface que:

1 æ 1 1ö 2 ( l0 x + m0 h ) 2 ( lx + mh ) 2

ç + ÷ ÷( x + h ) –
2
– << 2p (189)
2 è r' r' ø r' r'

Si tenemos en cuenta que (l0x + m0h)2 £ ( l02 + m02 ) (x2 + h2) y recordamos que l02 , m02 , l2, y m2 son me-
nores o iguales que la unidad, la desigualdad anterior se satisface si:

( x 2 + h 2 ) máx ( x 2 + h 2 ) máx
|r’| >> y |r´| >> (190)
l l

o bien si:
1 1 | r' | l
+ =0 y l02 , m02 , l 2 , m2 << (191)
r' r' ( x + h 2 ) máx
2

Estas condiciones dan una estimación de las distancias a las que puede utilizarse la simplificación de
Fraunhofer.
Para la difracción de Fraunhofer, si hacemos:

p = l – l0 q = m – m0 (192)

la ecuación integral la podemos expresar como:

YP = C òSe ik ( px+ qh) dxdh (193)

En lo que sigue vamos a aplicar esta expresión a algunos casos interesantes.

308 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

3.3.3. Difracción de Fraunhofer por una abertura rectangular


Consideremos una abertura rectangular como la mostrada en la figura 18.

r r
P0 P
r´=R

z
a b
y

Figura 18. Difracción por una abertura rectangular


en una pantalla plana.

Según el estudio realizado en el apartado anterior, el campo en un punto P vendrá dado por:

E = C òSe ik ( px+ qh) dxdh = C ò– a / 2 e ikpx dx ò– b / 2 e ikqh dh


a/ 2 b/ 2
(194)

en donde a y b son las dimensiones de la abertura, y p y q vienen dados por:


x x
p = l – l0 = + 0 (195)
r' r'

y y
q = m – m0 = + 0 (196)
r' r'

Si consideramos que el punto fuente se encuentra en el eje x0 = y0 = 0, y denominamos a r´ = R se


tiene que:
x
p = l – l0 = (197)
R
y
q = m – m0 = (198)
R

Resolviendo las integrales, se tiene que:


1 ikpa / 2 sen kpa / 2 sen a
ò
a/ 2
e ikpx dx = [e – e – ikpa / 2 ] = 2 =a (199)
–a/ 2 ikp kp a

siendo a = kpa/2 y análogamente, para la segunda integral


sen b
ò
b/ 2
e ikqh dh = b (200)
–b/ 2 b

siendo b = kpb/2.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 309


Volumen II. Física II

Con estos resultados, el campo en el punto P resulta:


sen a sen b
E=C (201)
a b
Puesto que la intensidad es proporcional al cuadrado de la amplitud, será:

æsen a ö2æsen b ö
2

I = I0ç ÷ ç
ç ÷
÷ (202)
è a øè b ø

en donde los ángulos a y b en función de las coordenadas x e y son:


kpa kax
a= = (203)
2 2R
kqb kby
b= = (204)
2 2R

q y

0 1
4,493 0,04718
7,725 0,01694
10,90 0,00834
14,07 0,00503

æ sen q ö2
Tabla 1. Los cinco primeros máximos de la función y =ç ÷.
è q ø

La función y = (senq/q)2 es evidente que tiene un máximo en q = 0 y mínimos en q = ±np siendo


n un número entero mayor que cero. Por otra parte, imponiendo la condición de máximo se obtiene
una ecuación trascendente q = tan q cuyas soluciones nos darán las posiciones de todos los máximos.
Estas soluciones vienen dadas en la tabla 1.
Representando gráficamente la intensidad dada por (202) se obtiene un diagrama como el mos-
trado en la figura 19.

Figura 19. Patrón de difracción


producido por una abertura
rectangular.

310 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

3.3.4. Difracción de Fraunhofer por una rendija rectangular


La solución para una rendija rectangular se obtiene inmediatamente del resultado encontrado
para una abertura rectangular sin más que hacer que una de las dimensiones, por ejemplo b, tienda a
infinito. En este caso, de la expresión (202), se tiene que:
æsen a ö2
I = I 0ç ÷ (205)
è a ø

En la figura 20 se representa esta intensidad en función del ángulo a y los resultados de un expe-
rimento de difracción con luz.

(d/l)sen q
-3 -2 -1 0 1 2 3
Figura 20. Patrón de difracción
producido por una rendija larga
y estrecha.

3.3.5. Difracción de Fraunhofer por un diafragma circular


La difracción en el infinito de una onda plana por un diafragma circular de diámetro d se realiza
de forma análoga a como hicimos para la abertura rectangular (figura 21). Para utilizar la simetría del
problema vamos a utilizar coordenadas polares, de manera que cada punto de la abertura vendrá espe-
cificado por su distancia al centro h y el ángulo j:
x = hcos j h = hsen j (206)

P0 r r P

r´ j
h
q r´=R w
F z

Figura 21. Difracción por una abertura circular.

Si suponemos que el punto fuente se encuentra en el eje, tal como vimos anteriormente se tiene que:
x
p = l – l0 = (207)
R
y
q = m – m0 = (208)
R

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 311


Volumen II. Física II

Por otra parte, vamos a escribir las coordenadas del punto P como:

x = wcos F y = wsen F (209)

Por consiguiente, tendremos que:


w cos F
p = l – l0 = (210)
R
wsen F
q = m – m0 = (211)
R

Llevando estos valores de p y q, junto con los de x y h a la expresión de la intensidad (193), se


tiene que:

E = C òSe ik ( px+ qh) dxdh = C ò0 ò


a 2p

0
e ( ikhw / R) cos( j –F) hdhdj (212)

Ahora bien, sabemos que la función de Bessel Jn(x) viene dada por:

i–n
ò
2p
J n (x )= e ix cos a e ina da (213)
2p 0

Por tanto:
1 2p ix cos a
J 0 (x )= ò e da
2p 0
(214)

Utilizando las funciones de Bessel, la ecuación del campo se puede escribir como:

E = 2pC ò0 J 0 ( khw / R )hdh


a
(215)

Por otra parte, se tiene la relación de recurrencia para las funciones de Bessel:
d n+ 1
[ x J n+ 1 ( x )] = x n+ 1 J n ( x ) (216)
dx

Por lo que se tiene que:

ò
x

0
x' J 0 ( x' )dx' = xJ 1 ( x ) (217)

Por consiguiente, la expresión del campo en el punto P puede escribirse como:


J 1 ( kaw / R )
E = C 2pa 2 (218)
kaw / R

La intensidad de la onda en el punto P será entonces:


2
é 2J ( kaw / R ) ù
I = I 0ê 1
ë kaw / R ú
(219)
û

312 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

x y Máximo (M) o mínimo (m)

0 1 M
3,833 0 m
5,136 0,0175 M
7,016 0 m
8,147 0,0042 m
10,174 0 m
11,620 0,0016 M

æ 2 J (x ) ö2
Tabla 2. Primeros máximos y mínimos de la función de Bessel y =ç 1 ÷ .
è x ø

En función del ángulo q (ver la figura), puesto que sen q = w/R, la intensidad se escribe como:

2
é 2J ( ka sen q ) ù
I = I 0ê 1 ú (220)
ë ka sen q û

En la figura 22 se muestra el valor de la intensidad en función de kasenq y el patrón de difracción


obtenido experimentalmente.

I
I0

ka sen q

Figura 22. Patrón de difracción producido por una abertura circular.

El máximo central corresponde a una zona circular de gran intensidad que se conoce con el nom-
bre de disco de Airy, en honor de George Biddell Airy (1801-1892) que fue quien dedujo por primera
vez la ecuación (220). Este disco central está rodeado por un anillo oscuro que corresponde al primer
mínimo de la función de Bessel [2J1(kasenq)/(kasenq)]2. En la tabla 2 se muestran los valores de los
máximos y mínimos de esta función.
La mayor parte de la energía se encuentra contenida en un cono de ángulo q, tal que:

1 l l
sen q = 3,83 = 3,83 = 1,22 (221)
ka 2pa d

siendo d el diámetro de la abertura circular.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 313


Volumen II. Física II

4. TEORÍA FÍSICA DEL COLOR


La ciencia que trata de la medida del color se denomina colorimetría. Por consiguiente, el objeto
de la colorimetría es la evaluación de la energía radiante en lo que se refiere a su capacidad para pro-
ducir la sensación de color.
El problema práctico de la colorimetría es definir los colores de una forma precisa de manera que
dado un color pueda ser reproducido con absoluta exactitud. En principio podríamos pensar en tener un
catálogo de muestras de colores de manera que se especificara la forma de obtenerlo mediante com-
puestos químicos. No obstante, este método, aparte de resultar poco científico, resulta inviable si tene-
mos en cuenta que se estima que el ojo humano puede distinguir hasta 10 millones de colores. Por tanto,
hemos de abordar las cuestiones de la colorimetría de otra manera: el método de las mezclas.
La definición de color dada por el Comité de Colorimetría de la Optical Society of America y
aceptado internacionalmente es:
El color se compone de aquellas características de la luz distintas de la de espa-
cio y tiempo; siendo la luz aquel aspecto de la energía radiante que el hombre percibe
a través de las sensaciones visuales que se producen por el estímulo de la retina.

Las características de la luz referidas en esta definición son:


1. La claridad, que se refiere a la cantidad de luz y es una medida de la efectividad de la luz para
provocar la sensación de brillo. El gris es el color de los cuerpos que no tienen otro atributo más
que la claridad.
2. El tono o matiz, que es la característica por la cual podemos decir que se trata de un color rojo,
azul, etc. Desde el punto de vista físico, el tono está relacionado con la longitud de onda domi-
nante del espectro. Un gris neutro no tiene tono o lo que es lo mismo es indeterminado.
3. Saturación, que es el atributo que describe el grado en el que un color se separa del gris neutro y
se aproxima a un color puro del espectro. La saturación es inversa a la proporción de blanco. Un
gris neutro es totalmente insaturado y un color espectral puro es completamente saturado.

Las dos últimas características constituyen la cromaticidad de la sensación y se denominan atri-


butos de cromaticidad. El gris neutro no tiene ni tono ni saturación y se denomina acromático.

4.1. Iluminantes
De la experiencia cotidiana sabemos que una tela vista en el interior de una tienda no presenta el
mismo color cuando se la ve a la luz del sol. Es decir, que el color de un objeto depende de la composi-
ción espectral de la luz con la que se ilumina. Por tanto, antes de definir un color, será necesario espe-
cificar la composición o tipo de luz con la que se van a iluminar los objetos. Con este objeto, se ha
definido internacionalmente unos iluminantes patrones denominados A, B, C, D y E.
Estos iluminantes son:

– Iluminante A: la luz de una lámpara incandescente con filamento de wolframio a una tem-
peratura de color de 2856 K. Por temperatura de color se entiende aquella en la que una
fuente tiene la misma composición espectral que la de un cuerpo negro a esa misma tempe-
ratura.
Los demás iluminantes patrones se obtienen utilizando el iluminante A junto con determi-
nados filtros para modificar su temperatura de color.

314 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

– Iluminante B: su temperatura de color es de 4874 K.


– Iluminante C: su temperatura de color es de 6774 K.
– Iluminante D65: su temperatura de color es de 6504 K.
– Iluminante E: su temperatura de color es de 5500 K.

4.2. Mezcla aditiva de colores


La experiencia pone de manifiesto que con tres luces bien elegidas mezcladas adecuadamente
sobre una pantalla blanca se pueden obtener la mayoría de los colores naturales. También se observa
que es posible obtener mezclas de diferente composición espectral pero que producen la misma sen-
sación de color sobre el ojo. Estos colores que tienen diferente composición espectral pero que produ-
cen la misma sensación visual se denominan metámeros.
Las mezclas aditivas de luces vienen regidas por unas leyes denominadas leyes de Grassmann.
Supongamos dos colores o estímulos A y B con diferente composición espectral pero metámeros, lo
que se escribe como A º B. Experimentalmente se obtiene que:
1. Si una misma cantidad de un tercer estímulo o color C se superponen sobre A y sobre B entonces
las mezclas también son metámeras:
AºBÞA+CºB+C (222)
2. Si los estímulos A y B se multiplican por una misma cantidad k, entonces:
kA º kB (223)
3. Se tiene que:
AºB y BºCÞAºC (224)

A este conjunto de propiedades de aditividad, proporcionalidad y transitividad se les conoce


como leyes de Grassmann.
Supongamos que queremos reproducir el color de una luz que denominamos C mezclando tres
luces simples de tres focos de tres colores diferentes del espectro. Consideraremos que esta luces
son roja (R), verde (V) y azul (A), que denominaremos colores primarios. Para conseguir nuestro
objetivo haremos incidir la luz C sobre la mitad de un disco blanco difusor. Por otro lado, sobre la
otra mitad del círculo, haremos incidir la luz procedente de nuestros focos. Los flujos de estas luces
los variaremos hasta conseguir una igualdad visual completa. Si denominamos por c al flujo de la
luz o a la luminancia de C y por l, m y n a los de las luces roja, verde y azul, cuando se consigue la
igualdad deberá de satisfacerse que:
cC = lR + mV + nA (225)
Esta ecuación se denomina ecuación tricromática, y en ella C, R, V y A sólo desempeñan un papel cuali-
tativo, pues no representan ninguna cantidad física. Las únicas variables que representan una magnitud
física son los flujos de las diferentes luces, por lo que esta ecuación es equivalente a escribir:
c=l+m+n (226)
Los números l, m y n se denominan componentes tricromáticos de c.
En muchas ocasiones el color C no se puede igualar con ninguna combinación de flujos de los
tres colores primarios. Sin embargo, siempre es posible añadir a C uno de los primarios (en cada caso

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 315


Volumen II. Física II

será uno determinado) por ejemplo e igualar la mezcla a una combinación de los dos restante prima-
rios. Denominando con primas a las cantidades de cada una de las luces, podremos escribir que:
l´ + c´ = m´ + n´ (227)
O lo que es lo mismo:
c´ = –l´ + m´ + n´ (228)
De esta manera hemos introducido una cantidad negativa de un color primario. Evidentemente esto no
significa que restemos una cantidad de luz roja a la suma de una azul y otra verde, lo que es imposible,
sino que la igualdad se satisface añadiendo la cantidad de rojo a la luz del primer miembro. Así es como
deben entenderse en todo caso los signos negativos que aparezcan en una ecuación tricromática.
Por consiguiente, para especificar un color son necesarios y suficientes tres números. Al igual
que un punto en el espacio está especificado por tres números que dependen del sistema de coordena-
das utilizado, en la teoría tricromática un color está especificado por tres números. Estos numeros
pueden ser la cantidad de luz de los colores primarios, pero también podemos especificar un color
dando su luminancia, su longitud de onda predominante y su saturación o pureza espectral.
En muchos casos prácticos lo que nos interesa no son las cantidades absolutas de los colores pri-
marios, sino sus proporciones relativas, es decir, lo que nos interesa es la cromaticidad y no la lumi-
nancia. Dividiendo la ecuación tricromática por la suma l + m + n se tiene que:
r+u+a=1 (229)
en donde:
l m n
r= u= a= (230)
l+ m+ n l+ m+ n l+ m+ n
se denominan coeficientes tricromáticos del color C, y a la ecuación (229) ecuación unitaria del color.
Señalar que la división por una constante en los dos miembros de la ecuación tricromática signi-
fica solamente una reducción del flujo de luz, por lo que la cromaticidad de la mezcla no se altera.

4.3. Representación geométrica de los colores


La ecuación unitaria del color (229) nos permite representar gráficamente los colores en un pla-
no. El método que se utiliza en la práctica es utilizar un triángulo rectángulo isósceles de cateto uni-
dad. Los colores primarios se sitúan los vértices del triángulo como se indica la figura 23. Un
determinado color cuya ecuación unitaria fuese 1 = 0,2R + 0,6V + 0,2A se representa por el punto C1
de coordenadas (0,2, 0,6). Otro color C2 que correspondiera a una ecuación unitaria 1 = 0,6 + 0,2 ten-
dría como coordenadas (0,6, 0,2).

V
1
0,8
C1
0,6
0,4
0,2 C2
0 R
Figura 23. Representación
A 0 0,2 0,4 0,6 0,8 1 de cromaticidades.

316 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Supongamos ahora que se mezclan dos colores que vienen dados por las ecuaciones unitarias:
1 C 1 = r 1R + u 1V + a 1A (231)
1 C2 = r2R + u2V + a2A (232)
El color de la mezcla vendrá dado por la suma de los dos colores, por consiguiente, sumando las ecua-
ciones anteriores, se tiene que:
2 C = (r1 + r2)R + (u1 + u2)V + (a1 + a2)A (233)
Por tanto, la ecuación unitaria del nuevo color se obtendrá dividiendo por dos la ecuación anterior:
r1 + r2 u +u2 a + a2
1C = R+ 1 V+ 1 A (234)
2 2 2
Vemos que las coordenadas del nuevo color corresponden al punto medio del segmento de línea que
une los colores C1 y C2. De esta forma, en el ejemplo anterior la mezcla tendría como coordenadas
(0,4, 0,4).
Si la mezcla de los colores se hace en distintas cantidades, por ejemplo si mezclamos p cantidad
del color C1 y q del C2 el color resultante tendrá como coordenadas:
pr1 + qr2 pu 1 + qu 2
r= u= (235)
p+ q p+ q
El color resultante se encuentra en la línea que une los dos colores como se muestra en la figura 24. De esta
figura se obtiene que:
V
CC 1 p
= (236)
CC 2 q
u1 C1
C
La mezcla de dos colores siempre da en el diagrama otro co-
lor alineado con ellos. Este resultado se aplica también a la mezcla u 2
de tres o más colores, por lo que podemos concluir que la mezcla C2
aditiva de los tres colores primarios son colores que están repre-
sentados por puntos situados en el interior del triángulo definido 0 R
r1 r2
A
por los colores primarios.
De lo que acabamos de ver, puesto que un color es la mezcla Figura 24. Representación de
de dos colores alineados con él y en cantidades inversas a su dis- la mezcla de dos colores.
tancia de separación con respecto al color de la mezcla, resulta que
un color puede formarse de infinitas maneras.
Un color espectral puro no puede obtenerse por la adición de V
los colores primarios. Pero tal como vimos, este color puro puede
mezclarse con un primario de manera que la mezcla puede expre-
sarse como una combinación de los dos restantes primarios. Esto
significa que la ecuación unitaria de un color espectral puro siempre
tendrá una componente primaria negativa y por tanto su representa-
ción caerá fuera del triángulo de primarios. La curva definida por C
todos los colores puros del espectro se denomina lugar del espectro.
Esta curva pasa, evidentemente, por los vértices del triángulo, pues
allí es donde se encuentran los primarios puros (figura 25). R
A
De la figura y de la discusión anterior sobre mezcla de colores
se deduce que todos los colores representados en el interior del área Figura 25. Lugar del espectro.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 317


Volumen II. Física II

limitada por la curva y el eje AR pueden obtenerse por mezcla aditiva de dos colores espectrales puros o
de la mezcla de un color espectral puro y uno púrpura (del eje AR), como ocurre con el color C. Los pun-
tos que se encuentran en el plano y que no pertenecen a esta superficie no son colores reales.
Por otra parte, podemos observar que una elección adecuada de los tres colores primarios permi-
te obtener una gran cantidad de colores reales. Así, con la elección del rojo, el verde y el azul, se pue-
den obtener por mezcla aditiva todos los colores del triángulo, es decir, sólo aquellos de la zona
sombreada no pueden obtenerse mediante una mezcla aditiva.
Una elección de los colores C1, C2 y C3 sólo nos permitiría obtener por mezcla aditiva los colores
incluidos en el triángulo con vértice en dichos colores (figura 26).

C2

C1
C3
Figura 26. Una selección adecuada
de los primarios permite obtener a
partir de ellos la mayoría de los
A R
colores naturales.

4.4. Sistema RGB de especificación del color y sistema XYZ


El sistema RGB de especificación del color se debe a los trabajos experimentales de Guild y de
Wright. Básicamente consistió en determinar experimentalmente las ecuaciones unitarias de todos
los colores espectrales puros desde 350 nm hasta los 780 nm, tomados de 5 en 5 nm. Para ello adopta-
ron como colores primarios:

– El rojo oscuro (R) de longitud de onda 700 nm.


– El verde (G) correspondiente a la raya verde del mercurio, de longitud de onda 546.1 nm.
– El azul (B) correspondiente a la raya azul del mercurio, de longitud de onda 435.8 nm.

Las componentes tricromáticas R, G y B del sistema se eligieron de manera que el iluminante pa-
trón E ocupara el centro de gravedad del triángulo de primarios. Es decir, de manera que la ecuación
unitaria correspondiente a este color fuese:

1 E = 0,333 R + 0,333 G + 0,333 B (237)

Es decir, que tomando la misma cantidad de cada uno de los primarios se obtuviese luz blanca. Para
que esto sea así, las unidades de flujo de cada color deben ser, para las luces roja, verde y azul, las si-
guientes:

LR = 1 (238)

LG = 4,5907 (239)

LB = 0,0601 (240)

318 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Con estas unidades, los valores de los flujos F de cada una de las luces vienen dados por:
FR
R= (241)
LR
FG
G= (242)
LG
FB
B= (243)
LB

En este sistema, los coeficientes tricromáticos se definen como:


R G B
r= g= b= (244)
R +G+ B R +G+ B R +G+ B
y la ecuación unitaria del color viene dada por:
r+g+b=1 (245)

En este sistema de especificación del color el diagrama tri- g


cromático que se obtiene es el de la figura 27. Como vemos, este
sistema presenta el inconveniente de que los colores espectrales
puros y muchos otros tienen alguna coordenada negativa como
puede verse en el diagrama cromático de la figura. G
Para un color espectral de longitud de onda l, las tres compo-
nentes de primarios necesarias para igualar el flujo energético uni-
dad de esa luz de longitud l se denominan valores triestímulo y se R
designan por rl , g l y b l . En la figura 28 se muestran estos valores -1 B 1 r
triestímulo para las longitudes de onda comprendidas entre 380
nm y 700 nm. Como se puede observar, el valor de rl es negativo Figura 27. Diagrama
en un intervalo de longitudes de onda. tricromático en el sistema RGB.

0,4
r ( l)
b ( l)

g ( l)
0,2

400 500 600 700


l (nm)

Figura 28. Valores triestímulo en el sistema RGB.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 319


Volumen II. Física II

Como acabamos de ver, en el sistema RGB algunos coeficientes tricromáticos y valores triestí-
mulo son negativos. Esta circunstancia era una fuente de errores en los cálculos colorimétricos. Con
el fin de evitar este inconveniente la CIE (Comisión Internacional de Iluminación) adoptó un nuevo
sistema denominado sistema internacional de especificación XYZ o sistema CIE. Según este sistema
se eligen tres primarios X, Y, Z de manera que el triángulo definido por estos contenga al lugar del es-
pectro y a todos los colores reales. Para ello, se eligen de manera que las líneas XY e YZ sean tangentes
al lugar del espectro del diagrama RGB. Sin embargo, esta elección lleva a que los estímulos XYZ co-
rrespondan a estímulos irreales. No obstante, esto no es ningún inconveniente, ya que no se trata de
utilizarlos como estímulos físicos para la producción de colores, sino como un sistema útil y eficaz
para la especificación de los colores.
La transformación entre dos sistemas de especificación puede hacerse mediante la expresión de un
conjunto de primarios en función de los otros. Estas relaciones entre el sistema XYZ y RGB son:

X = 2,7689R + 1,7517G + 1,1302B (246)

Y = R + 4,5907G + 0,0601B (247)

Z = 0,0565G + 5,5943B (248)

Los coeficientes tricromáticos correspondientes serán:

X Y Z
x= y= z= (249)
X +Y + Z X +Y + Z X +Y + Z

y
0,8 520

550
505 570
0,6
500

495
0,4 590

700
490

0,2

400
x
0,0 0,2 0,4 0,6 0,8

Figura 29. Diagrama cromático en el sistema XYZ.

Utilizando estas coordenadas cromáticas el nuevo diagrama cromático queda como se muestra
en la figura 29. Los colores reales corresponden al área encerrada por la figura.

320 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

Los valores triestímulo espectrales en el sistema XYZ se muestran en la figura 30, y como vemos
son siempre positivos.

z ( l)
2

y ( l) x ( l)
1

x ( l)

400 500 600 700


l (nm)

Figura 30. Valores triestímulo en el sistema XYZ.

4.5. Cálculo de coordenadas cromáticas


Si se conoce la distribución energética espectral de una luz, es sencillo encontrar sus coordena-
das cromáticas.
Sea Pldl la distribución energética espectral de una determinada luz, la cantidad de los estímulos
X, Y y Z para obtener dicha luz son:

X = ò x l Pl d l (250)

Y = ò y l Pl d l (251)

Z = ò z l Pl d l (252)

Puesto que las funciones de los valores triestímulos espectrales representados en la figura 30 no
son funciones analíticas, estas integrales habrán de hacerse numéricamente. Una vez determinados
los valores de X, Y y Z, mediante las expresiones (249) se determinan los valores de los coeficientes
tricromáticos o coordenadas tricromáticas.

4.6. Pureza de un color y longitud de onda dominante


Muchos colores pueden obtenerse mediante la mezcla de blanco E con un color puro del espec-
tro. Sea, por ejemplo, un color C1 como el mostrado en el diagrama de la figura 31. Tal como vimos
anteriormente, este color puede ser la mezcla de dos colores alineados con él. En concreto puede ser
la mezcla del blanco E y del color puro del espectro alineado con el Cl. La pureza de un color indica el

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 321


Volumen II. Física II

grado de aproximación de este color al del espectro que corresponde a su longitud de onda dominan-
te. Por tanto, la pureza del C1 vendrá dada por:
y EC 1
0,8 520 Cl p= (253)
EC l
550
505 570
0,6
Otros colores, como por ejemplo el C2 no puede
500 C1 obtenerse como mezcla de blanco E y un color puro.
495
Sin embargo, sí puede obtenerse como resultado de la
590
0,4
E mezcla de blanco E y un color púrpura P. En este
700 caso se define la pureza como:
490 C2
P
0,2 EC 2
p= (254)
EP
400 x
0,0
0,0 0,2 0,4 0,6 0,8 Los colores alineados con el blanco E son los
únicos que mezclados en proporciones adecuadas
Figura 31. Determinación de la pureza de un pueden dar blanco. A esos colores se les denomina
color. colores complementarios.

5. ESPECTROFOTOMETRÍA
Los objetos los vemos debido a la luz que reflejan. Por consiguiente, y de acuerdo con la defini-
ción de color dada por el Comité de Colorimetría, no es rigurosamente correcto atribuir un color a un
objeto, sino a la luz reflejada por él. El color de esta luz reflejada depende de la luz incidente y del
proceso concreto en que se modifique el color en el proceso de reflexión, ya que los objetos no refle-
jan de manera uniforme todas las componentes del espectro. La fracción de luz que refleja un objeto
se denomina factor de reflexión o factor de reflectancia Rl y es una función de la longitud de onda.
Decimos por tanto que la reflexión en los objetos es una reflexión selectiva.
Los diferentes métodos para determinar el factor de reflexión de un objeto en cada una de las lon-
gitudes de onda del espectro constituyen una rama de la ciencia que se denomina espectrofotometría.

Fuente

Dectector
Monocromador

Muestra Muestra
Ordenador Figura 32. Esquema de un
estándar espectrofotómetro.

El esquema básico de un espectrofotómetro, destinado a medir los factores de reflexión de


muestras no fluorescentes, es el mostrado en la figura 32. La luz procedente de una fuente S se hace
pasar por un monocromador a cuya salida se pueden seleccionar bandas estrechas de longitudes de
onda. Este haz se divide en dos de manera que se ilumine la muestra problema M y una muestra están-
dar ME que sirve como patrón de referencia. El detector D recibe la energía radiante procedente de la
muestra problema y de la muestra estándar y genera una señal dependiendo de la relación entre ellas.
Esta señal se transmite a un ordenador para su procesamiento.

322 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Óptica física

La muestra patrón de referencia suele ser una muestra blanca como óxido de magnesio o sulfato
de bario, a los que se les asigna un factor de reflexión igual a uno para todas las longitudes de onda del
espectro visible. Para obtener la curva del factor de reflexión espectral Rl por comparación con la de
referencia se suele dividir el espectro en 40 intervalos de longitudes de onda.
Una vez que se ha determinado el factor de reflexión espectral Rl, si denominamos Pldl el flujo
radiante incidente, el flujo radiante reflejado será RlPldl, y por consiguiente, los valores de los estí-
mulos X, Y y Z serán:
X = ò x l R l Pl d l (255)

Y = ò y l R l Pl d l (256)

Z = ò z l R l Pl d l (257)

A partir de ellos, mediante las expresiones (249) se determinan las coordenadas tricromáticas de la luz
reflejada por el objeto.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 323


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Annequin, R. Boutigni, J.: Óptica. Reverté. Barcelona, 1976.
Casas, J.: Óptica. Publicaciones de la Cátedra de Óptica, Facultad de Ciencias
de la Universidad de Zaragoza. Zaragoza, 1978.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall. México, 1988.
Hecht, E. Y Zajac, A.: Óptica. Addison-Wesley Iberoamericana. Madrid, 1990.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Roller, D. E. y Blum, R.: Electricidad, magnetismo y óptica. Reverté. Barcelo-
na, 1986.
Rossi, B.: Fundamentos de Óptica. Reverté. Barcelona, 1973.
Sears, F. W.: Óptica. Aguilar. Madrid, 1960.
Smith, F. G. y Thomson, J. H.: Optics. John Wiley and Sons. Chichester, 1988.
Tipler, P. A.: Física. Editorial Reverté. Barcelona, 1992.
Young, H. D.: Fundamentals of Optics and Modern Physics. McGraw-Hill.
New York, 1968.

324 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

28
Desarrollo histórico de la
unificación de la electricidad,
el magnetismo y la óptica

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. TEORÍAS EN LAS CIENCIAS FÍSICAS

2. ANTECEDENTES HISTÓRICOS
2.1. Desde la antigua Grecia hasta la Edad Media
2.1.1. Grecia Antigua
2.1.2. Período helenístico
2.1.3. La Edad Media
2.2. Avances de la electricidad, el magnetismo y la óptica desde la Edad Media
hasta el siglo XVIII
2.2.1. La electricidad y el magnetismo
2.2.2. Desarrollo de la óptica

3. LA UNIFICACIÓN DE LA ELECTRICIDAD Y EL MAGNETISMO


3.1. La experiencia de Oersted
3.2. Ley de Biot y Savart
3.3. Ampère y la atracción entre corrientes
3.4. Faraday y la ley de la inducción

4. EL TRIUNFO DE LA ÓPTICA ONDULATORIA

5. LA UNIFICACIÓN: TEORÍA DE MAXWELL


5.1. Ecuaciones de Maxwell
5.1.1. Ley de Gauss para el campo eléctrico
5.1.2. Ley de Gauss para el campo magnético
5.1.3. Corriente de desplazamiento de Maxwell: Ley de Ampère-Maxwell
5.1.4. Ley de Faraday-Henry
5.2. Ondas electromagnéticas
5.3. Velocidad de las ondas electromagnéticas

6. HERTZ Y LA CONFIRMACIÓN EXPERIMENTAL DE LA TEORÍA DE


MAXWELL

BIBLIOGRAFÍA

326 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

1. TEORÍAS EN LAS CIENCIAS FÍSICAS


Una teoría científica es un esquema lógico que reúne en una estructura única conceptos, hipóte-
sis verificadas y leyes sobre ciertos aspectos del mundo natural. Es decir, una teoría científica es una
síntesis de gran cantidad de información y de observaciones que permite explicarnos los fenómenos
que observamos en la naturaleza y su relación entre ellos.
Ahora bien, las percepciones e interpretaciones de los fenómenos naturales están fuertemen-
te condicionadas por las creencias personales y culturales. Por consiguiente, a la hora de cons-
truir una teoría que explique los fenómenos observados en la naturaleza es necesario dotarnos de
unos criterios y procedimientos que tiendan a minimizar estas influencias subjetivas. Este con-
junto de procedimientos, cuyo objetivo es minimizar los perjuicios y condicionamientos perso-
nales y sociales, es lo que se ha venido denominando método científico. Por tanto, podemos decir
que el método científico es el proceso por el que los científicos tratan de construir una representa-
ción correcta del mundo; entendiendo por representación correcta que sea fiable y consistente y
libre de cualquier arbitrariedad.
El método científico puede considerarse que consta, fundamentalmente, de cuatro pasos: obser-
vación y descripción de un fenómeno; formulación de una hipótesis que explique el fenómeno; uso
de las hipótesis para predecir otros fenómenos o los resultados de nuevas observaciones; y la expe-
rimentación que permita contrastar las predicciones teóricas.
El proceso de experimentación es crucial en las ciencias físicas, pues los experimentos tienen la
última palabra y las verificaciones experimentales de las predicciones teóricas son absolutamente ne-
cesarias. Si los experimentos no confirman la hipótesis de partida, ésta debe ser rechazada o modifi-
cada. Por el contrario, si los experimentos corroboran una hipótesis entonces puede ser considerada
como una teoría o como una ley de la naturaleza. No obstante, si como consecuencia de nuevos expe-
rimentos los resultados están en contradicción con las predicciones de una teoría bien establecida,
ésta debe ser descartada y no puede ser considerada como una descripción de la realidad.
Además, una teoría científica debe permitir obtener los mismos resultados que se obtenían con
la antigua en aquellos casos en los que esta última era válida. Esta característica resulta evidente: si
una teoría aceptada puede explicar de forma aceptable parte de las observaciones realizadas, una nue-
va teoría que aporte algo nuevo debe reducirse a la antigua teoría en aquellos casos en que ésta es apli-
cable y por consiguiente debe proporcionar los mismos resultados. Por otro lado, una nueva teoría
debe explicar hechos que no puedan ser explicados por la antigua teoría aceptada. Es decir, la nueva
teoría ha de ser mejor que la antigua. No basta con que se limite a reproducir los mismos resultados
sino que debe ser capaz de explicar situaciones en las que la antigua teoría era incapaz de proporcio-
nar una respuesta adecuada. Y por último, una teoría científica debe ser comprobable experimental-
mente. Aunque por regla general suele ocurrir que una teoría explica los resultados de experimentos
realizados con anterioridad, uno de los argumentos con más peso a favor de una nueva teoría es que
prediga resultados de experimentos todavía no realizados.
En los siguientes apartados vamos a estudiar las diferentes etapas de la historia de la ciencia en
los campos de la electricidad, el magnetismo y la óptica que culminó con la teoría de Maxwell. Co-
menzaremos por exponer las primeras observaciones de fenómenos eléctricos y magnéticos en la
época de los griegos, así como las primeras nociones sobre la propagación y la naturaleza de la luz.
Analizaremos las primeras teorías explicativas de estos fenómenos y la influencia que sobre ellas tu-
vieron las corrientes filosóficas del momento, así como sus limitaciones para predecir nuevos fenó-
menos. Veremos también cómo la introducción de la experimentación como elemento fundamental
de la investigación científica permitió relacionar los fenómenos eléctricos y los magnéticos, dos tipos
de fenómenos considerados, en principio, independientes. Y por último expondremos la teoría de
Maxwell, la cual constituye un ejemplo de modelo teórico como explicación de los fenómenos obser-
vados en la naturaleza y como herramienta de predicción de nuevos fenómenos como lo eran las on-
das electromagnéticas. Ondas que se propagaban en el vacío a la misma velocidad que la luz y que

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 327


Volumen II. Física II

permitió interpretar a ésta como una onda electromagnética de frecuencias determinadas. Ahora bien,
una predicción de este tipo debía ser comprobada experimentalmente, algo que sucedió posterior-
mente con el descubrimiento de las ondas por Hertz y lo que supuso la aceptación de una de las más
grandes teorías de la historia de la física clásica.

2. ANTECEDENTES HISTÓRICOS
En esta sección vamos a exponer los descubrimientos y avances realizados en electricidad, mag-
netismo y óptica, así como las explicaciones teóricas desarrolladas en estos campos, desde la antigüe-
dad hasta el comienzo del siglo XIX en el que se produjo la primera unificación de la electricidad y el
magnetismo, y cuando quedó demostrada de forma definitiva la naturaleza ondulatoria de la luz.

2.1. Desde la antigua Grecia hasta la Edad Media


2.1.1. Grecia Antigua
Los primeros en ampliar la abstracción numérica inventada por los babilonios y los egipcios al
estudio de la naturaleza fueron los antiguos griegos. Sin embargo, en sus razonamientos acerca del
mundo físico, los griegos olvidaron siempre la comprobación experimental de sus teorías, lo que lle-
vó a que su interpretación de la leyes de la naturaleza fuera, en su mayoría, errónea.
Las primeras referencias a fenómenos físicos, en concreto sobre observaciones de fenómenos
eléctricos y magnéticos, se encuentran en los escritos de Tales de Mileto (624-547 a. de C.). En ellos
se menciona que al frotar ámbar con seda se producían chispas y el ámbar adquiría la propiedad de
atraer pequeñas porciones de materia como trozos de paja, plumas o partículas de pelusa. Precisa-
mente, de la palabra griega elektron, que significa ámbar, viene el nombre de electricidad. También
en sus escritos se encuentran las primeras pruebas sobre observaciones de fenómenos magnéticos. En
ellos se hace referencia a la atracción por parte de una piedra natural, denominada imán, de pequeños
trozos de hierro. Esta piedra imán o magnetita es un óxido de hierro (Fe3O4) que se encontraba anti-
guamente en una región cercana a Magnesia, una ciudad de la antigua Grecia Jónica, de donde pro-
viene su nombre y también el término magnetismo.
En lo que se refiere al campo de la óptica, las primeras referencias sobre la construcción de espejos
se remontan al Éxodo, si bien los primeros espejos fueron encontrados en los enterramientos del antiguo
Egipto. También los antiguos griegos conocieron las propiedades y las técnicas de los espejos y de las
“cristales encendedores”, unas piedras transparentes que permitían encender fuego y fundir la cera con
la luz del Sol. Pero además, las primeras teorías sobre la naturaleza de la luz las encontramos en los filó-
sofos naturales de la antigua Grecia. Así, para Empédocles (490-430 a. de C.), según su teoría de los
cuatro elementos (fuego, aire, agua y tierra) que se debatían eternamente entre la unión y escisión a im-
pulsos de dos fuerzas contrarias, el amor y el odio, la visión tiene lugar, unas veces, en la fase regida por
el amor, por la entrada en el ojo de efluvios irradiados por los objetos; y otras veces, en la fase regida por
el odio, por los efluvios que lanzan los ojos. Para Demócrito (460-370 a. de C.), precursor de la teoría
atomista de la materia, la luz consiste en un chorro sucesivo de partículas, y el color depende de las de-
terminaciones espaciales de los átomos emitidos por los objetos coloreados. A cada color le correspon-
de una forma, orientación y agrupación de átomos. Una teoría próxima a la del éter la encontramos en la
obra de Aristóteles (384-322 a. de C.), para el cual el papel del medio entre el objeto y el ojo resultaba
esencial en el proceso de visión. Según Aristóteles, cuando el medio estaba en reposo se producía la os-
curidad y cuando se excitaba por el “fuego” de un objeto el medio se volvía activo y transparente permi-
tiendo que los colores pudieran viajar a nuestros ojos. Los colores transmitidos dependían del estado de
actividad del medio. Como vemos, estas teorías son completamente especulativas y son fruto del inten-
to de los filósofos griegos de explicar la naturaleza sobre la base de razonamientos sin acudir en ningún
momento a la experimentación.

328 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

2.1.2. Período helenístico


Después de la decadencia de Atenas como poder político y económico, el centro de la cultura grie-
ga se trasladó a Alejandría, ciudad situada en la costa mediterránea de Egipto. Se inició así la época de-
nominada período helenístico. En esta etapa alejandrina, los únicos avances importantes en electromag-
netismo o en óptica fueron los realizados por Herón y Claudio Ptolomeo. En su libro Catóptrica, Herón
de Alejandría (20-62 d. de C.) describió la teoría de los espejos y su utilización práctica. Además, ex-
plicó la propagación rectilínea de la luz y las leyes de la reflexión afirmando que la luz viaja entre dos
puntos a través del camino más corto, principio retomado por Fermat en el siglo XVII. Por su parte,
Claudio Ptolomeo (c. 90-c. 168) también realizó estudios sobre la propagación de la luz y su libro
Óptica es considerado como el mejor tratado sobre la materia, de la antigüedad. Su trabajo se centró en
el estudio sistemático de la refracción de la luz y las leyes que enunció son similares a las de la refle-
xión: el rayo visual incidente y el refractado están en el mismo plano; los ángulos de incidencia y refrac-
ción son desiguales; la imagen se ve en la intersección del rayo incidente prolongado y la perpendicular
trazada desde el objeto al plano de separación de los dos medios. Tabuló medidas muy precisas de los
ángulos de incidencia y refracción para varios medios: aire-agua, aire-vidrio y agua-vidrio.
La muerte de Claudio Ptolomeo marcó el inicio de un período de decadencia en la investigación
científica en Alejandría. En esta época el mundo estaba dominado por los romanos, más preocupados por
el comercio y las aplicaciones prácticas que por la ciencia, por lo que la investigación científica sufrió una
parada importante y los progresos alcanzados por la ciencia fueron muy escasos o poco significativos.

2.1.3. La Edad Media


La caída del Imperio Romano (475 d. de C.) marca aproximadamente el comienzo de la Edad
Media. Durante esta etapa de la historia los desarrollos científicos más importantes tuvieron lugar en
el mundo árabe y posteriormente en el occidente cristiano, fundamentalmente a partir de la fundación
de las universidades.
El período de la ciencia árabe comprende fundamentalmente desde el siglo VIII al XII. Durante
este tiempo, los científicos árabes fueron los herederos de la ciencia griega y sus trabajos de investiga-
ción y traducción fueron la base del florecimiento posterior de la ciencia cristiana a partir del siglo XIII.
Para los árabes, la física era un campo del conocimiento que se situaba entre las matemáticas y las cien-
cias de la naturaleza, y a caballo entre las ciencias teóricas y aplicadas. Las únicas partes de la física, tal
como la entendemos hoy en día, que fueron objeto de estudio por parte de los árabes fueron la mecánica
e hidrostática experimentales y la óptica. Sin lugar a duda, la aportación a la física más relevante reali-
zada por los árabes fue el Tratado de Óptica de Abu ali al-Hasan ibn al-Haytham (965-c.1040), cono-
cido en el mundo occidental por Alhazen. Este trabajo es la contribución más importante realizada en el
campo de la óptica hasta el siglo XVII, por lo que su autor puede ser considerado como uno de los prin-
cipales representantes de la física del período medieval. En su Óptica incluye análisis y explicaciones
sobre la luz y la visión. Alhazen considera que los rayos luminosos se propagan en línea recta desde el
objeto hasta los ojos. Además, estudia los fenómenos de reflexión y refracción e intenta explicar el au-
mento de las lentes esféricas. Experimenta con espejos esféricos y parabólicos y pone de manifiesto el
fenómeno de aberración esférica.
A mediados del siglo XI aparece en el mundo cristiano un movimiento denominado escolasticis-
mo que se caracteriza fundamentalmente por la aplicación de la razón humana a las cuestiones divinas y
por un reconocimiento del interés en sí que tiene el estudio de las ciencias exactas. Su objetivo último
era integrar en un sistema ordenado tanto el saber natural de la antigüedad como el saber religioso del
cristianismo. Como resultado de esa línea de pensamiento durante los siglos XIII y XIV tuvo lugar el
florecimiento de la ciencia medieval debido básicamente a dos factores: la aparición de las Universida-
des, que surgieron de las escuelas monásticas y catedralicias medievales, y el redescubrimiento de la
obra de Aristóteles. Entre los avances más importantes del siglo XIII podemos destacar el trabajo reali-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 329


Volumen II. Física II

zado en óptica geométrica por Roberto Grosseteste (1175-1253) de la Escuela de Oxford y su discípu-
lo el franciscano Roger Bacon (1214-1294). Merece especial mención el trabajo experimental, proba-
blemente el mejor de su época, realizado por el alemán Dietrich de Friburgo (c. 1250-c. 1311). Este
fraile dominico estudió metódicamente la reflexión y refracción de la luz en gotas esféricas, lo que le
permitió desarrollar las teorías correctas sobre la formación del arco iris primario y secundario. Otros
trabajos relevantes fueron los de Pierre de Maricourt (Petrus Peregrinus) quien en 1269 escribió su
Epístola de magnete en la que describe brillantes experimentos realizados con imanes, enseña a deter-
minar los polos del imán y enuncia la ley de atracciones y repulsiones entre ellos.

2.2. Avances de la electricidad, el magnetismo y la óptica desde la Edad Media


hasta el siglo XVIII
Durante los siglos siguientes a la Edad Media el pensamiento científico occidental estuvo guia-
do por la poderosa influencia intelectual de Aristóteles y no fue hasta finales del siglo XVI y princi-
pios del siglo XVII cuando se dieron los pasos necesarios para que la doctrina aristotélica fuera final-
mente desechada y tuviera lugar el nacimiento de lo que hoy llamamos ciencia moderna. El primer
paso en ese largo camino lo dio Copérnico al presentar su teoría heliocéntrica del mundo y a él le si-
guieron los trabajos de otros hombres que contribuyeron de forma decisiva al establecimiento de la
ciencia moderna: William Gilbert, con sus trabajos sobre magnetismo; Johannes Kepler, con sus in-
vestigaciones del movimiento de los planetas; Galileo Galilei con sus investigaciones sobre la natura-
leza del movimiento y la descripción del sistema solar; e Isaac Newton, una de las figuras más impor-
tantes en la historia de la física.
El siglo XVII fue el siglo de la aparición de la ciencia moderna y de la consolidación del método
científico. La incorporación de la medida y la experimentación como elementos básicos de la investi-
gación científica y el uso de las matemáticas para relacionar de forma cuantitativa las diferentes mag-
nitudes de interés en la descripción de un fenómeno físico permitieron configurar una metodología
para la ciencia que pronto se demostró enormemente fructífera. Aunque en sus comienzos se come-
tieron muchos errores, también se realizaron avances muy importantes que motivaron un gran interés
por la ciencia debido a su capacidad de explicar el mundo natural y por su gran aplicación práctica.
Este ambiente propició un período de enorme crecimiento en los siglos XVIII y XIX, durante los que
se establecieron y completaron las teorías que constituyen lo que denominamos física clásica, entre
ellas la teoría del electromagnetismo de Maxwell.

2.2.1. La electricidad y el magnetismo


Los avances realizados hasta el siglo XVII en el campo de la electricidad y el magnetismo fue-
ron muy escasos y no fue el hasta el siglo XVIII cuando tuvo lugar, aunque de forma lenta, el desarro-
llo de estas dos áreas de la física.
Uno de los primeros investigadores de los fenómenos eléctricos y magnéticos fue William Gil-
bert (1540-1603), considerado junto con Galileo como el pionero de los métodos experimentales mo-
dernos. Gilbert recuperó el trabajo de Pierre de Maricourt sobre los imanes y durante 17 años llevó a
cabo experimentos sistemáticos con el fin de estudiar las interacciones magnéticas y, en menor grado,
las eléctricas. En 1600 publicó su obra De magnete, Magneticisque Corporibus, et de Magno Magnete
Tellure (Sobre los imanes y los cuerpos magnéticos, y sobre el gran imán de la Tierra) en la que pode-
mos encontrar todas las propiedades cualitativas de los imanes. Este libro es considerado como la pri-
mera gran obra científica publicada en Inglaterra y el primer manual sobre experimentos de electricidad
y magnetismo. Defensor de la teoría de Copérnico pensaba que las fuerzas que mantienen a los planetas
orbitando alrededor del Sol podrían explicarse en función de la atracción magnética. Para estudiar este

330 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

problema construyó imanes esféricos, sus “terrellas” (Tierras pequeñas) y estudió el comportamiento
de pequeñas agujas imantadas que ponía en posiciones distintas a diferentes distancia y dirección, con
respecto a las esferas. De esta manera, pudo observar que en un punto existía una atracción máxima de
un extremo de la aguja y que en el punto opuesto la atracción era máxima sobre el otro extremo. Tam-
bién observó que en los distintos puntos de la esfera la aguja se orientaba en la dirección de un círculo
máximo que enlazaba los dos puntos de máxima atracción. Esto era lo que ocurría precisamente con las
agujas de las brújulas en los distintos puntos de la Tierra, por lo que Gilbert concluyó que la Tierra pue-
de ser considerada como un gran imán. Por lo demás, los intentos de explicar el movimiento de los pla-
netas mediante las fuerzas magnéticas fracasaron por completo.
También puede considerarse que la teoría moderna de la electricidad tuvo sus comienzos con los
trabajos realizados por Gilbert. Aunque su libro De Magnete estaba dedicado fundamentalmente al es-
tudio de los fenómenos magnéticos, el capítulo dedicado a los fenómenos eléctricos puede considerarse
como el primer tratado importante sobre la electricidad. Gilbert introdujo el término eléctrico para de-
nominar la fuerza entre objetos cargados mediante fricción Para estudiar estos fenómenos eléctricos,
ideó el primer instrumento eléctrico denominado electroscopio, que consiste en un recipiente en cuyo
interior se encuentran dos hojas metálicas (normalmente de oro) que pueden moverse. Por medio de un
conductor se conecta estas hojas a una bola metálica colocada sobre la parte exterior del dispositivo y
aislada de éste. Cuando se acerca un objeto cargado a la esfera las hojas metálicas se separan. Gilbert
observó que había muchas sustancias, aparte del ámbar, que cuando se frotaban con un paño producían
el mismo efecto en el electroscopio. No obstante, un tipo de sustancia, como los metales, se resistía a
este proceso de electrificación. Cien años más tarde se comprobó que este tipo de sustancia son lo que
llamamos sustancias conductoras, en las que la carga eléctrica puede fluir libremente. Por esto, al frotar
una sustancia conductora la electricidad se escapa a través de la mano. También observó una de las
principales diferencias entre las fuerzas eléctricas y magnéticas: mientras que la fuerza entre objetos
magnéticos tiende a alinear los objetos uno respecto al otro y afectan ligeramente a los objetos, la fuerza
entre objetos electrificados es una fuerza de atracción o repulsión y afecta enormemente a la materia.
Gilbert consideró que la electrificación de los cuerpos, por frotación, se debía a la disminución de un
fluido, lo que producía una atmósfera o efluvio a su alrededor. Observemos la semejanza entre la des-
cripción de Gilbert y las ideas modernas sobre la electrificación de los cuerpos sin más que sustituir el
líquido por la carga eléctrica, y los efluvios o atmósfera por el campo eléctrico.
Los progresos realizados en el campo de la electricidad y el magnetismo tuvieron un ritmo lento
durante todo el siglo XVIII. Esto se debió fundamentalmente a dos motivos: la complejidad de los ex-
perimentos y la falta de instrumentos adecuados, además de la tendencia de los físicos de la época a
recurrir a explicaciones mecánicas mediante el uso de fluidos y torbellinos.
Aunque la primera máquina para generar electricidad fue construida en 1663 por el físico e inge-
niero alemán Otto von Guericke, parece que tanto esta máquina electrostática como los experimentos
de Guericke pasaron desapercibidos a sus sucesores. Esto podría explicar también el largo espacio de
tiempo entre los trabajos de Guericke y los primeros trabajos del siglo XVIII. De cualquier forma, el
estudio de la electricidad fue desarrollándose y adquiriendo más popularidad conforme se construye-
ron mejores fuentes de carga eléctrica.
Entre los primeros investigadores en el campo de la electricidad encontramos a Stephen Gray
(c. 1670-1736). Este químico británico demostró experimentalmente que la electricidad podía trans-
portarse de un lugar a otro mediante hilos metálicos o hilos mojados. No obstante, esta propiedad de
transporte de la electricidad se reducía a un tipo de sustancia y Gray estableció así la diferencia entre
sustancias conductoras y aislantes, atendiendo a su capacidad de transmitir la electricidad.
Charles François de Cisternay du Fay (1698-1739) demostró que incluso las sustancias conduc-
toras podían electrificarse por frotamiento o fricción siempre que se colocasen en un soporte aislante.
Por otra parte, en 1733, Du Fay descubrió que la electrificación producida en los cuerpos por frotación
era de dos tipos. Esta conclusión fue el resultado de una experiencia sencilla. En primer lugar electrificó
una lámina de oro de un electroscopio tocándola con una varilla de vidrio frotada con seda. Acercando
después la varilla a la lámina se veía que ambas se repelían. Pero Du Fay observó que si se acercaba a la

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 331


Volumen II. Física II

lámina de oro una varilla de ámbar frotada con lana, en contra de lo esperado, estas se atraían. De forma
análoga, una lámina de oro tocada en primer lugar por una varilla de ámbar, era repelida por esta varilla
y atraída por una varilla de vidrio frotada con seda. Du Fay denominó al tipo de electricidad de la varilla
como vítrea y al de la resina como resinosa. A partir de este hecho, desarrolló una teoría según la cual
todos los cuerpos tienen cantidades iguales de dos fluidos sin peso: la electricidad vítrea y la resinosa.
Estos fluidos eran tales que se autorrepelen pero se atraen mutuamente entre ellos, de manera que sus
efectos se neutralizan en los cuerpos normales. Sin embargo, la fricción separa los dos fluidos en una
cuerpo y lo deja desequilibrado, de manera que puede atraer o repeler a otros cuerpos.
Uno de los descubrimientos más importantes del siglo XVIII en el campo de la electricidad fue el
de la botella de Leyden, un dispositivo para almacenar electricidad estática, que fue inventado, al pare-
cer de forma accidental, por el físico holandés Pieter van Musschenbroek (1692-1761). (De forma in-
dependiente a este profesor de la universidad de Leyden, de aquí el nombre del dispositivo, también fue
descubierto por el alemán Ewald Georg von Kleist.) El primer prototipo de la botella de Leyden consis-
tía en un recipiente de cristal lleno parcialmente de agua. El recipiente estaba tapado por un corcho atra-
vesado por una varilla de metal que se sumergía parcialmente en el agua. El otro extremo de la varilla se
conectaba a un dispositivo para producir electricidad estática, y de esta manera se almacenaba gran can-
tidad de carga en la botella. Esto quedaba demostrado porque al acercar la mano a la varilla se experi-
mentaba un violento shock. La botella de Leyden fue el primer condensador construido y su descubri-
miento fue de gran importancia para el desarrollo de los experimentos eléctricos.
Otro científico que contribuyó de forma significativa al desarrollo de la electricidad fue el ame-
ricano Benjamin Franklin (1706-1790) que destacó por sus importantes contribuciones a la ciencia
experimental. En 1747 Franklin inició sus experimentos sobre la electricidad. Defendió la hipótesis
de que las tormentas son un fenómeno eléctrico y en 1752 demostró que los rayos eran un ejemplo de
conducción eléctrica con su famoso experimento en el que hizo volar una cometa en medio de una
tormenta. Por medio de hilo bramante húmedo unido a una llave transportó carga eléctrica de una
nube, a través de los rayos, a una botella de Leyden, utilizando luego la carga acumulada en sus expe-
rimentos. Por otra parte, Franklin enunció la ley que conocemos ahora como ley de conservación de
la carga que establece que la carga eléctrica total de un sistema islado, entendiendo como tal la suma
algebraica de la carga positiva y negativa presente en un instante dado, no varía nunca. En lo que se
refiere a los aspectos teóricos de la electricidad, estuvo en desacuerdo con la teoría de los dos fluidos
de Du Fay, e, independientemente de William Watson, propuso que la electricidad consistía en dos
estados de un solo fluido: la electricidad vítrea es el exceso de una cierta cantidad normal de un solo
fluido, mientras que la electricidad resinosa era una deficiencia de este fluido. Por esta razón, Benja-
min Franklin propuso denominar positiva a la electricidad vítrea y negativa a la electricidad resinosa.
La teoría de un solo fluido dominó el estudio de la electricidad durante los siguientes cien años y era
esencialmente correcto, si tenemos en cuenta que la corriente eléctrica es el resultado del flujo de
electrones. Por otra parte, si tenemos en cuenta que la partículas fundamentales tienen carga positiva
y negativa, la visión de Du Fay, en este sentido, era correcta.
Entre los primeros trabajos realizados en el campo del magnetismo durante el siglo XVIII mere-
ce destacar el de John Michell (1724-1793). En 1750 publicó su Tratado de los imanes artificiales,
considerado el primer avance importante del magnetismo en dicho siglo. Afirmó que los polos del
imán atraen o repelen de la misma forma a distancias iguales en cualquier dirección y que las atrac-
ciones y repulsiones disminuían con el cuadrado de la distancia. Construyó una balanza para demos-
trar estas afirmaciones, pero al igual que le ocurrió a Priestley con su ley para la electricidad, sus ex-
perimentos no fueron lo suficientemente precisos para poder concluir la verdad de la dependencia
con la distancia de la interacción magnética.
En 1767 Joseph Priestley (1733-1804) escribió su History and Present State of Electricity en el
que resumía todo el conocimiento sobre electricidad hasta su tiempo. Priestley repitió uno de los ex-
perimentos de Franklin en el que se colocaban pequeños corchos en el interior de un recipiente metá-
lico electrificado. La ausencia de atracción o repulsión en los corchos ponía en evidencia la ausencia
de carga en el interior del recipiente. Esto le recordó que según la ley de Newton no hay gravitación

332 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

en el interior de una esfera hueca, y de aquí dedujo que la ley de la fuerza entre cargas eléctricas debe-
ría ser semejante a la ley para la fuerza gravitatoria: la fuerza debería ser inversamente proporcional a
la distancia al cuadrado de los objetos. Priestley escribe:
¿No puede inferirse de este experimento que la atracción de la electricidad está
sometida a las mismas leyes de la gravitación y que sigue, por consiguiente, los cua-
drados de las distancias, puesto que puede demostrarse que si la Tierra fuera una esfe-
ra hueca un cuerpo que estuviera en su interior no sería atraído hacia un lado más que
hacia otro?

Aunque su frase la pone entre interrogantes, Priestley fue, sin duda, el primero en deducir la de-
pendencia con la distancia de la fuerza eléctrica. Esta ley fue confirmada experimentalmente por Henry
Cavendish (1731-1810) en 1771, pero sus resultados no fueron publicados hasta 1789. Durante ese
tiempo muchos físicos dedicaron su esfuerzos a estudiar de forma cuantitativa las fuerzas electromag-
néticas. Uno de ellos fue Charles Agustin de Coulomb que desarrolló su ley como consecuencia de sus
intentos de investigar la validez de la ley descriptiva formulada por Joseph Priestley. Para ello constru-
yó una balanza de torsión muy sensible que le permitía medir fuerzas muy pequeñas. En 1785 publicó
varias memorias en las que describe la construcción y uso de una balanza eléctrica y en las que enunció
su ley para la fuerza eléctrica que establecía que la fuerza entre dos cargas eléctricas era proporcional al
producto de las cargas e inversamente proporcional al cuadrado de la distancia que las separa. Coulomb
procedió entonces a elaborar una teoría matemática de la fuerza eléctrica y su trabajo contribuyó a esta-
blecer las bases para que la electricidad fuese una ciencia matemática. La labor de Coulomb fue conti-
nuada por un grupo de matemáticos de gran relevancia como Siméon-Denis Poisson (1781-1840),
George Green (1793-1841) y Carl Friedrich Gauss (1777-1855), los cuales desarrollaron la teoría
del potencial y la aplicaron a la electricidad y el magnetismo.

2.2.2. Desarrollo de la óptica


Los primeros avances realizados en el campo de la óptica surgieron de la necesidad de contar
con mejores y nuevos instrumentos que ampliaran las posibilidades de observación y permitieran una
experimentación cuantitativa. La búsqueda de instrumentos de visión más potentes que las lentes y
las lupas culminó, a principios del siglo XVII, con la invención del telescopio y el microscopio por
parte de los fabricantes de lentes Hans Lippershey (1570-1619) y Zacharias Jansen (1588-1632).
Poco tiempo después del invento de Lippershey, Galileo Galilei (1564-1642), que además fue
uno de los primeros físicos teóricos y experimentales, contribuyó de forma decisiva al progreso de la
astronomía construyendo el primer telescopio astronómico. Galileo pudo así realizar numerosas ob-
servaciones y descubrir, entre otras cosas, que la superficie de la luna no era llana como se creía hasta
entonces, que el Sol tenía manchas en su superficie y que la vía Láctea no está compuesta más que de
estrellas. Johannes Kepler (1571-1630), incorporó mejoras al telescopio de Galileo y diseño varios
telescopios astronómicos, por lo que es considerado como el fundador de la moderna óptica instru-
mental por algunos autores. Además, Kepler dedicó parte de sus investigaciones a la formación de
imágenes mediante lentes. Fruto de su trabajo fue su libro Dioptrice, considerado durante muchos
años como texto de referencia para los estudiosos de la óptica. Kepler descubrió la reflexión total y
llegó a una aproximación para ángulos pequeños de la ley de la refracción, en la cual los ángulos inci-
dente y transmitido son proporcionales.
La ley correcta de la refracción de la luz se debió a Willebrord van Roijen Snell (1591-1626)
un profesor de matemáticas de la universidad de Leyden que en 1621 descubrió que la razón entre los
senos de los ángulos de incidencia y refracción permanecía siempre constante para una superficie de
separación entre dos medios dados. Sin embargo, la ley no se conoció hasta que fue publicada por
René Descartes (1596-1650) en 1637. Descartes fue uno de los científicos y filósofos más destaca-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 333


Volumen II. Física II

dos de la época y sus ideas dominaron el pensamiento del siglo XVIII hasta la aparición de la obra de
Newton. Una consecuencia de los principios filosóficos de Descartes fue su teoría de la luz. A partir
de la idea de que la materia es esencialmente extensión, y recíprocamente toda extensión es materia,
Descartes concibe el universo como una yuxtaposición de materias más o menos sutiles. Esta concep-
ción le sirve de base para elaborar su teoría sobre la luz que expone en su libro La Dioptrique (1637),
en el que podemos leer:
...[la luz] no es otra cosa que un cierto movimiento o una acción concebida en
una materia muy sutil, la cual llena los poros de todos los otros cuerpos...

A partir de este modelo Descartes dedujo la ley de la refracción descubierta empíricamente por
Snell. Sin embargo, para su deducción, Descartes tuvo que acudir a la hipótesis de que la luz viajaba
más rápida en los medios más densos, como el agua, que en el aire, lo que fue ampliamente criticado
por ser antinatural. Uno de los detractores de la teoría de Descartes fue Pierre Fermat (1601-1665) el
cual, a partir de su principio extremal o del mínimo tiempo, consiguió demostrar la ley de la refrac-
ción admitiendo que la luz se propaga en los medios densos más lentamente que en el aire. Este resul-
tado se oponía a la teoría corpuscular de la luz mientras que se mostraba de acuerdo con las teorías
que consideraban la luz como una acción transmitida por un medio etéreo, tal como lo proponían Gri-
maldi, Hooke y Huygens.
Uno de los primeros en sugerir que la luz era un movimiento ondulatorio fue el jesuita Frances-
co Maria Grimaldi (1618-1665). La idea de Grimaldi se basaba en las observaciones del fenómeno
de difracción de la luz al incidir sobre objetos. Descubrió que los tamaños de las sombras eran dife-
rentes a los que les corresponderían si la luz viajase en línea recta. Esto le llevó a suponer que la luz, al
igual que las olas de agua que rodean los obstáculos con facilidad, era un fluido susceptible de un mo-
vimiento ondulatorio. Por la misma época, Robert Hooke (1635-1703) estudió los patrones de inter-
ferencia producidos por películas delgadas. De sus observaciones dedujo que estos patrones se de-
bían a la interacción de la luz de la parte anterior y posterior de la película y propuso la idea de que la
luz era un movimiento vibratorio del medio. Estas ideas fueron desarrolladas posteriormente por el
astrónomo, matemático y físico holandés Christiaan Huygens (1629-1695), una de los científicos
que por sus numerosos y originales descubrimientos tuvo un amplio reconocimiento entre los hom-
bres de ciencia del siglo XVII. Huygens realizó importantes descubrimientos en el campo de la astro-
nomía gracias a las mejoras introducidas por él mismo en la construcción del telescopio y sobre todo
debido a un método nuevo para el pulido de las lentes que le permitía obtener unas imágenes mucho
más nítidas. Pero si su aportación a la óptica instrumental fue importante, también lo fue su tratamien-
to mecánico de la luz. En su Traité de la Lumière (Tratado de la luz), completado en años anteriores,
pero publicado en 1690, podemos leer:
La luz consiste en un movimiento de la materia que se encuentra entre nosotros y
el cuerpo luminoso.

Si bien, la idea de que la luz era un movimiento ondulatorio ya había sido mantenida por Grimal-
di y Hooke tal como hemos comentado, Huygens hizo una de las más importantes contribuciones a la
óptica ondulatoria: el principio que lleva su nombre y que establece que todo punto de un frente de
ondas inicial se comporta como una nueva fuente de ondas secundarias que se propagan en todas di-
recciones. De esta manera puede encontrarse un nuevo frente de onda que envuelve las ondas secun-
darias, y, como la luz avanza perpendicularmente a ese frente, el principio de Huygens permite dedu-
cir los cambios de dirección de la luz. A partir del principio de Huygens se obtiene de forma elegante
las leyes de la reflexión y la refracción. Sin embargo, aunque Huygens fue el primero en descubrir el
fenómeno de polarización por la interposición sucesiva de cristales de espato, no pudo explicar el fe-
nómeno ya que su creencia era que la luz, como el sonido, se trataba de una vibración longitudinal. La
obra de Huygens es sin duda alguna la contribución más importante realizada en el campo de la física
entre Galileo y Newton. Sus resultados fueron importantes y duraderos y su trabajo muestra más que

334 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

ningún otro realizado con anterioridad la importancia del planteamiento numérico de los fenómenos
físicos frente al meramente descriptivo.
El acercamiento de Isaac Newton (1642-1727) al estudio de la óptica estuvo motivado por su
empeño en solucionar el problema de la distorsión y coloreado de las imágenes producidas en los te-
lescopios de refracción. Para ello construyó en 1668 un telescopio de reflexión en el que la luz se cen-
traba mediante un espejo cóncavo. Además de estos trabajos sobre óptica instrumental, Newton hizo
otras aportaciones importantes al desarrollo de la óptica. Sus principales contribuciones fueron su es-
tudio sobre los colores y la prueba fundamental de que la luz blanca es una mezcla de diferentes colo-
res. En su libro Óptica o Tratado de las reflexiones, refracciones, inflexiones y colores de la luz de-
clara que:
Mi deseo no es explicar las propiedades de la luz mediante hipótesis, sino exponer-
las directamente para probarlas después por medio del tratamiento y las experiencias.

Al principio de su tratado describe un primer experimento sencillo para demostrar que la luz de
diferentes colores tiene diferente refrangibilidad. El experimento consistía en observar un trozo de
cartón, pintado mitad rojo y mitad azul, con un prisma. Newton escribe que:
Observé que si el ángulo de refracción del prisma se gira hacia arriba, de manera
que el papel parece que se eleva por virtud de la refracción, su mitad azul se elevará
por refracción más que su mitad roja. Pero si se hace girar el ángulo de refracción del
prisma, de modo que el papel parece descender por la refracción, su mitad azul des-
cenderá más que su mitad roja.

De esta experiencia Newton dedujo que la luz azul sufre una refracción mayor que la luz roja y como
consecuencia una lente debería enfocar la luz azul a una distancia diferente de la luz roja. Esto lo
comprobó en otro experimento en el que utilizó un papel pintado de azul y rojo, en el que había situa-
do varios hilos negros, para poder juzgar la claridad, y una lente. Comprobó que la imagen clara de las
dos mitades se obtenían a distancias diferentes.
En otro experimento, Newton estudió lo que ocurría a un rayo de luz del Sol, obtenido con un pe-
queño orificio hecho en una superficie, al atravesar un prisma. Observó una banda de colores: rojo,
anaranjado, amarillo, verde, azul y violeta, además de toda la gama de matices intermedios. A partir
de esta experiencia Newton dedujo que la luz blanca está compuesta por rayos de diferentes colores
“puros” con distinta refrangibilidad. En esta conclusión es en la que Newton basa su teoría corpuscu-
lar de la luz, si los colores son cualidades de la luz, ésta no puede ser una cualidad, sino una sustancia,
a la que atribuye una estructura corpuscular:
Estamos seguros de que la luz es una sustancia, pero es más difícil determinar
con exactitud qué es esa sustancia.

Otro de los descubrimientos de Newton fue el de los denominados anillos de Newton, que sur-
gen alrededor del punto de contacto entre una lente convexa y una lámina de cristal. Para explicar este
fenómeno, típicamente ondulatorio, mediante su teoría corpuscular, Newton tuvo que introducir una
compleja teoría en que suponía que los corpúsculos de la luz tienen “accesos” de fácil transmisión y
“accesos” de fácil reflexión que se suceden de forma periódica, siendo la longitud de acceso constan-
te para un color determinado. Esta longitud de “acceso” corresponde a lo que ahora denominamos
longitud de onda.
La dificultad que encontró para poder explicar la propagación rectilínea de la luz mediante una
teoría ondulatoria hizo que Newton se opusiera hasta su muerte a este tipo de teoría. Lo que hizo
que durante toda su vida mantuviera una dura pugna con Robert Hooke y Christiaan Huygens, de-
fensores de la teoría ondulatoria de la luz. Para él, la luz era una corriente de partículas que se preci-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 335


Volumen II. Física II

pitan a gran velocidad a través del espacio y aunque las ventajas de una teoría ondulatoria eran evi-
dentes, su autoridad intelectual hizo que esta teoría no fuera aceptada hasta muchos años después
de su muerte. La aceptación de la teoría ondulatoria de la luz tuvo su origen en 1800 cuando Young
explicó el fenómeno de los anillos de Newton, caprichos del destino, mediante una teoría ondulato-
ria de la luz.
El siglo XVIII no fue un siglo fructífero en el campo de la óptica, al menos en lo que se refiere
a avances teóricos. La mayoría de científicos adoptaron la teoría corpuscular de Newton y lo más
destacable fue la construcción de objetivos acromáticos. De acuerdo con la idea newtoniana pare-
cía imposible refractar la luz sin dispersarla, por lo que parecía una pérdida de tiempo intentar una
combinación de lentes que refractara la luz dejándola cromática. Sin embargo, Euler realizó unos
cálculos que establecían la posibilidad de conseguir el acromatismo combinando adecuadamente
un juego de lentes. Esta previsión fue luego confirmada por Samuel Klingestierna (1698-1765) en
1755 utilizando un prisma de vidrio y otro de ángulo variable lleno de agua. Posteriormente, John
Dollond (1706-1761) consiguió un objetivo acromático combinando una lente cóncava de vidrio de
flint y una lente cóncava de vidrio de crown.

3. LA UNIFICACIÓN DE LA ELECTRICIDAD Y EL MAGNETISMO


Durante el siglo XIX la electricidad y el magnetismo experimentaron un avance espectacular
que culminó con su unificación en lo que hoy se denomina electromagnetismo. A continuación va-
mos a exponer las experiencias y acontecimientos que condujeron a esta unificación.

3.1. La experiencia de Oersted


Algunos experimentadores habían observado que las agujas imantadas podían verse afectadas
por las descargas eléctricas. Por ejemplo, Franklin había mostrado en 1751 que las agujas de hierro
podían magnetizarse y desmagnetizarse eléctricamente mediante la descarga de una botella de Ley-
den. Estos experimentos sugerían la existencia de una relación entre la electricidad y el magnetismo,
por lo que muchos investigadores orientaron su trabajo a demostrar este lazo de unión.
La experiencia fundamental fue realizada por Hans Christian Oersted (1777-1851) en 1820.
Visto que la electricidad estática no producía ningún efecto sobre los imanes, Oersted tuvo la
idea de estudiar los efectos de la corriente eléctrica sobre los cuerpos imantados. Oersted dispuso
una pila de Volta y conectó sus extremos mediante una alambre mientras que colocaba una aguja
imantada en las cercanías del montaje. Oersted observó que la aguja que normalmente se orienta-
ba en la dirección norte-sur abandonaba esta posición y se colocaba perpendicularmente al alam-
bre. Además, observó que cuando cambiaba el sentido de la corriente, la aguja giraba 180 grados
y se orientaba de manera que el polo norte se situaba donde antes se encontraba el polo sur, y vi-
ceversa. Oersted encontró, sin ninguna duda, que existía una interacción entre las corrientes eléc-
tricas y los imanes.
Los resultados de Oersted despertaron un enorme interés en la comunidad científica. La razón
era que las fuerzas conocidas hasta ese momento mostraban un carácter lineal de atracción o repul-
sión (fuerza gravitatoria, entre cargas eléctricas, o entre imanes) mientras que lo que se encontraba en
los experimentos de Oersted era una fuerza rotatoria. Uno de los físicos que se ocupó de ampliar las
experiencias con corriente eléctricas fue el francés Dominique François Jean Arago (1786-1853).
Arago descubrió que la corriente eléctrica no sólo desvía una aguja imantada sino que también ima-
nan el acero. Además el efecto se ve aumentado si el cable conductor se pliega en espiral y se introdu-
ce en su interior la varilla de hierro. Arago descubrió así el principio del electroimán.

336 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

3.2. Ley de Biot y Savart


Unos pocos meses después de la publicación de los resultados del experimento de Oersted, Jean
Batiste Biot (1774-1862) y Felix Savart (1791-1841) presentaron a la Academia Francesa sus traba-
jos sobre la dependencia de la fuerza magnética producida por una corriente con la distancia a la mis-
ma. Sus experimentos contribuyeron a establecer (por parte de Laplace) lo que hoy conocemos como
la ley de Biot-Savart. Esta ley es en magnetismo análoga a la ley de Coulomb en electrostática
r y esta-
blece que el campo magnético producido por un elemento infinitesimal de corriente d l por el que
pasa una corriente I en un punto situado a una distancia r del mismo viene dado por:
r
r m 0 Id l´ r$
dB = (1)
4p r 2
en donde r$ es el vector unitario en la dirección que une al elemento de corriente (punto fuente) con el
punto del espacio en donde calculamos el campo (punto campo), y m0 es una constante que se conoce
como permeabilidad del vacío y su valor en unidades del SI viene determinado por la definición de
amperio (A) y es:
m 0 = 4p10– 7 T×m×A –1 (2)

De la expresión anterior vemos que, al igual que el campo electrostático creado por una carga
puntual (fuente del campo electrostático), el campo magnético creado por un elemento infinitesimal
de corriente (fuente del campo magnético) es inversamente proporcional a la distancia al cuadrado al
punto donde se calcula el campo. Pero existe una diferencia importante entre la ley de Coulomb y la
ley de Biot-Savart:
r el campo eléctrico producido por una carga puntual es radial, mientras que la di-
rección de dB es perpendicular al elemento de corriente y al vector de posición que va desde dicho
elemento al punto donde calculamos el campo.
La ley de Biot-Savart dada por (1) nos proporciona la expresión del campo magnético creado
por un elemento de corriente infinitesimal. Pero a diferencia de lo que se tiene en electrostática, en
magnetismo no se tienen fuentes puntuales del campo magnético; es decir, no se tienen elementos de
corrientes infinitesimales en una corriente eléctrica estacionaria, sino que se tienen conductores fini-
tos. Para calcular el campo magnético creado por una distribución de corriente debemos integrar la
expresión (1) a lo largo de todo el conductor:
r
r m 0 Id l´ r$
B= ò (3)
4p r 2
en donde la integral debe extenderse a todo el conductor.

3.3. Ampère y la atracción entre corrientes


Una semana después de que Oersted diera a conocer sus experimentos André-Marie Ampere
(1775-1836) comunicó sus observaciones sobre las acciones de las corrientes: las corrientes eléctri-
cas se atraen en el caso de que vayan en la misma dirección o se repelen si van en direcciones distin-
tas. Además demostró que una espira que puede girar libremente alrededor de un eje vertical se orien-
ta en la dirección norte-sur al pasar por ella una corriente, igual que las agujas imantadas; y que dos
espiras interactúan de la misma forma que dos varillas imantadas.
Ampère dio forma matemática a sus investigaciones sobre las acciones dinámicas de las corrien-
tes eléctricas y su trabajo fue publicado en 1827 en la memoria Théorie mathématique des phénomè-
nes électrodynamiques, uniquement déduite de l´expérience (Teoría matemática de los fenómenos
electrodinámicos, únicamente deducida de la experiencia). Ampère denominó electrodinámica a la

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 337


Volumen II. Física II

ciencia que trata de las acciones mutuas entre corrientes y mostró que estas acciones obedecen a las
siguientes leyes:
1. El efecto de una corriente se invierte cuando se invierte el sentido de la corriente.
2. El efecto de una corriente que fluye sobre un circuito torcido con pequeñas sinuosidades es el
mismo que se tendría si el circuito fuera allanado.
3. La fuerza que un circuito cerrado ejerce sobre un elemento de otro circuito forma un ángulo rec-
to con este último.
4. La fuerza entre dos elementos de circuitos permanece inalterada cuando todas las dimensiones
lineales se incrementan proporcionalmente mientras que la intensidad de la corriente permanece
constante.

De estas leyes, Ampère dedujo que la fuerza entre dos elementos de corrientes:
ii' dsds' 3
f= (cos e – cos q cos q ' ) (4)
r2 2
es proporcional al producto de las intensidades (i e i´) y de las longitudes de los elementos (ds y ds´), e
inversamente proporcional al cuadrado de su distancia (r). Además, la fuerza depende de los ángulos
(q y q´) que la recta de unión de ambos elementos forma con la dirección de los mismos y del ángulo
(e) que dichas direcciones forman entre sí.
Ampère desarrolló la teoría de la equivalencia de los imanes con circuitos portadores de corrien-
te y dio la primera interpretación del magnetismo de la materia. Su memoria causó un gran impacto y
medio siglo después Maxwell, que la calificó como “uno de los logros más brillantes de la ciencia”,
escribió sobre ella:
Es perfecta en la forma e irrebatible en precisión; y se resume en un fórmula de la
que se pueden deducir todos los fenómenos y que perdurará siempre como la fórmula
cardinal de la electrodinámica.

3.4. Faraday y la ley de la inducción


Las investigaciones más importantes que ponían de manifiesto la relación de los fenómenos eléc-
tricos con otros fenómenos fueron sin duda alguna las realizadas por Michael Faraday (1791-1867).
En 1831 Faraday en Inglaterra y Joseph Henry (1797-1878) en Estados Unidos descubrieron de
forma independiente un fenómeno de gran importancia tanto teórica como práctica: que un campo
magnético variable genera (induce) una corriente eléctrica. Si la experiencia de Oersted puso de ma-
nifiesto la relación entre la electricidad y el magnetismo, el descubrimiento de Faraday y Henry supu-
so el punto de partida para comprender los fenómenos electromagnéticos, es decir la interdependen-
cia entre los campos eléctricos y magnéticos que varían con el tiempo.
El hecho de que una corriente eléctrica que circula por un hilo conductor produjese un campo
magnético hizo pensar a Faraday que un campo magnético estacionario podría producir una corriente
eléctrica. Con este objetivo, Faraday dispuso un montaje experimental como el mostrado en la figura 1.
Se hace circular una corriente por una bobina conectada a una batería. Esta corriente produce un campo
magnético que se ve incrementado por el núcleo de hierro. Faraday esperaba que si la batería era de su-
ficiente capacidad se crearía un campo magnético intenso capaz de producir una corriente eléctrica en
una segunda bobina. Para detectar la corriente en esta bobina se conectaba un galvanómetro. Cuando la
corriente por la primera bobina era estacionaria, Faraday no observó corriente inducida alguna sobre la
segunda bobina. Sin embargo, observó que la aguja del galvanómetro se desviaba de forma apreciable
cuando cerraba el interruptor del circuito. De la misma forma, la aguja se desviaba en sentido contrario

338 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

cuando se abría el interruptor. Por tanto, la corriente estacionaria en la primera bobina no producía nin-
guna corriente inducida en la segunda. Esta corriente inducida sólo se generaba al iniciarse la corriente
en la primera bobina o al finalizar la corriente en esta bobina. Por consiguiente, a diferencia de la polari-
zación eléctrica, la inducción de una corriente eléctrica era un proceso dinámico.
Galvanómetro

Interruptor Hierro

Figura 1. Esquema del _


montaje experimental utilizado +
por Faraday para inducir una Batería
fuerza electromotriz.

Meses más tarde Faraday realizó otro experimento que ponía de manifiesto la relación entre la
electricidad y el magnetismo. Dispuso un montaje experimental, como el mostrado en la figura 2, que
constaba de varias bobinas una dentro de otras y que mantenían unidos sus extremos los cuales, a su
vez, se conectaban a un galvanómetro. Faraday observó que al introducir en el interior de las bobinas
una varilla magnética la aguja del galvanómetro se movía y que al sacar la varilla, la aguja se movía
en sentido contrario. También observó que cuando la varilla se encontraba en el interior de las bobi-
nas la aguja del galvanómetro volvía a su posición original. Faraday encontró de nuevo que la induc-
ción de una corriente eléctrica era un proceso dinámico: la corriente sólo existía cuando se introducía
o se sacaba el imán del interior de las bobinas.

I I

v N
v
S

Figura 2. Cuando un imán se mueve hacia una bobina se induce una


corriente en ésta. La corriente es de signo contrario cuando el imán se
aleja de la bobina.

Para explicar los resultados de sus experimentos, Faraday introdujo la idea de las líneas de fuer-
za. Para Faraday, la idea de que las fuerzas actuaran a distancia carecía de sentido físico, de manera
que, para explicar las fuerzas que actúan entre las cargas eléctricas y entre los imanes, imaginó que el
éter que llenaba todo el espacio se componía de líneas o tubos de fuerza que conectaban las cargas
opuestas o los polos magnéticos opuestos. Aunque la idea de las líneas de fuerza es anterior a Fara-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 339


Volumen II. Física II

day, la diferencia es que para éste las líneas adquieren una significado físico real. Cada línea de fuerza
correspondía a una unidad de magnetismo o de carga eléctrica y un cierto número de líneas compo-
nían un tubo de fuerza. La sección del tubo aumentaba o disminuía a lo largo de su longitud conforme
las líneas de fuerza divergían de sus orígenes, las cargas o los polos magnéticos. Faraday suponía que
los tubos se contraían longitudinalmente y se expandían lateralmente. De esta manera los tubos que
unían polos magnéticos opuestos o cargas eléctricas opuestas tendían a unir dichos polos o cargas,
mientras que las cargas iguales y los polos iguales se repelían debido a que los tubos que salían de
ellos no podían unirse y se empujaban entre ellos debido a su expansión lateral. Con estas ideas Fara-
day explicaba algunos fenómenos como el de la inducción de una corriente eléctrica, que tenía lugar
cuando un conductor se mueve respecto de un imán y atraviesa los tubos magnéticos.
Las ideas de Faraday, aunque cualitativas y en cierta medida ingenuas, abrieron el camino para susti-
tuir el concepto de acción a distancia por algo que se encontraría distribuido por todo el espacio y a lo que
podía atribuirse un determinado valor en cada punto. Este algo es lo que denominamos campo de fuerzas
o campo, ya sea gravitatorio, eléctrico o magnético, y la interacción entre objetos que se encuentran sepa-
rados es el resultado de la interacción de cada uno de ellos con el campo creado por el otro.
Por otra parte, Faraday contribuyó de forma importante a la creación de la electroquímica y formuló
las leyes de la electrólisis. Además, descubrió la rotación del plano de polarización de la luz en el seno de
un campo magnético y estudió los materiales dieléctricos; y descubrió el comportamiento particular de al-
gunas sustancias, a las que denominó diamagnéticas, en el seno de campos magnéticos intensos.

4. EL TRIUNFO DE LA ÓPTICA ONDULATORIA


El siglo XIX, al contrario que el siglo anterior, fue un período de grandes avances en los distintos
campos de la óptica: la óptica geométrica experimentó un importante desarrollo tanto teórico como
experimental, se demuestra el comportamiento ondulatorio de la luz y se desarrolla la óptica física, y
se relaciona la luz con las ondas electromagnéticas.
Durante este siglo XIX, la disputa entre una teoría corpuscular y una teoría ondulatoria de la luz
parece zanjarse a favor de esta última. Entre los científicos que contribuyeron a esta labor se encuen-
tra Thomas Young (1773-1829) quien con su famoso experimento de la doble rendija identificó el
fenómeno de difracción y fue fundamental para el establecimiento de la teoría ondulatoria de la luz.
En su experimento, Young hizo dos agujeros muy próximos en una pantalla y los iluminó con una
fuente de luz. En otra pantalla situada a cierta distancia de la primera observó que en las zonas en las
que se recibía la luz de ambos agujeros aparecían una serie de bandas estrechas de luz separadas por
bandas oscuras. Estos resultados no podían explicarse con una teoría corpuscular de la luz y Young
señaló que eran consecuencia de la naturaleza ondulatoria de la luz, que se comporta de forma similar
a como lo hacen las olas en un estanque. En los puntos en que las ondas llegan en fase el movimiento
de las ondas se suma y se produce un aumento de la iluminación, mientras que en los puntos en que
las ondas llegan fuera de fase se produce un descenso de la iluminación. A este efecto lo denominó
ley general de la interferencia y en palabras del propio Young se produce de la siguiente manera:
Cuando dos partes de la misma luz alcanza el ojo por dos caminos diferentes de
direcciones muy próximas, la intensidad es máxima si la diferencia de los caminos re-
corridos es un múltiplo de una cierta cantidad, y mínima en el estado intermedio.
Además, con su nueva teoría Young también explicó los colores observados en la películas del-
gadas y relacionó el color con la longitud de onda. Sin embargo, la teoría ondulatoria de la luz no fue
bien recibida por los científicos debido a que se oponía a la teoría corpuscular de Newton, una autori-
dad intelectual. Es más, la obra de Young se condenó y se ignoró y uno de sus críticos y adversarios
censuró a la Royal Society que publicara esos “mezquinos e insubstanciales documentos”.
Sólo después de los trabajos de Augustin-Jean Fresnel (1788-1827) y de François Arago
(1786-1853) la teoría ondulatoria fue aceptada por la comunidad científica europea. Fresnel demos-

340 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

tró que dos rayos de luz polarizada en diferentes planos no producían interferencia alguna, de lo que
dedujo que el movimiento ondulatorio de la luz no era longitudinal (como el del sonido), como se ha-
bía considerado hasta entonces, sino transversal. Además, Fresnel calculó los patrones de difracción
producidos por varios objetos y aberturas y explicó satisfactoriamente la propagación rectilínea de la
luz en medios isótropos y homogéneos, eliminando así la objeción principal de Newton a una teoría
ondulatoria. Arago fue también un firme defensor de la teoría ondulatoria frente a los partidarios de la
teoría corpuscular como Laplace, Biot y Poisson. Ideó una experiencia para demostrar que la luz via-
jaba a menor velocidad en un medio denso como el agua que lo hacía en el aire, tal y como predecía la
teoría ondulatorio y en contra de la teoría corpuscular que mantenía que se soportaba en la hipótesis
contraria. Pero al parecer, Arago no dispuso de los recursos para realizar estas medidas. En 1849
Armand-Hippolyte-Louis Fizeau (1819-1896) realizó la primera medida de la velocidad de la luz
en el aire, que estimó en 315300 km/h; y en 1850 Jean Bernard Leon Foucault (1819-1868) demos-
tró que la velocidad de la luz en agua es menor que en el aire, con lo que asestó un duro golpe a los de-
fensores de la teoría corpuscular.
La aceptación de la teoría ondulatoria de la luz llevaba consigo la aceptación de un medio
material que soportara dichas ondas y que llenara todo el espacio: el éter. Ahora bien, las vibra-
ciones longitudinales como el sonido podían propagarse en un gas, pero las vibraciones transver-
sales sólo podían tener lugar en sustancias sólidas. Pero era difícil imaginar un éter lo suficiente-
mente sólido y rígido para que permitiera las ondas transversales y a su vez que posibilitase el
movimiento de los cuerpos celestes en sus órbitas inmersas en el éter. Por otra parte, esta hipóte-
sis del éter sugería que la velocidad de la luz que midiera un observador en movimiento respecto
al éter debería verse afectada por este movimiento. Estas suposiciones llevaron a Albert Abraham
Michelson y a Edward Williams Morley a realizar un experimento en el que esperaban encontrar
una variación de la velocidad de la luz debido a la variación del movimiento de la Tierra respecto al
éter. Sin embargo lo que encontraron fue que la velocidad de la luz era la misma en todas las expe-
riencias realizadas. Este experimento demostraba la constancia de la velocidad de la luz en todas
las direcciones independientemente del estado de movimiento del receptor y ponía en tela de juicio
la hipótesis del éter. No obstante, para salvar la teoría del éter, en 1892 George Francis Fitzgerald
(1851-1901) e independientemente Hendrik Antoon Lorentz (1853-1928) en 1895, propusieron
la idea de que las longitudes se contraían en la dirección paralela al movimiento. Esta hipótesis de
contracción de las longitudes de Fitzgerald-Lorentz explicaba los resultados del experimento de
Michelson-Morley pero resultaba a todas luces una hipótesis puntual y demasiado artificial. La res-
puesta a esta incongruencia se obtendría a principios del siglo XX con la aparición de la Teoría de
la Relatividad de Einstein.

5. LA UNIFICACIÓN: TEORÍA DE MAXWELL


La formulación matemática de las ideas de Faraday fue realizada por James Clerk Maxwell
(1831-1879). Su teoría electromagnética le sitúa como uno de los grandes físicos de la historia junto
con Newton y Einstein. En su artículo de 1864 titulado “Teoría dinámica del campo electromagnéti-
co” Maxwell presentó las célebres ecuaciones, que hoy denominamos ecuaciones de Maxwell, que
unificaban los campos eléctricos y magnéticos. Estas ecuaciones constituyen la base teórica del elec-
tromagnetismo clásico y relacionan los campos eléctricos y magnéticos con sus fuentes: las cargas
eléctricas, las corrientes y los campos variables. Pero la importancia de estas ecuaciones no está sola-
mente en el hecho de que sean la síntesis del electromagnetismo, sino también en un aspecto de cru-
cial importancia: la ecuaciones de Maxwell predicen la existencia de ondas electromagnéticas. Por
otro lado, Maxwell demostró que la velocidad de propagación de estas ondas en el vacío era igual al
valor medido de la velocidad de la luz. Esto hizo pensar a Maxwell que la luz era una onda electro-
magnética. Por tanto, la teoría de Maxwell no sólo consagró la unificación de la electricidad y el mag-
netismo, sino que unificó el electromagnetismo y la óptica.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 341


Volumen II. Física II

5.1. Ecuaciones de Maxwell


En su forma más general, estas ecuaciones se escriben como:

– Ley de Gauss para el campo eléctrico


r r
Ñ×D = r (5)
en donde r es la densidad de carga eléctrica.

– Ley de Gauss para el campo magnético


r r
Ñ×B = 0 (6)

– Ley de Ampère-Maxwell
r
r r r ¶D
Ñ´ H = J + (7)
¶t

– Ley de Faraday-Henry
r
r r ¶B
Ñ´ E = – (8)
¶t
r
Las ecuaciones anteriores
r se completan conrotras dos que relacionan el vector desplazamiento D
con el campo eléctrico
r E, y el campo magnético B (denominado también inducción magnética) con el
campo magnético H. Además de estas dos ecuaciones, hay una tercera que relaciona la densidad de
corriente con el campo eléctrico, la ley de Ohm. Estas tres ecuaciones se denominan ecuaciones cons-
titutivas del medio donde aparecen los parámetros que caracterizan los medios materiales: la permiti-
vidad o constante dieléctrica, la permeabilidad magnética y la conductividad eléctrica. Para un medio
isótropo, homogéneo y lineal (ni ferroeléctrico ni ferromagnético) caracterizado por una permitivi-
dad e, una permeabilidad m, y una conductividad s estas ecuaciones son:
r r
D = eE (9)
r 1 r
H= B (10)
m
r r
J = sE (11)

Haciendo uso de estas


r ecuaciones
r constitutivas, las ecuaciones de Maxwell pueden escribirse en fun-
ción de los campos E y B como:
r r r
Ñ×E = (12)
e
r r
Ñ×B = 0 (13)
r
r r r ¶E
Ñ´ B = msE + me (14)
¶t
r
r r ¶B
Ñ´ E = – (15)
¶t

342 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

5.1.1. Ley de Gauss para el campo eléctrico


Como ya hemos indicado, las dos primeras ecuaciones (12) y (13) corresponden a la ley de
Gauss para el campo eléctrico y magnético, respectivamente. La ley de Gauss para el campo eléctrico
es otra manera de expresar la ley de Coulomb de interacción entre cargas eléctricas estáticas, por lo
que se trata de una de la leyes fundamentales del electromagnetismo. Ambas leyes son consecuencia
de que la fuerza eléctrica sea inversamente proporcional al cuadrado de la distancia, proporcional a
las cargas y dirigida en la dirección que une dichas cargas. En los campos eléctricos que resultan de
cargas estáticas o que se mueven lentamente, la ley de Coulomb y la ley de Gauss son equivalentes.
Sin embargo, la ley de Gauss es más general, pues es aplicable a cargas que se mueven rápidamente o
a cargas aceleradas. En consecuencia, dado que su campo de validez es más amplio, la ley de Gauss es
generalmente más útil que la ley de Coulomb. Esta ley se expresa matemáticamente en la forma:
r r Q
F E = òSE ×dS = (16)
e
en donde F E es el flujo del campo eléctrico a través de la superficie S, Q es la carga neta encerrada
por la superficie y e es la permitividad eléctrica del medio.
La ley de Gauss establece que las cargas eléctricas son las fuentes o sumideros del flujo eléctrico
y de las líneas de campo. Si en el interior de una superficie cerrada no hay fuentes ni sumideros, el
mismo número de líneas de campo que entran en la superficie es igual al número de líneas que salen
de ella, y por tanto el flujo eléctrico es cero. Si en el interior de una superficie cerrada hay fuentes
(cargas positivas), el número de líneas de campo que sale de la superficie es mayor que el que entra, y
el flujo eléctrico será positivo. Si en el interior hay sumideros de líneas de campo (cargas negativas)
el número de líneas que entran es mayor que el de líneas que salen de la superficie, y por tanto el flujo
eléctrico será negativo. Si la superficie encierra cargas positivas y negativas, el flujo es proporcional
a la carga neta encerrada por la superficie.
La ley de Gauss dada por (16) puede escribirse de forma diferencial utilizando el teorema de la
divergencia:
r r r r
òSE ×dS = òVÑ×EdV (17)

en donde V se refiere al volumen encerrado por la superficie. Además, la carga encerrada por la super-
ficie la podemos escribir como:
Q = òV rdV (18)

en donde r es la densidad de carga en el volumen. De estas expresiones se obtiene inmediatamente la


ley de Gauss en forma diferencial dada por (12).

5.1.2. Ley de Gauss para el campo magnético


r el campo eléctrico el flujo eléctrico F E , se define el flujo
Análogamente a como se define para
magnético F B de un campo magnético B, a través de una superficie S como:
r r
F B = òSB ×dS (19)
r
en donde dS es el vector asociado a un elemento diferencial de superficie y dirección normal a la mis-
ma. En términos de las líneas de campo, el flujo a través de una superficie es proporcional al número
de líneas que la cruzan. Puesto que las líneas del campo magnético son líneas cerradas, para cualquier

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 343


Volumen II. Física II

superficie cerrada se tiene que toda línea de campo que atraviesa hacia adentro la superficie, vuelve a
atravesarla hacia afuera. Es decir, que el flujo magnético a través de una superficie cerrada es cero:
r r
F B = ò B ×dS = 0 (20)

Esta expresión constituye la ley de Gauss para el campo magnético.


De manera análoga a la ley de Gauss para el campo eléctrico, la ley para el campo magnético
puede expresarse en forma diferencial sin más que utilizar de nuevo el teorema de la divergencia:
r r r r
òSB ×dS = òVÑ×BdV (21)

Para que la integral extendida a todo el volumen sea cero, el integrando debe ser idénticamente nulo,
por lo que se obtiene inmediatamente la ley de Gauss para el campo magnético en su forma diferen-
cial dada por (13).
La ley de Gauss para el campo eléctrico expresa una importante relación entre el flujo del cam-
po reléctrico
r a través de una superficie cerrada, y la carga eléctrica encerrada en dicha superficie
ò E ×dS = Q e 0 , por tanto, el flujo del campo eléctrico es distinto de cero si hay carga encerrada por
la superficie. Esta ley nos indica que la carga eléctrica es la fuente del campo electrostático. Las lí-
neas del campo eléctrico tienen su origen en una carga eléctrica positiva y terminan en una carga
eléctrica negativa.
Por el contrario, el flujo del campo magnético a través de cualquier superficie cerrada es cero. Es
decir, que no existe el equivalente magnético de la carga eléctrica, que correspondería a un polo mag-
nético aislado o monopolo magnético. Si este polo magnético existiese, las líneas del campo magnéti-
co no se cerrarían sobre sí mismas.

5.1.3. Corriente de desplazamiento de Maxwell: Ley de Ampère-Maxwell


Los dos descubrimientos más importantes en los que se basa la teoría de los campos electromag-
néticos variables con el tiempo fueron los realizados por Michael Faraday y James Clerk Maxwell. El
descubrimiento de Faraday fue un descubrimiento experimental y puso de manifiesto que la electrici-
dad y el magnetismo están fundamentalmente unidos: un campo magnético variable con el tiempo in-
duce un campo eléctrico. El descubrimiento de Maxwell estuvo motivado por la idea de simetría del
universo y fue este convencimiento lo que le condujo a la conclusión teórica de que el inverso de la
ley de Faraday también era cierto: que un campo eléctrico variable con el tiempo induciría un campo
magnético. En este sentido, la variación del flujo del campo eléctrico debería desempeñar el mismo
papel que las corrientes de conducción. Maxwell denominó corriente de desplazamiento a esta varia-
ción, con respecto al tiempo, del flujo del campo eléctrico y combinó esta corriente con la de conduc-
ción en una corriente total, que demostró que era continua.
El descubrimiento de Oersted de que las corrientes eléctricas son una fuente de los campos mag-
néticos se describe matemáticamente mediante la ley de Ampère, estudiada en el tema 21:
r r
ò B ×d l = m 0 I (22)

Ahora bien, esta ley sólo es válida para el caso de corrientes continuas que circulan por un conductor.
Existen otras distribuciones de corrientes que no satisfacen la ley de Ampère enunciada en la forma
anteriormente descrita. Por lo tanto, esta ley debe ser modificada de manera que tenga un carácter
más general y sea válida en cualquier situación. Esta generalización fue realizada por Maxwell y su-
puso un reforzamiento en la unión entre los fenómenos eléctricos y magnéticos. Para ello, Maxwell
introdujo el concepto de corriente de desplazamiento, ligado a la variación del flujo del campo eléc-
trico. Estudiemos a continuación el argumento de Maxwell.

344 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

Supongamos una situación, como la descrita en la figura 3, S2


en la que se tiene una corriente discontinua. En ella se tiene un S1
condensador de placas planas paralelas que se encuentra en pro-
ceso de carga, por lo que se produce un flujo de carga hacia la E
placa positiva mientras que de la placa negativa fluye hacia
afuera una cantidad de carga igual. Consideremos ahora un cir- I
cuito de integración C y dos superficies S1 y S2 que se apoyan en q -q
dicho contorno. A través de la superficie S1 circula una corrien-
te, la corriente de carga del condensador, y se satisface la ley de Figura 3. Corriente discontinua de
Ampère dada por (22): la circulación del campo magnético a lo carga de un condensador.
largo del circuito C es igual al producto de la permeabilidad del
vacío m0 por la corriente que atraviesa la superficie S1. Sin em-
bargo, si consideramos la superficie S2, la circulación del campo magnético a lo largo del circuito C es
distinta de cero e igual a la calculada en el caso anterior, pues existe un campo magnético en la región
alrededor del hilo conductor; pero no hay ninguna corriente de conducción que atraviese la superficie
S2, por lo que el segundo miembro de la ecuación (22) es cero. Por consiguiente, si tomamos la superfi-
cie S2, la ley de Ampère no se satisface.
Maxwell observó que, si bien no pasa corriente a través de la superficie S2, el flujo del campo
eléctrico a través de ella cambia con el tiempo: conforme se almacena la carga en las placas del con-
densador, el campo eléctrico entre ellas varía, y también lo hace el flujo eléctrico en la región situada
entre ellas. Este hecho condujo a Maxwell a resolver la ausencia de corriente eléctrica a través de S2
estableciendo que la variación del campo eléctrico entre las placas del condensador es equivalente a
una corriente eléctrica, que denominó corriente de desplazamiento, ID.
El campo eléctrico en un condensador de placas planas paralelas es uniforme entre las placas y
pequeño en el exterior de las mismas. La dirección del campo apunta desde la placa positiva a la nega-
tiva y su magnitud es:
1 q
E= (23)
e0 A
en donde q es la carga almacenada en las placas, A la superficie de cada placa y e0 la permitividad del
vacío. De esta ecuación se tiene que la carga almacenada en cualquier instante de tiempo es:
q = e 0 AE (24)
Tomando derivadas con respecto al tiempo, se tiene que:
dq dE
= e0 A (25)
dt dt
Ahora bien, la variación de la carga en las placas del condensador ha de ser igual a la corriente
que circula hacia o desde el condensador; es decir, dq/dt = I. Por otro lado, como el campo eléctrico
en el condensador es uniforme entre las placas y pequeño en el exterior de las mismas, esto significa
que el flujo a través de cualquier superficie entre ellas es aproximadamente igual a F E = EA. Por
consiguiente, se tiene que:
dE dF E
I = e0 A = e0 (26)
dt dt
Esta ecuación indica que cualquiera que sea la corriente que circula hacia el condensador, esta corriente
es igual a la variación del flujo entre las placas del condensador multiplicada por la permitividad del va-
cío. Por tanto, si reemplazamos la corriente de conducción I en la ley de Ampère por la suma:
dF E
I +e 0 (27)
dt

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 345


Volumen II. Física II

entonces, la ley de Ampère se satisface para cualquier superficie que se apoye en el circuito de inte-
gración C. Para la superficie S1 sólo se tiene el término I de la suma anterior; mientras que para cual-
quier superficie situada entre las placas del condensador sólo se tiene el término del cambio del flujo
eléctrico e0dFE /dt. Maxwell denominó a este término corriente de desplazamiento:
dF E
I D = e0 (28)
dt

En el caso de otro medio distinto al vacío se debe sustituir la permitividad del vacío e0 por la del me-
dio e.
En consecuencia, la ley de Ampère, modificada por Maxwell, queda establecida como:
r r
ò B ×d l = m 0 ( I + I D ) (29)

es decir, al término correspondiente a las corrientes verdaderas enlazadas por el camino de integra-
ción hay que sumarle la corriente de desplazamiento enlazada por el mismo camino. Evidentemente,
para un medio diferente del vacío hay que sustituir la permeabilidad del vacío m0 por la del medio en
cuestión m. Sustituyendo el valor de la corriente de desplazamiento dado por (28) en la ecuación ante-
rior se tiene, en general, que:
r r dF E
ò B ×d l = mI + me dt
(30)

Esta ecuación, conocida también como ley de Ampère-Maxwell, pone de manifiesto que, además de
por una corriente de conducción I, un campo magnético puede ser generado por un campo eléctrico
variable con el tiempo.
Aunque la ecuación (30) se ha obtenido para un caso particular, su validez es general. El término
del campo magnético inducido por la variación con el tiempo de un campo eléctrico es, por regla ge-
neral, bastante pequeño, sobre todo en aquellos casos en que los campos varíen muy lentamente con
el tiempo. Sin embargo, que la variación de un campo eléctrico produzca un campo magnético es de
crucial importancia para las ondas electromagnéticas.
Para obtener la ecuación diferencial correspondiente a la ley de Ampère-Maxwell basta con uti-
lizar el teorema de Stokes sobre la circulación de un campo vectorial a lo largo de una línea cerrada.
Según este teorema:
r r r r r
ò B ×d l = òS( Ñ´ B )dS (31)

en donde S es una superficie que se apoya en el contorno de integración.


Por otra parte, la corriente I la podemos expresar como:
r r
mI = m òSJ ×dS (32)

y para el flujo del campo eléctrico podemos escribir:


r r
dF E ¶E r ¶D r
me = meòS dS = m òS dS (33)
dt ¶t ¶t

Utilizando las expresiones anteriores, se obtiene de forma inmediata la ecuación de Maxwell corres-
pondiente a la ley de Ampère-Maxwell en forma diferencial dada por (14).

346 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

5.1.4. Ley de Faraday-Henry


Los estudios experimentales de Faraday permitieron establecer que la fem inducida por un cam-
po magnético variable depende, en primer lugar, de la rapidez del cambio del campo magnético:
cuanto más rápidamente varía el campo, mayor es la fuerza electromotriz inducida. Por otro lado, Fa-
raday había observado que la fem inducida no era proporcional a la variación del campo con respecto
al tiempo, sino que era proporcional a la variación del número de líneas de fuerza que cruzaban el cir-
cuito. Ahora bien, sabemos que el flujo del campo electromagnético a través de una superficie es pro-
porcional al número de líneas de campo que la cruzan, por lo que la fem inducida es proporcional a la
variación con respecto al tiempo del flujo magnético FB. Esta relación entre la variación del flujo
magnético y la fuerza electromotriz inducida en un circuito constituye la ley de inducción de Faraday,
o ley de inducción de Faraday-Henry, que matemáticamente se expresa como:
dF B
e= – (34)
dt
El signo menos de la expresión anterior está relacionado con el sentido de la fem inducida en el cir-
cuito, y que comentaremos posteriormente (ley de Lenz).
Para encontrar la forma diferencial de esta ley es necesario tener en cuenta que, por definición, la
fuerza electromotriz viene dada en función del campo eléctrico como:
r r
e = òCE ×d l (35)

Por otra parte, según el teorema de Stokes:


r r r r r
òCE ×d l = òS( Ñ´ E )×dS (36)

en donde S es una superficie apoyada en el circuito de integración C. Si ahora tenemos en cuenta que:
r
dF B d r r ¶B r
– = – òSB ×dS = – òS ×dS (37)
dt dt ¶t
de esta ecuación y de la anterior, se obtiene inmediatamente la ecuación de Maxwell correspondiente
a la forma diferencial de la lay de Faraday-Henry dada por (15).
Las ecuaciones de Maxwell no sólo permitieron que el concepto de campo se utilizara de forma
generalizada sino que además permitieron unificar los campos eléctricos y magnéticos. En cuanto a
su forma matemática, las ecuaciones de Maxwell muestran una cierta simetría entre el campo eléctri-
co y el campo magnético. Simetría que no es completa debido a que los monopolos magnéticos no
existen, al menos norse han detectado experimentalmente. Observemos que la ley de Faraday no con-
tiene un término m 0 J (o m0I en su forma integral) como consecuencia de que no hay cargas magnéti-
cas puntuales que puedan dar lugar a corrientes magnéticas. Sin embargo, en el vacío, donde no hay
cargas eléctricas, la simetría de las ecuaciones de Maxwell es total.
Con su teoría Maxwell mostró que todos los fenómenos eléctricos y magnéticos podían descri-
birse con sólo cuatro ecuaciones diferenciales que constituyen la base teórica del electromagnetismo
clásico y relacionan los campos eléctricos y magnéticos con sus fuentes: las cargas eléctricas, las co-
rrientes y los campos variables. Su papel en este campo es tan fundamental como lo son las leyes de
Newton en la mecánica clásica: todos los problemas del electromagnetismo clásico pueden resolver-
se mediante las ecuaciones de Maxwell, de la misma manera que todos los problemas de la mecánica
clásica pueden resolverse mediante las leyes de Newton. Dicho de otra forma, las ecuaciones de Max-
well constituyen un conjunto completo y consistente de ecuaciones que sintetizan el electromagnetis-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 347


Volumen II. Física II

mo. Todo el electromagnetismo se encuentra incluido en estas cuatro ecuaciones, por lo que son uno
de los grandes logros de la física y de la inteligencia humana.
Pero si la unificación de la electricidad y el magnetismo fue un enorme logro intelectual, todavía
más importantes fueron otras consecuencias de la teoría electromagnética de Maxwell. Una de ellas
fue la predicción de la existencia de ondas electromagnéticas. Como debe ocurrir con una nueva teo-
ría, la teoría de Maxwell no sólo explicaba los fenómenos eléctricos y magnéticos observados de una
forma impecable y con una belleza matemática inusual, sino que además predecía la existencia de
nuevos fenómenos como eran las ondas electromagnéticas. La confirmación experimental de estas
ondas electromagnéticas supuso la aceptación de la teoría de Maxwell: una de las grandes teorías en
la historia de la física. Otra de las consecuencias de la teoría de Maxwell, unida a la anterior, fue la
unificación de dos de los grandes campos de la física: el electromagnetismo y la óptica.

5.2. Ondas electromagnéticas


A continuación vamos a ver cómo la existencia de campos eléctricos y magnéticos dependientes
del tiempo dan lugar a la aparición de ondas electromagnéticas que se propagan con cierta velocidad c,
que es la velocidad de propagación de la luz. Esta coincidencia fue una de las razones fundamentales
que llevaron a Maxwell a proponer que la luz era una onda electromagnética.
Puesto que la ecuación de onda es una ecuación diferencial que relaciona las derivadas segundas
respecto al espacio y al tiempo de la magnitud física que se propaga, apliquemos en primer lugar el
operador rotacional a la ecuación (14). Haciendo esto, se tiene que:
r
r r r r æ r ¶E ö
Ñ´ ( Ñ´ B ) = Ñ´ç msE + me ÷
ç (38)
è ¶t ÷
ø

Intercambiando el orden de las derivadas espaciales y temporales en el segundo miembro de la ecua-


ción anterior, resulta:
r r r r r ¶ r r
Ñ´ ( Ñ´ B ) = msÑ´ E + me ( Ñ´ E ) (39)
¶t
Sustituyendo en esta expresión la ecuación (15) del rotacional del campo eléctrico, se tiene que:
r r
r r r ¶B ¶2B
Ñ´ ( Ñ´ B ) = – ms – me 2 (40)
¶t ¶t
El primer miembro de la ecuación anterior se puede simplificar haciendo uso de la relación vectorial:
r r r r r r r
Ñ´Ñ´ B = Ñ ( Ñ×B ) – Ñ 2 B (41)

en donde, en coordenadas cartesianas, el operador Ñ2 viene dado por:


r r ¶2 ¶2 ¶2
Ñ 2 = ( Ñ×Ñ ) = 2 + 2 + 2 (42)
¶x ¶y ¶z

Sustituyendo la expresión (41) en (40) y teniendo en cuenta que, según (13), la divergencia del campo
magnético es cero, obtenemos que:
r r
r ¶B ¶2B
Ñ B – ms
2
– me 2 = 0 (43)
¶t ¶t

348 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

Para el campo eléctrico podemos encontrar una ecuación similar a la anterior. Aplicando el ope-
rador rotacional a la ecuación (15) obtenemos que:
r
r r r r æ ¶B ö
Ñ´ ( Ñ´ E ) = – Ñ´ç ÷
ç
÷ (44)
è ¶t ø
Intercambiando en el segundo miembro el orden de las derivadas temporales y espaciales del campo
magnético, la ecuación anterior la podemos escribir como:
r r r ¶ r r
Ñ´ ( Ñ´ E ) = – Ñ´ B (45)
¶t
Sustituyendo en esta expresión la ecuación (14) del rotacional del campo magnético, se tiene que:
r r
r r r ¶E ¶2E
Ñ´ ( Ñ´ E ) = – ms – me 2 (46)
¶t ¶t
Al igual que antes, el primer miembro de la ecuación anterior se puede simplificar haciendo uso de la
relación vectorial:
r r r r r r r
Ñ´Ñ´ E = Ñ ( Ñ×E ) – Ñ 2 E (47)
Sustituyendo la expresión (47) en (46) y teniendo en cuenta que la divergencia del campo eléctrico
viene dada por (12) obtenemos finalmente que:
r r
r ¶E ¶ 2 E ræ r ö
Ñ E – ms
2
– me 2 = Ñç ÷ (48)
¶t ¶t èeø

En una zona del espacio libre de carga, r = 0, la ecuación anterior se transforma en:
r r
r ¶E ¶2E
Ñ E – ms
2
– me 2 = 0 (49)
¶t ¶t
Las ecuaciones (43) y (49) relacionan las derivadas espaciales de las componentes magnética y
eléctrica del campo electromagnético con las derivadas primera y segunda respecto al tiempo. Estas
ecuaciones se denominan ecuaciones del telegrafista o ecuaciones de telegrafía. En el caso de un me-
dio no conductor s = 0, las ecuaciones (43) y (49) se simplifican y quedan en la forma:
r
r ¶2B
Ñ B – me 2 = 0
2
(50)
¶t
r
r ¶2E
Ñ E – me 2 = 0
2
(51)
¶t
Si comparamos estas expresiones con la ecuación de onda tridimensional dada por:
1 ¶2F
Ñ 2F – =0 (52)
u 2 ¶t 2
vemos que las componentes del campo electromagnético satisfacen una ecuación diferencial de onda.
Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio como una onda,
siendo su velocidad de propagación u:
1
u= (53)
me

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 349


Volumen II. Física II

Las dos ecuaciones vectoriales (50) y (51) proporcionan seis ecuaciones de onda una para cada
componente del campo eléctrico (Ex, Ey y Ez) y del campo magnético (Bx, By y Bz).
En el vacío, las ecuaciones anteriores se transforman en:
r
r ¶2B
Ñ B – m0e0 2 = 0
2
(54)
¶t
r
r ¶2E
Ñ E – m0e0 2 = 0
2
(55)
¶t
Así pues, tanto el campo magnético como el campo eléctrico se propagan en el espacio vacío
como una onda. Su velocidad de propagación se designa normalmente como c, y viene dada por:
1
c= (56)
m0e0

5.3. Velocidad de las ondas electromagnéticas


Las ecuaciones de Maxwell, tal como acabamos de ver, predecían la existencia de ondas electro-
magnéticas cuya velocidad de propagación dependía de las características del medio. Para el vacío
esta velocidad venía dada por:
1
c= (57)
m0e0

y para un medio cualquiera de permitividad e y permeabilidad m:


1
u= (58)
me

Con el objeto de evaluar la velocidad de propagación de las ondas electromagnéticas, Maxwell


utilizó los resultados de los experimentos llevados a cabo por Wilhelm Weber (1804-1891) y Ru-
dolph Kohlrausch (1809-1858). El valor asignado a mo fue de 4p ´ 10–7 m kg C–2. Experimentalmen-
te, mediante medidas de capacidad se puede determinar de forma sencilla el valor de la permitividad
del vacío, resultando que e0 = 8,85 ´ 10–12 s2 C2 m–3 kg–1. Sustituyendo estos valores en la expresión
(57), se obtiene que:
1
c= » 3´108 m s (59)
m0e0

El valor teórico deducido para la velocidad de propagación de las ondas electromagnéticas estaba de
acuerdo con el valor experimental encontrado por Fizeau para la velocidad de la luz, 315000 km/s.
Esta coincidencia y el hecho de que tanto las ondas electromagnéticas como la luz fueran ondas trans-
versales, llevó a Maxwell a escribir:
Esta velocidad es tan cercana a la de la luz que parece haber fuertes razones para
concluir que la propia luz (incluyendo el calor radiante y otras radiaciones si las hay)
es una perturbación electromagnética en forma de ondas que se propagan a través del
campo electromagnético de acuerdo con las leyes electromagnéticas.

350 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

Por consiguiente, la teoría de Maxwell constituía no sólo la unificación de la electricidad y el magne-


tismo, sino también la unificación de la óptica. De ahí que esta teoría sea considerada como uno de los
grandes logros de la física y del intelecto humano.
Una consecuencia de la teoría de Maxwell era establecer una relación entre la constante dieléc-
trica de un medio y su índice de refracción. Si tenemos en cuenta que para un medio la permeabilidad
magnética es aproximadamente igual a la del vacío y la permitividad eléctrica puede escribirse como:
e = 0e0 (60)
siendo 0 la permitividad relativa o constante dieléctrica del medio; llevando esto a la expresión de la
velocidad de propagación de las ondas electromagnéticas dada por (58), se obtiene que:
1 c
u= = (61)
m0e00 0

El índice de refracción de un medio es el cociente entre la velocidad de la luz en el vacío y la veloci-


dad de propagación de la luz en el medio:
c
n= (62)
u
Por lo que sustituyendo esta expresión en (61) se tiene que:
2
0=n (63)
expresión que nos relaciona la constante dieléctrica del medio con el índice de refracción del mismo.
Esta relación planteaba un problema debido a que rara vez se satisfacía. Sólo después de enten-
der que tanto el índice de refracción como la constante dieléctrica eran funciones de la frecuencia la
verificación de esta relación supondría un nuevo triunfo de la teoría electromagnética de la luz.

6. HERTZ Y LA CONFIRMACIÓN EXPERIMENTAL DE LA TEORÍA


DE MAXWELL
En 1883, George Francis Fitzgerald (1851-1901) indicó que si la teoría de Maxwell fuese váli-
da, debería ser posible generar ondas electromagnéticas de forma eléctrica variando periódicamente
la corriente eléctrica en un circuito. Los físicos habían demostrado que la descarga de una botella de
Leyden y de otros condensadores era un proceso oscilatorio, por lo que esta descarga podía ser una
forma de obtener ondas electromagnéticas. Uno de los físicos que mostró interés por esta cuestión fue
Heinrich Hertz (1857-1894). Hertz calculó que la longitud de las ondas generadas mediante esta
descarga debería ser del orden de kilómetros, puesto que las oscilaciones eran del orden de unos po-
cos centenares de miles por segundo y debido a la débil energía de la descarga sería prácticamente
imposible detectar una onda a un kilómetro de distancia. Por consiguiente, la detección de una onda
electromagnética pasaba por la obtención de mejores y más potentes osciladores que permitieran re-
ducir la longitud de onda de la señal generada.
En 1886 Hertz observó un efecto que le sirvió de base para sus posteriores experimentos. Cuan-
do un circuito formado por un alambre de cobre doblado de manera que sus extremos estaban separa-
dos por una distancia muy pequeña era conectado a una parte de un circuito de descarga de una bobi-
na de inducción en el que se producía una chispa encontró que la chispa también se producía en los
extremos del circuito abierto. El fenómeno podía explicarse suponiendo que las oscilaciones del po-
tencial que se propagan a velocidad finita alcanzan uno de los extremos del alambre antes que el otro.
La diferencia de potencial que aparece es el origen de la chispa. En investigaciones posteriores Hertz

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 351


Volumen II. Física II

comprobó que la chispa en el alambre se podía producir incluso eliminado el contacto con el circuito
de la bobina de inducción. Interpretó el fenómeno suponiendo que el circuito secundario era de tales
dimensiones que el período de las oscilaciones en él eran casi iguales al de las oscilaciones primarias
en el circuito primario. Las alteraciones que pasaban de un circuito a otro se veían intensificadas por
el fenómeno de la resonancia. El descubrimiento de que las chispas podían ser producidas en el alam-
bre secundario siempre que tuviese las dimensiones adecuadas para la resonancia fue de enorme im-
portancia pues le proporcionaba un método para detectar efectos eléctricos a una distancia de la fuen-
te. Hertz había descubierto que para observar la propagación de una onda electromagnética en el es-
pacio libre lo único que necesitaba era un detector adecuado.
En 1888 Hertz realizó una serie de experimentos que le permitió determinar la velocidad de pro-
pagación de las ondas electromagnéticas en el aire y a lo largo de un hilo. Construyó un oscilador que
consistía en dos placas metálicas situadas en el mismo plano y que llevan unidas, cada una de ellas,
una varilla de hierro acabada en una bolita de forma que las bolitas pueden acercarse a voluntad. El
detector o resonador lo construye, como hemos indicado anteriormente, con un anillo de alambre
conductor con una pequeña abertura entre sus extremos. Hertz unió un hilo largo a una de las placas y
procedió a inducir mediante acoplamiento eléctrico una onda electromagnética en él. Las ondas se re-
flejaban en el extremo del hilo produciendo ondas estacionarias. Con ayuda del detector observó los
nodos y los vientres de las ondas estacionarias y determinó la longitud de onda y, calculando la fre-
cuencia de las oscilaciones podía calcular la velocidad de propagación de la onda en el hilo. Poste-
riormente, observó las interferencias entre las ondas propagadas por el hilo y las propagadas por el
aire y determinó la relación entre las dos velocidades de propagación, con lo que pudo determinar la
velocidad de propagación de las ondas electromagnéticas en aire, que era del mismo orden que la ve-
locidad de la luz. Por último, Hertz mostró que las ondas electromagnéticas se reflejaban en un muro
metálico y producían en el espacio ondas estacionarias. Además comprobó que podían ser enfocadas
con espejos cóncavos y que podían ser polarizadas mediante rejillas metálicas. Es decir, que las ondas
electromagnéticas mostraban los mismos efectos que las ondas de sonido y que la luz.
El trabajo de Hertz fue de enorme trascendencia puesto que logró confirmar experimentalmente
las previsiones de la teoría de Maxwell. Quedaba así establecido sin la menor duda que tanto el calor
como la luz eran radiaciones electromagnéticas.

352 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Unificación de la electricidad, magnetismo y óptica

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano, Bogotá, 1971.


Asimov, I.: Breve historia de la química. Alianza Editorial SA, Madrid, 1999.
Asimov, I. Momentos estelares de la Ciencia. Salvat, Barcelona, 1984.
Feynman, R. P., Leighton, R. B. y Sand, M.: Física. Fondo Educativo Interame-
ricano, Bogotá, 1972.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall, Upper Saddle River, New Jersey, 1996.
Gamov, G.: Biografía de la Física. Alianza Editorial, Barcelona, 1983.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill,
Madrid, 1991.
Holliday, D. y Resnick, R.: Física. CECSA, México, 1983.
Holton, G. y Brush, S. G.: Introducción a los conceptos y teorías de las ciencias
físicas. Editorial Reverté, S. A., Barcelona, 1989.
Jeans, J.: Historia de la Física. Fondo de Cultura Económico, México, 1953.
Mason, S. F.: Historia de las ciencias. Alianza Editorial, S. A., Madrid, 1987.
Papp, D.: Historia de la Física. Espasa Calpe, Madrid, 1945.
Taton, R.: Historia General de las Ciencias. Orbis, Barcelona, 1988.
Tipler, P. A.: Física. Editorial Reverté, Barcelona, 1992.
Whitaker, E.: History of the Theories of Aether and Electricity. Harper, New
York, 1960.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 353


TEMA

29
Limitaciones de la física clásica.
Mecánica relativista. Postulados
de la relatividad especial.
Algunas implicaciones
de la física clásica

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. LIMITACIONES DE LA FÍSICA CLÁSICA


1.1. Mecánica y relatividad
1.2. Electromagnetismo y relatividad
1.3. Intentos para preservar el concepto de éter
1.3.1. Experimento de Michelson-Morley
1.3.2. Hipótesis de contracción de Lorentz-Fitzgerald
1.3.3. Hipótesis de arrastre del éter
1.3.4. Intentos para modificar la electrodinámica

2. POSTULADOS DE LA RELATIVIDAD ESPECIAL

3. CINEMÁTICA RELATIVISTA
3.1. Transformaciones de Lorentz
3.2. Consecuencias de las transformaciones de Lorentz
3.2.1. Contracción de las longitudes
3.2.2. Dilatación del tiempo
3.2.3. Relatividad de la simultaneidad
3.2.4. Composición de velocidades
3.3. Intervalos en el espacio de Minkowski y principio de causalidad
3.4. Tiempo propio
3.5. Cuadrivector velocidad

4. DINÁMICA RELATIVISTA
4.1. Momento relativista y fuerza de Minkowski
4.2. Energía relativista
4.3. Aceleración relativista
4.4. Equivalencia entre la masa y la energía

BIBLIOGRAFÍA

356 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

1. LIMITACIONES DE LA FÍSICA CLÁSICA


Hasta que el electromagnetismo quedó establecido en la segunda mitad del siglo XIX, las ideas
de la física estaban completamente influenciadas por los principios y conceptos de la mecánica new-
toniana, avalados por dos siglos de éxitos. Esta influencia era tal que se consideraba que un fenómeno
físico sólo se podría conocer si se era capaz de construir un modelo mecánico del mismo. Por consi-
guiente, toda teoría física debe construirse a imagen y semejanza de la mecánica y toda ley física de-
bía ser una ley dinámica a partir de la cual, y conocido el estado inicial del sistema, se podía determi-
nar el estado del sistema en cualquier instante posterior.
Un proceso físico tiene lugar en el espacio y en el tiempo, cuyas propiedades quedan establecidas en
la mecánica de Newton. El espacio se somete a la geometría euclidiana y es isótropo (todas las direcciones
son equivalentes) y homogéneo (todos los puntos del espacio son equivalentes). Junto al espacio e inde-
pendientemente de él existe el tiempo, que está ligado a él a través de las ecuaciones de movimiento. El
tiempo se mide con relojes, que son cualquier instrumento que utilice un proceso periódico que nos pro-
porcione una escala de tiempo. En consecuencia, determinar el tiempo independientemente de cualquier
proceso periódico, es decir, sin referencia al espacio, es imposible. Además, el espacio y el tiempo son los
mismos para todos los sistemas de referencia. Es decir, el espacio y el tiempo son absolutos. Un suceso en
un sistema de referencia viene especificado por las coordenadas espaciales y por el tiempo en el que ocu-
rre, y las coordenadas de un mismo suceso observado desde dos sistemas de referencia S y S´ están rela-
cionadas por las transformaciones de Galileo. A continuación vamos a ver el comportamiento diferente de
las leyes de la mecánica y del electromagnetismo bajo una transformación de Galileo.

1.1. Mecánica y relatividad


Supongamos un suceso que tenga lugar en un punto del espacio x, y, z en un sistema de referen-
cia S y que se produzca en un instante de tiempo t. Supongamos, también, que el suceso es observado
desde un sistema de referencia S´, que se mueve a velocidad u con respecto a S, y denominemos x´, y´,
z´ a las coordenadas en el sistema S´. Consideremos, por sencillez, que los ejes de coordenadas de los
dos sistemas son paralelos en cualquier instante de tiempo y que el movimiento de S´ tiene lugar a lo
largo del eje común de los dos sistemas xx´ (figura 1). En este caso, las transformaciones de Galileo,
que relacionan las coordenadas del suceso en los dos sistemas de referencia, son:
x´= x – ut (1)
y´= y (2)
z´ = z (3)
t´ = t (4)
en donde hemos escrito la última igualdad para establecer que el tiempo es absoluto y es el mismo en
todos los sistemas de referencia.
y
y’

Z
v

O Z
R x
z O’ x’
Figura 1. Sistemas de referencia en
movimiento relativo de traslación uniforme. z’

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 357


Volumen II. Física II

Veamos cómo estas transformaciones son compatibles con la idea de espacio absoluto. Para
ello, estudiemos el proceso de medición de una varilla por un observador para el que la varilla se mue-
ve con velocidad u. Consideremos dos observadores en dos sistemas de referencia: un sistema S´ fijo
en la varilla, y otro con respecto del cual la varilla se mueve con velocidad u. El observador en S´ me-
dirá la varilla determinando la posición de cada uno de sus extremos:

l'= x' B – x' A (5)

El observador en S deberá determinar la posición de los extremos de la varilla en un mismo instante


de tiempo, si quiere obtener una medida fiel de su longitud. Esta longitud será:

l= x B – x A (6)

Si tenemos en cuenta que las coordenadas de los dos sistemas están relacionadas por las transforma-
ciones de Galileo (1), se obtiene que:

l = l' (7)

Es decir, los intervalos espaciales y temporales medidos por ambos sistemas son idénticos, y, por tan-
to, serán iguales para todos los sistemas de referencia inerciales. En este sentido, el espacio y el tiem-
po son absolutos.
Veamos a continuación algunas consecuencias de las
y
transformaciones de Galileo. Supongamos que observamos

el movimiento de una partícula desde los dos sistemas de re-
ferencia comentados anteriormente (figura 2). Imaginemos
u que en un instante de tiempo la posición de la rpartícula en el
sistema S viene dadarpor el vector de posición r, y en el siste-
r r´ ma S´ porr el rvector r'. Es evidente que la relación entre los
vectores r y r' es:
O r r r
R r '= r – R (8)
z O´ x x´ r
en donde R es la posición del origen de S´ con respecto al sis-

tema S. Si derivamos las ecuaciones con respecto del tiem-
Figura 2. Movimiento de una
po, obtenemos las transformaciones de las velocidades (o
partícula visto desde dos sistemas de ley de composición de las velocidades) entre dos sistemas de
referencia en movimiento relativo de referencia inerciales que se encuentran en movimiento rela-
traslación uniforme. tivo de traslación uniforme, uno con respecto al otro, con ve-
locidad u.
r r r
u '= u – u (9)
r r
en donde u'es la velocidad r de la partícula con respecto al sistema S´, u la velocidad de la partícula con
respecto al sistema S, y u la velocidad relativa entre los dos sistemas. La ecuación anterior la podemos
desdoblar para cada una de las componentes cartesianas de la velocidad y tendremos que las transfor-
maciones de las componentes de la velocidad son:

u' x = u x – u (10)

u' y = u y (11)

u' z = u z (12)

358 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

Si ahora derivamos las ecuaciones anteriores se tiene que:

a' x = a x (13)

a' y = a y (14)

a' z = a z (15)

Es decir, que las aceleraciones son las mismas para los dos sistemas de referencia inerciales. Si
ahora tenemos en cuenta que, según la física clásica, la masa de una partícula o sistema es indepen-
diente del movimiento del sistema de referencia, tendremos que:
r r
ma = ma ' (16)

Es decir, el producto de la masa por la aceleración es el mismo en todos los sistemas de referencia
inerciales. O, dicho de otra manera, las leyes del movimiento de Newton, y por consiguiente todas las
leyes determinadas a partir de éstas, son invariantes frente a una transformación de Galileo.
Como acabamos de ver, la leyes de la mecánica son exactamente iguales en todos los sistemas
de referencia inerciales, y, en consecuencia, todos los sistemas de referencia inerciales son equiva-
lentes en lo que se refiere a la mecánica. Por tanto, no hay ningún sistema privilegiado que se en-
cuentre en reposo absoluto, y sólo se puede hablar de velocidad relativa de un sistema con respecto
a otro y no de velocidad absoluta de un sistema. A este hecho se le suele denominar principio de la
relatividad newtoniano.
Una consecuencia del principio de relatividad newtoniano es que ningún experimento mecáni-
co, realizado completamente dentro de un sistema de referencia inercial, puede permitir a un observa-
dor determinar el estado de movimiento del sistema con respecto a cualquier otro sistema de referen-
cia inercial. Si las demás leyes de la física, aparte de las mecánicas, fuesen invariantes frente a una
transformación de Galileo, el principio de relatividad newtoniano sería válido para toda la física y
ningún experimento en física (no sólo mecánico) realizado en un sistema de referencia permitiría de-
terminar la velocidad de éste con respecto a otro. En consecuencia, no habría ningún sistema de refe-
rencia privilegiado o absoluto.

1.2. Electromagnetismo y relatividad


Veamos a continuación cómo la situación descrita anteriormente es diferente en el campo del
electromagnetismo.
Tal como hemos visto en los temas 22 y 25, a finales del siglo XIX quedó formulado el electro-
magnetismo mediante las ecuacionesr de Maxwell. De estas
r ecuaciones se obtienen las ecuaciones de
onda para el campo eléctrico E y el campo magnético B, ecuación en la que aparece la constante
1 e 0 m 0 , que se identifica con la velocidad de propagación de las ondas electromagnéticas en el va-
cío. Ahora bien, de acuerdo con las transformaciones de Galileo, tal velocidad no puede ser la misma
para dos sistemas de referencia inerciales en movimiento relativo, y, en consecuencia, los efectos
electromagnéticos serán distintos para ambos sistemas. O dicho de otra manera, las ecuaciones del
electromagnetismo no son invariantes frente a una transformación de Galileo. Por tanto, si se acepta
que las transformaciones de Galileo y las ecuaciones de Maxwell son correctas, inmediatamente sur-
ge que existe un sistema de referencia inercial único y privilegiado (el sistema del éter) en el que las
ecuaciones de Maxwell son válidas y en el que la velocidad de la luz es 1 e 0 m 0 .

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 359


Volumen II. Física II

Este hecho que acabamos de comentar, que el principio de relatividad se aplique a la mecánica y
no al electromagnetismo, implica la necesidad de escoger entre las siguientes posibilidades:
1. Existe un principio de relatividad para la mecánica pero no para el electromagnetismo. Es decir,
para la electrodinámica hay un sistema de referencia privilegiado (el éter) que podría encontrar-
se experimentalmente. En este caso, las transformaciones de Galileo serían válidas.
2. Existe un principio de relatividad tanto para la mecánica como para el electromagnetismo, pero
las ecuaciones de Maxwell no son correctas. En este caso, las transformaciones de Galileo se-
guirán siendo válidas.
3. Existe un principio de relatividad tanto para la mecánica como para el electromagnetismo, pero
las leyes de Newton no son correctas. En este caso, las transformaciones de Galileo no serían vá-
lidas, puesto que son incompatibles con las ecuaciones de Maxwell.

De entre las posibilidades enumeradas anteriormente, la opción 3 es la correcta y es la que con-


dujo a la teoría de la relatividad restringida (o teoría de la relatividad especial) que supuso una de las
grandes revoluciones conceptuales del siglo XX. Sin embargo, los físicos de finales del siglo XIX y
principios del XX se mostraron absolutamente en contra de aceptar cualquier posibilidad que pusiera
en tela de juicio los principios de la mecánica. Por esta razón, los esfuerzos realizados para mantener
la estructura de la física clásica fueron tremendos, incluso después de que Albert Einstein enunciara
los postulados de la teoría de la relatividad.
Veamos a continuación los esfuerzos tanto experimentales como teóricos realizados para evitar
lo inevitable: la primera gran revolución de la física clásica.

1.3. Intentos para preservar el concepto de éter


En este apartado vamos a exponer los diferentes intentos realizados para preservar los concep-
tos clásicos y resolver el problema de incongruencia entre transformaciones de Galileo y ecuacio-
nes de Maxwell.

1.3.1. Experimento de Michelson-Morley


Como ya hemos indicado anteriormente, si el principio de relatividad newtoniano es correcto y
las leyes del electromagnetismo también, se podría llevar a cabo algún experimento electromagnético
para detectar la existencia de un sistema de referencia absoluto en el que la velocidad de la luz sea la
prevista por las ecuaciones de Maxwell. En otros sistemas de referencia la velocidad de la luz sería di-
ferente.
Albert Michelson (1852-1931), en 1881, y posteriormente junto con Edward Morley (1838-1923),
en 1887, se propuso detectar la variación de la velocidad de la luz observando la variación de los patro-
nes de interferencias obtenidos en un interferómetro orientando los brazos de éste de manera diferente
con respecto al éter. Consideremos un interferómetro como el mostrado en la figura 3. Un rayo de luz
procedente de una fuente monocromática incide sobre un espejo semiplateado P que divide el haz en
dos: uno que se transmite, y otro reflejado. Los dos haces que se originan se reflejan en los espejos M1 y
M2 y vuelven al espejo P. Finalmente llegan al dispositivo fotográfico F en donde producen un patrón
de interferencia si M1 y M2 son casi perpendiculares, pero no exactamente perpendiculares. La interfe-
rencia se debe a dos hechos: la diferencia de longitud de los caminos recorridos y la distinta velocidad
de la luz en los diferentes trayectos.

360 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

Supongamos la existencia de un éter y sea c la velocidad M2


u
de la luz con respecto al éter. Por otra parte, sea u la velocidad
de la Tierra con respecto al éter y orientemos los brazos del in-
terferómetro de manera que el trayecto P-M1 coincida con la di- Fuente
rección de dicha velocidad, como se indica en la figura. El de luz
c+u
tiempo que tarda la luz en recorrer el trayecto P-M1-P es:
c–u
l1 l 2l1 P
t1 = + 1 = (17)
c – u c+ u é æ u ö2 ù M1
cê1–ç ÷ ú
ë ècø û F

El tiempo que tarda la luz en recorrer el trayecto P-M2-P es: Figura 3. Esquema del
experimento de
2l2 Michelson-Morley.
t2 = (18)
æ u ö2
c 1–ç ÷
ècø

La diferencia de tiempos será:


é ù
ê ú
2ê l2 l1 ú
Dt = t 2 – t 1 = ê – ú (19)
c
ê æ u ö2 æ u ö2 ú
ç
1–ç ÷ 1–è ø ú ÷
ê
ë ècø c û

r Supongamosrahora que giramos el interferómetro entero 90º, de manera que l1 es perpendicular


a u y l2 paralelo a u. Procediendo de forma análoga, se obtiene que la diferencia de tiempo empleado
por ambos haces es:
é ù
ê ú
2ê l2 l1 ú
Dt '= t ' 2 – t ' 1 = ê – ú (20)
ê1 – æ uö
2
c æ u ö2
ç ÷ ç ÷ ú
ê 1 – ú
ë ècø ècø û

Por tanto, la rotación de los brazos del interferómetro da lugar a un cambio en las diferencias de tiem-
po dado por:
é ù
ê ú
2 ê 1 1 ú
Dt '– Dt = ( l1 + l2 ) ê – ú (21)
c æ ö
ê1 – ç u ÷
2
æ u ö2 ú
1 – ç ÷
ê
ë ècø ècø ú
û

Desarrollando en serie y despreciando términos de orden superior, se tiene que:


l1 + l2 æ u ö2
Dt '– Dt • ç ÷ (22)
c ècø

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 361


Volumen II. Física II

Por consiguiente, la rotación de los brazos del interferómetro debe producir un corrimiento del patrón
de interferencia. Si la diferencia de camino óptico entre los haces cambia en una longitud de onda, ha-
brá un corrimiento de una franja en el patrón de interferencia. Si DN es el número de franjas que se
desplaza y l es la longitud de onda, se tiene que:
c( Dt '– Dt )
DN = (23)
l
en donde c (Dt´ – Dt) es la diferencia de camino óptico. Sustituyendo en esta expresión el valor en-
contrado en (22), se tiene que:
l1 + l2 æ u ö2
DN = ç ÷ (24)
l ècø

Con los valores del interferómetro utilizado por Michelson y Morley se obtenía que DN • 0.4. Un corri-
miento de 4/10 franjas debería haber sido observado. Sin embargo, el experimento mostraba que no se
producía modificación alguna en el patrón de interferencias. El mismo experimento se realizó a diferentes
horas del día y de la noche y durante todas las estaciones del año (a medida que la Tierra se desplaza alre-
dedor del Sol), y el resultado era que no se obtenía corrimiento alguno en los patrones de interferencia.
Los resultados experimentales obtenidos por Michelson y Morley podían explicarse de varias
maneras:
1. La velocidad de la Tierra con respecto al éter es cero, lo que implicaría que la Tierra y los objetos
arrastran consigo al éter en su movimiento.
2. La velocidad de la luz es constante en todos los sistemas de referencia inerciales y, por consi-
guiente, no existe ningún sistema de referencia privilegiado; es decir, el éter no existe.

A continuación expondremos los intentos realizados para explicar los resultados del experimen-
to de Michelson y Morley mediante hipótesis compatibles con la existencia del éter.

1.3.2. Hipótesis de contracción de Lorentz-Fitzgerald


Un primer intento para preservar el concepto de éter, pero no adherido a los cuerpos en movi-
miento, fue la hipótesis realizada por George Francis Fitzgerald (1851-1901) e, independientemen-
te, por Hendrik Antoon Lorentz (1853-1928) en 1895. La hipótesis de contracción de las longitudes
de FitzGerald-Lorentz establecía que:
Todos los cuerpos se contraen en la dirección de su movimiento con respecto al
éter estacionario en un factor 1– ( u c ) 2 .

Si l0 es la longitud de un objeto con respecto al éter, y l es su longitud en movimiento con respec-


to al éter a velocidad u, se tiene que:
l = l 0 1– b 2 (25)

en donde b = u/c, siendo c la velocidad de la luz en el vacío.


Esta hipótesis de contracción de las longitudes de Fitzgerald-Lorentz, explicaba correctamente los
resultados del experimento de Michelson-Morley pero resultaba a todas luces una hipótesis puntual y
demasiado artificial. Además, la hipótesis de la contracción de las longitudes no podía explicar el hecho
de que en el experimento de Michelson y Morley no se encontrara modificación del patrón de interfe-
rencias al hacer las medidas en diferentes épocas del año. Veamos esto con un poco más de detalle. Si

362 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

en el experimento de Michelson y Morley la longitud en la dirección del movimiento se contrae, se ten-


drá que:
l1 = l10 1– b 2 (26)

Por otra parte, en la dirección perpendicular al movimiento:


l2 = l20 (27)

Rehaciendo los cálculos del apartado anterior, se tiene que la diferencia de tiempos entre los dos ha-
ces de luz que salen del espejo semiplateado y que inciden en el instrumento óptico es:
2 1
Dt = ( l20 – l10 ) (28)
c æ u ö2
1–ç ÷
ècø

Análogamente, cuando se gira el interferómetro 90º, se tiene que, en la dirección paralela al movi-
miento:
l2 = l20 1– b 2 (29)

Y en la dirección perpendicular al movimiento:


l1 = l10 (30)

En este caso, la diferencia de tiempos con que los haces de luz llegan al instrumento óptico viene dada
por:
2 1
Dt '= ( l20 – l10 ) (31)
c æuö 2

1–ç ÷
ècø

Por consiguiente, de las expresiones (28) y (31) se tiene que:


Dt '– Dt = 0 (32)

Resultado que explicaría la no observación de corrimiento en las franjas de interferencia en el experi-


mento de Michelson y Morley. Ahora bien, ¿explicaría esta hipótesis de contracción la no observa-
ción del corrimiento espectral en medidas realizadas a distintas horas o en diferentes épocas del año?
La respuesta como vamos a ver es no. Supongamos que realizamos el experimento de Michelson y
Morley en un lugar y en un momento dado en el que la velocidad del interferómetro respecto del éter
sea la mostrada en la figura 4a.

uR

Figura 4. Posición de la uO
uO
Tierra en su movimiento uR
orbital en dos instantes
diferentes. a) b)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 363


Volumen II. Física II

En este caso, si denominamos uo a la velocidad orbital de la Tierra alrededor del Sol, y uR a la ve-
locidad de rotación de la tierra sobre sí misma, se tendrá que la velocidad del interferómetro será:
u= uo +uR (33)

La diferencia de tiempos en el experimento de Michelson-Morley será, en este caso:


2 1
Dt = ( l20 – l10 ) (34)
c æuö 2

1–ç ÷
ècø

Supongamos ahora que realizamos el experimento 12 horas después en el que la velocidad del inter-
ferómetro con respecto al éter, como se muestra en la figura 4b, vendrá dada por:
u'= u o – u R (35)

Por tanto, la diferencia de tiempos en el experimento será:


2 1
Dt '= ( l20 – l10 ) (36)
c æ u' ö 2

1–ç ÷
ècø

Desarrollando en serie las expresiones (34) y (36) y restando, obtenemos que:


l20 – l10 æ
ç u 2 – u' 2 ö
÷
Dt '– Dt = ç ÷ (37)
c è c2 ø

Y el corrimiento esperado en las franjas de interferencia viene dado por:


l20 – l10 æ
ç u 2 – u' 2 ö
÷
DN = ç ÷ (38)
l è c2 ø

R. J. Kennedy y E. M. Thorndike llevaron a cabo una serie de experimentos a diferentes horas


del día y en distintas épocas del año y no encontraron corrimiento alguno, lo que estaba en contra de la
hipótesis de contracción de las longitudes de Fitzgerald y Lorentz. En consecuencia, la única forma
de preservar el concepto de éter era suponer que los cuerpos arrastraban al éter en su movimiento.

1.3.3. Hipótesis de arrastre del éter


Una segunda hipótesis para defender y preservar el concepto de éter fue la del arrastre. Según esta
hipótesis, el éter se encontraba adherido a todos los cuerpos y era arrastrado por ellos en su movimiento.
Lo que hacía atractiva a esta hipótesis es que con ella no se requería modificación alguna de la mecánica
ni del electromagnetismo. Sin embargo, los resultados experimentales dejaban al descubierto lo inade-
cuado de tales suposiciones. Fundamentalmente, los hechos experimentales que contradecían la hipóte-
sis del arrastre del éter fueron dos: la aberración estelar y el experimento de Fizeau.

– Aberración estelar. Este fenómeno fue descubierto por James Bradley en 1725. Bradley
observó que las estrellas parecían moverse en círculos cuyo diámetro angular era aproxi-
madamente de 41 segundos de arco. Para explicar este fenómeno consideremos la figura 5,

364 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

en la que se muestra la órbita de la Tierra alrededor del Sol, y una estrella cuya altura verda-
dera con respecto al plano de la órbita (la eclíptica) viene dada por el ángulo q0.

Estrella

u2
Eclíptica
3
q0
u3
2

Figura 5. Posición de una 4


1 u1
estrella respecto al plano u4
orbital de la Tierra.

En la figura se muestra a la Tierra en 4 posiciones en su movimiento orbital alrededor del


Sol. Podría esperarse que la altitud de la estrella fuese máxima en la posición 2 y mínima en
la posición 4, sin embargo, Bradley encontró que la altitud era máxima en la posición 3 y
mínima en la posición 1.

Estrella

q0
u2
Figura 6. Posición de una u3 u1
estrella respecto al plano u4
orbital de la Tierra.

Supongamos que la distancia a la estrella es mucho mayor que el diámetro de la órbita te-
rrestre alrededor del Sol. En este caso, podemos considerar el esquema de la figura 6. Si la
Tierra se encuentra en reposo con respecto al éter (hipótesis de arrastre del éter), para ob-
servar una estrella habría que apuntar un telescopio según la altitud verdadera q0, de manera
que los rayos de luz procedente de una estrella pasaran por el eje del instrumento y forma-
sen una imagen en el centro del campo visual (figura 7a).
Posición Posición Posición
verdadera verdadera aparente
a

Figura 7. Dirección de un
q0
telescopio para observar u
una estrella: a) Tierra en
reposo respecto al éter.
b) Movimiento de la Tierra
con respecto al éter. a) b)

Ahora bien, si la tierra se mueve con respecto al éter con velocidad u, el telescopio debería
estar inclinado un ángulo q diferente para que el rayo de luz que entre por el objetivo reco-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 365


Volumen II. Física II

rra la longitud del telescopio sin incidir en sus lados (figura 7b). La diferencia entre q y q0 es
la aberración estelar a. El fenómeno es el mismo que podemos observar cuando llueve y
observamos las trayectorias de las gotas de lluvia sobre las ventanillas de un vehículo. Si la
lluvia cae de forma vertical a velocidad w y el vehículo está en reposo, la trayectoria sobre
la ventanilla es, evidentemente, una línea vertical, pero si el vehículo se mueve con veloci-
dad u la trayectoria de las gotas de lluvia son líneas inclinadas respecto a la vertical un án-
gulo igual a arctan (u/w).
Para calcular la magnitud de la aberración estelar consideremos la figura 8. Consideremos
que la Tierra se mueve hacia la estrella con velocidad u con respecto al éter y que la veloci-
dad de la luz con respecto al éter es c. La inclinación q del te-
lescopio ha de ser tal que en el tiempo en el que el ocular se
desplace desde la posición P a la P´ la luz viaje en el interior
del telescopio desde la entrada al ocular. De la geometría del
problema tenemos que:
a
h
tan q = (39)
ut + x

ct h Ahora bien:
q q0
P ut P' x h = ct sen q 0 (40)

Figura 8. Cálculo de la aberración y


estelar.
x = ct cos q 0 (41)

Por tanto, el ángulo de inclinación del telescopio, en función de las velocidades u y c y de la


altura verdadera, viene dado por:
csenq 0
tan q = (42)
u+ c cos q 0
La aberración estelar a es la diferencia entre los ángulos q0 y q, por consiguiente:
tan q 0 – tan q
tan a = tan( q 0 – q ) = (43)
1+ tan q 0 ×tan q
Sustituyendo en esta expresión el valor encontrado más arriba de tan q y simplificando, se
obtiene que:
u sen q 0 u
tan a = • sen q 0 (44)
u cos q 0 + c c
en donde hemos tenido en cuanta que c>>ucosq0.
Consideremos ahora que la Tierra se mueve en dirección
perpendicular a la línea que une la Tierra con la estrella a ve-
a
a locidad u, como se muestra en la figura 9. Para poder obser-
var una estrella, será necesario situar el telescopio en una di-
rección inclinada horizontalmente, como mostrada en la fi-
ut 90o ct gura. Si llamamos a al ángulo formado por la dirección del
telescopio con la dirección que tendría si la Tierra no se mo-
viese, tenemos que:
Figura 9. Cálculo de la aberración ut u
estelar. tan a = = (45)
ct c

366 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

De los cálculos anteriores se tiene que: en los puntos 2 y 4 de la órbita mostrada en la figura 5
(movimiento de la Tierra perpendicular a la dirección de la estrella), la inclinación del telesco-
pio es máxima e igual a u/c; y en los puntos 1 y 3 de la órbita la inclinación vertical del telesco-
pio es igual a u sen q0/c. Por consiguiente, la estrella aparenta describir una elipse de semieje
mayor u/c y semieje menor u sen q0/c, como se muestra en la figura 10.

Estrella
d c

a b

q0
u2
Figura 10. Movimiento aparente u3 u
de una estrella observada u4
desde la Tierra.
Si la estrella se encontrara justo encima de nuestras cabezas, describiría una circunferencia
de radio u/c. Teniendo en cuenta que la velocidad de la Tierra en su órbita es de 30 km/s y la
velocidad de la luz en el vacío es 3 ´ 105 km/s, el radio angular, a, de la órbita aparente de
la estrella resulta ser de 20,5 segundos de arco, o lo que es lo mismo, un diámetro angular
de aproximadamente 41 segundo de arco. Resultado que concuerda perfectamente con las
observaciones realizadas por James Bradley.
Es importante resaltar que la aberración estelar se produce como consecuencia del movi-
miento de la Tierra alrededor del Sol; o dicho de otra manera, la aberración estelar es una
consecuencia del cambio de dirección de la velocidad de la Tierra. Si la Tierra se moviese
en línea recta, no habría aberración estelar. Por otra parte, la explicación que hemos dado
del fenómeno de la aberración estelar se ha basado en la suposición de que la Tierra se mue-
ve respecto al éter con velocidad u, correspondiente a la velocidad de la Tierra en su órbita
alrededor del Sol; es decir, cuando no hay arrastre del éter. Por consiguiente, la hipótesis
del arrastre del éter por los cuerpos en movimiento no es correcta y en consecuencia no se
puede explicar el experimento del Michelson y Morley mediante esta hipótesis.
– Medida de Fizeau del coeficiente de arrastre. Otro experimento que contradice la hipó-
tesis del arrastre del éter es el realizado por Fizeau para determinar el coeficiente de arrastre
de la luz por un medio en movimiento. Para medir este efecto, predicho por Jean Augustin
Fresnel en 1817, Armand-Hippolyte-Louis Fizeau (1819-1896) realizó un experimento
que se esquematiza en la figura 11. Un haz de luz procedente de una fuente incide sobre un
espejo semiplateado, M, que divide el haz en dos. Uno de los haces hace el camino
M1-M2-M3-M, y el otro hace el camino M3-M2-M1-M. Los dos haces se unen de nuevo en el
espejo M y llegan a un dispositivo fotográfico F en el que se observan franjas de interferen-
cias debidas a la diferencia de caminos ópticos recorridos por cada haz. El agua fluye por
los tubos con velocidad u en las direcciones especificadas en la figura.

M3 M2

u
Fuente u
de luz

M M1
Figura 11. Esquema del
experimento de Fizeau. F

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 367


Volumen II. Física II

Si llamamos c a la velocidad de la luz en el vacío, la velocidad de la luz en un medio en re-


poso es c/n siendo n el índice de refracción. Ahora bien, si el medio está en movimiento,
con velocidad v, respecto de un observador, la velocidad, w, de la luz en el medio, con res-
pecto a dicho observador viene dada, según Fresnel, por:
c
w= +fu (46)
n
en donde f es el coeficiente de arrastre de Fresnel, que es igual a:
1
f = 1– (47)
n2
Calculemos ahora los tiempos que tardan los dos haces de luz en recorrer la distancia
que los separa del dispositivo fotográfico F. Puesto que la interferencia se debe a la di-
ferencia de camino óptico recorrido por ambos haces, podemos ignorar aquellos tramos
en los que los dos haces tardan el mismo tiempo en recorrerlos al ser sus velocidades
idénticas (lo que ocurre en los tramos: M-F, M-M3 y M1-M2). Por consiguiente, si la lon-
gitud de los tubos horizontales es l, el tiempo significativo para el trayecto del haz
M1-M2-M3-M es:
2l
t1 = (48)
c
+fu
n
Análogamente, el tiempo significativo para el haz M3-M2-M1-M es:
2l
t2 = (49)
c
– fu
n
La diferencia de tiempo entre los dos haces es:
æ ö
ç ÷
ç 2 fu ÷ 4n l f u
2

Dt = t 2 – t 1 = 2lç 2 ÷• (50)
c c2
ç 2 – f 2u2 ÷
èn ø
La diferencia de camino óptico es cDt, que expresada como múltiplo de la longitud de
onda, l, de la luz incidente es:

cDt 4n 2 l f u
d= = (51)
l cl
Con los valores experimentales utilizados por Fizeau: l = 1,5 m, n = 1,33, l = 5,3 ´ 10–7 m,
u = 7 m/s, y d = 0,23 franjas; se obtenía un valor de f • 0,49, muy cercano al previsto por
Fresnel, según la ecuación (47), que da un valor de f • 0,44.
Este experimento fue realizado con mayor precisión por Michelson y Morley y por otros fí-
sicos experimentales confirmando el coeficiente de arrastre de Fresnel.
Si el éter fuese arrastrado por los cuerpos en movimiento, según la hipótesis de arrastre del
éter, la velocidad de la luz en el sistema laboratorio, teniendo en cuenta las transformacio-

368 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

nes de Galileo, serían: (c/n) + u y (c/n) – u en cada uno de los tubos. Con estas velocidades,
la diferencia de tiempo de los dos haces sería:
æ ö
ç ÷
֥ 4n lu
2
1 1
Dt = 2lç – (52)
çc c ÷ c2
ç –u +u ÷
èn n ø
Lo que daría una diferencia de camino óptico:
4n 2 lu
d= (53)
cl
que con los valores experimentales da un valor de d = 0,46 franjas. Este valor no concorda-
ba con las medidas realizadas en el patrón de interferencia, por lo que la idea del arrastre del
éter no es correcta.

De los hechos experimentales comentados anteriormente (experimento de Michelson-Morley,


aberración estelar, y experimento de Fizeau), se deduce que no hay base alguna para adoptar el con-
cepto de éter, tanto si se considera estacionario como si se considera arrastrado por los cuerpos en
movimiento. Por consiguiente, de las posibilidades que comentábamos más arriba sólo quedan dos: o
el principio de relatividad clásico es válido y por tanto es necesario modificar la electrodinámica; o se
requiere un nuevo principio de relatividad, en cuyo caso es necesario modificar la mecánica. Por su-
puesto, con la mentalidad del siglo XIX, la única opción posible era la primera, por lo que muchos fí-
sicos se dedicaron a trabajar en una reformulación del electromagnetismo de manera que fuese com-
patible con el principio de relatividad newtoniano. En lo que sigue expondremos de forma breve al-
gunos de los intentos realizados para reformular la electrodinámica.

1.3.4. Intentos para modificar la electrodinámica


Una de las posibilidades que quedaban para compaginar resultados experimentales y teoría era
la modificación de la electrodinámica. En este sentido se realizaron varios intentos para sustituir la
teoría electromagnética de Maxwell por una teoría, similar a la de Newton, denominada teoría de
emisión. Los partidarios de estas nuevas teorías adoptaban un espacio-tiempo galileano o newtoniano
y postulaban que la luz era emitida y se propagaba a partir de la fuente a una velocidad c relativa a la
fuente. De esta manera, si la fuente se mueve hacia el observador con velocidad u o se aleja del obser-
vador con velocidad u, la luz se aproxima con velocidad c + u o c – u, respectivamente.
Las teorías de emisión son compatibles con los experimentos como el de Michelson y Morley, pues-
to que la fuente se mueve junto con el resto del aparato, por lo que no se esperaría ninguna variación con la
dirección de la velocidad de la luz en estos experimentos. Por otra parte, las teorías de emisión eran com-
patibles con las observaciones de la aberración estelar, al menos hasta los límites de resolución observa-
bles. Sin embargo, hay dos evidencias experimentales de que las teorías de emisión son incorrectas: las
observaciones realizadas por De Sitter de las estrellas binarias o dobles, y la repetición del experimento de
Michelson y Morley utilizando una fuente de luz extraterrestre, realizada por R. Tomaschek.
En 1913, Willem de Sitter (1872-1934) sugirió que la observación de las estrellas binarias po-
dría poner de manifiesto la dependencia de la velocidad de la luz con la velocidad de la fuente. Una
estrella binaria consiste en un par de estrellas orbitando alrededor de un centro común. Las observa-
ciones astronómicas ponen de manifiesto que el movimiento orbital se ajusta a los mismos modelos
observados en el movimiento de los planetas alrededor del Sol y, en consecuencia, pueden ser descri-
tos con las mismas teorías. A partir de la velocidad con la que una estrella orbita alrededor de la otra y

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 369


Volumen II. Física II

de nuestro conocimiento de las distancias astronómicas, se puede deducir que la velocidad orbital de
estas estrellas puede ser bastante grande. Supongamos que la velocidad de la luz depende de la velo-
cidad de la fuente. Puesto que en las diferentes posiciones en su órbita cada estrella tiene una veloci-
dad diferente respecto de un observador en la Tierra, la velocidad de la luz emitida hacia la Tierra será
también diferente en cada una de esas posiciones. Aunque la variación de la velocidad fuese pequeña,
la gran distancia desde las estrellas a la Tierra daría lugar a una diferencia significativa en el tiempo
que tarda la luz en llegar a un observador terrestre. En consecuencia, la luz procedente de una estrella
en una posición determinada podría ser vista antes que la luz emitida en una posición anterior. Esto
daría lugar a la observación de efectos extraños y de excentricidades orbitales inusualmente altas. Sin
embargo, ninguno de estos efectos ha sido observado. Estos resultados concuerdan con la hipótesis
de que la velocidad de la luz es independiente de la velocidad de la fuente que la emite.
La independencia de la velocidad de la luz con respecto a la fuente fue puesta de manifiesto, ade-
más de por las observaciones astronómicas comentadas anteriormente, por un experimento realizado
en el CERN en el año 1964. El experimento consistía en medir la velocidad de la radiación emitida
por el decaimiento de los mesones p0 o piones neutros. El pión es una partícula subatómica inestable
con un período de vida medio aproximadamente de 8 ´ 10–17 s. El decaimiento de esta partícula da
lugar a un par de fotones (g):
p 0 ® gg (54)

Estos fotones que no están en la región del visible se denominan rayos gamma.
En el acelerador de partículas del CERN, se obtenía un haz de protones con velocidades muy al-
tas. Cuando estos protones colisionaban con un blanco se producía piones de alta velocidad que cons-
tituían una fuente de luz en movimiento. La velocidad de los piones se podía determinar y era aproxi-
madamente 0,99975c y por tanto muy cercana a la velocidad de la luz. A pesar de esta velocidad la
distancia recorrida por el pión antes de su desintegración es extremadamente pequeña. Así, se podía
determinar la distancia recorrida por los fotones desde el blanco hasta un detector y midiendo el tiem-
po se podía determinar la velocidad que resultó ser (2,9977 ± 0,0004) ´ 108 m s–1. Dentro del mar-
gen de error, esta velocidad es la misma que la de la luz emitida por una fuente en reposo. Por consi-
guiente, si uno supone que:
cmovimiento = creposo + kufuente (55)
–4
donde k es una constante, el experimento establece que k < 10 .
Por otra parte, R. Tomaschek repitió el experimento de Michelson y Morley utilizando la luz de
una estrella, y D. C. Miller utilizando la luz del Sol. La dependencia de la velocidad de la luz con la
fuente emisora debería haber producido cambios significativos en el patrón de interferencia, cambios
que no fueron observados. Por tanto, era de esperar que la velocidad de la luz fuese independiente del
estado de movimiento de la fuente.
Todas las observaciones y resultados experimentales, comentados anteriormente, contradecían cla-
ramente la hipótesis de partida de las teorías de emisión. Teorías cuyo objetivo era la sustitución de la teo-
ría electromagnética de Maxwell por otra, con la intención de preservar la mecánica. Sin embargo, la con-
clusión es la contraria: la teoría electromagnética es correcta y la velocidad de la luz es igual en todos los
sistemas de referencia inerciales independientemente del estado de movimiento de la fuente y del obser-
vador. Por consiguiente, de las posibilidades comentadas al principio del tema sólo nos queda la tercera:
Existe un principio de relatividad tanto para la mecánica como para el electro-
magnetismo, pero las leyes de Newton no son correctas.
En este caso, las transformaciones de Galileo no serían válidas, puesto que son incompatibles
con las ecuaciones de Maxwell, y deben ser reemplazadas por otras que sean compatibles con el elec-
tromagnetismo y con la nueva mecánica.

370 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

2. POSTULADOS DE LA RELATIVIDAD ESPECIAL


En 1905 Albert Einstein publicó en la revista Annalen der Physik un artículo bajo el título “So-
bre la electrodinámica de los cuerpos en movimiento” que estaba dedicado a estudiar la paradoja de
las mediciones de la velocidad de la luz, y supuso el inicio de la teoría de la relatividad. En este traba-
jo, Einstein escribía:

...ninguna propiedad de los hechos observados corresponden a un concepto de


reposo absoluto...
Con esta afirmación, Einstein no hacía más que reflejar que los intentos de descubrir experimental-
mente un movimiento uniforme respecto de un sistema de referencia absoluto habían resultado in-
fructuosos y que por tanto todos los sistemas de referencia inerciales son equivalentes para todos los
fenómenos de la física y no sólo para los mecánicos:

...para todos los sistemas de coordenadas en los que se cumplen las leyes de la
mecánica, las ecuaciones de la electrodinámica y la óptica también se cumplen...
Además, escribía:

En lo que sigue supondremos esto e incluiremos la hipótesis adicional de que la


luz se propaga en el vacío a una velocidad c que es independiente de la naturaleza del
cuerpo emisor. Estas dos suposiciones serán suficientes para formular una teoría sen-
cilla y coherente acerca de la electrodinámica de los cuerpos en movimiento y dicha
teoría se basará en la teoría de Maxwell para cuerpos en reposo.
Estas dos suposiciones de Einstein pueden resumirse en dos principios o postulados:

1. Principio de relatividad: las leyes de la física son las mismas en todos los sistemas de referen-
cia inerciales.

2. Principio de la constancia de la velocidad de la luz: la velocidad de la luz en el vacío tiene el


mismo valor c en todos los sistemas inerciales.

El principio de relatividad de Einstein amplía el campo del principio de relatividad newtoniana a


todos los fenómenos de la física. Según este principio, un experimento cualquiera, no necesariamente
mecánico, realizado totalmente dentro de un sistema de referencia inercial, puede servir para deter-
minar el estado de movimiento de este sistema respecto de cualquier otro.
El segundo principio contradice completamente la transformación de velocidades de Galileo. A
diferencia de cualquier otra velocidad, que varía con el paso de un sistema de referencia a otro, la ve-
locidad de la luz en el vacío es una magnitud invariante. Como veremos posteriormente, ningún cuer-
po puede ser acelerado hasta conseguir la velocidad de la luz, y por este motivo se dice que la veloci-
dad de la luz es la velocidad límite del universo. Una consecuencia de esto es que ninguna interacción
puede propagarse a mayor velocidad que la de la luz en el vacío, por lo que el principio de acción a
distancia de la mecánica clásica deja de tener sentido.
La aceptación de estos dos postulados hacía necesario reconsiderar los conceptos fundamentales
de espacio y tiempo. Para Einstein, el análisis de los movimientos se había basado en una abstracción,
la existencia de un tiempo universal y absoluto, y esta hipótesis era insostenible. El propio Einstein
reconoció que había trabajado mucho tiempo sobre la teoría de la relatividad y abandonó muchos in-
tentos “hasta que se me ocurrió que el tiempo era sospechoso”. A partir de los postulados y con la idea
de que el tiempo no tiene por qué transcurrir de la misma forma en dos sistemas de referencia, Eins-
tein encontró las nuevas ecuaciones de transformación de coordenadas, que por razones históricas re-
ciben el nombre de transformaciones de Lorentz.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 371


Volumen II. Física II

Puesto que las leyes de Newton son invariantes frente a las transformaciones de Galileo, no lo
serán frente a las nuevas transformaciones, por lo que habrá que modificarlas de manera que se reduz-
can a las antiguas cuando se trate de velocidades pequeñas (mucho más pequeñas que la de la luz) ya
que en este rango las leyes de Newton son aproximadamente correctas.

3. CINEMÁTICA RELATIVISTA
En este apartado vamos a estudiar las transformaciones de las coordenadas espacio-temporales
entre sistemas de referencia inerciales, denominadas transformaciones de Lorentz, y estudiaremos al-
gunas consecuencias importantes de dichas transformaciones.

3.1. Transformaciones de Lorentz


Consideremos dos sistemas de referencia inerciales S y S´ de manera que S´ se mueve con velo-
cidad u respecto a S. Supongamos que en el instante inicial, en el que los orígenes de los dos sistemas
coinciden, se emite una señal luminosa. Según el segundo postulado los frentes de onda observados
en ambos sistemas vendrán dados por:
3

å (x j
) 2 = ct 2 (56)
j= 1

å ( x' j
) 2 = ct ' 2 (57)
j= 1

en donde las coordenadas espaciales en las designamos por xj con j = 1, 2, 3.


Si introducimos una cuarta dimensión:
x 0 = ict (58)
x' = ict '
0
(59)
las ecuaciones anteriores pueden escribirse como:
3

å (x m
)2 = 0 (60)
m= 0

å ( x' m
)2 = 0 (61)
m= 0

Con la introducción de la cuarta coordenada hemos pasado a un espacio de cuatro dimensiones, en la


que una de ellas es imaginaria, denominado espacio cósmico o espacio de Minkowski. De ambas ex-
presiones se deduce que:
3 3

å ( x' m ) 2 = k å ( x m ) 2 (62)
m= 0 m= 0

En principio podríamos suponer que k es una función de xj , t y u. Ahora bien, como el espacio y el
tiempo asociados a cada sistema de referencia son homogéneos, la relación entre å ( x' m ) 2 y
3

m= 0

372 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

å
3
( x m ) 2 no puede variar de punto a punto del espacio ni en instantes diferentes, por lo que k ha de
m= 0

ser una función de u. Por otra parte, la isotropía del espacio impide toda dependencia de k con la di-
rección, por tanto, k sólo puede ser función del módulo de la velocidad:
3 3

å ( x¢ m
) 2 = k ( u )å ( x m ) 2 (63)
m= 0 m= 0

Si ahora intercambiamos los papeles de S y S´:


3 3

å (x m
) 2 = k (– u )å ( x¢ m ) 2 (64)
m= 0 m= 0

en donde hemos puesto –u debido a que la velocidad relativa de S respecto de S´ es opuesta a la de S´


respecto de S. Pero tal como hemos visto antes, k sólo depende del módulo de la velocidad, por lo que
la expresión anterior se transforma en:
3 3

å ( x m )2 = k ( u )å ( x¢ m )2 (65)
m= 0 m= 0

De (65) y (63) se tiene que:


k 2 = 1® k =±1 (66)

Ahora bien, k(u) no puede ser una función discontinua de u. Es decir, si u varía cierta cantidad por
unidad de tiempo, k no puede pasar de valer +1 a –1. Por otra parte, en el límite u ® 0 los sistemas S y
S´ se hacen coincidentes por lo que k(u = 0) = 1. En consecuencia, se tiene que:
3 3

å ( x m )2 = å ( x¢ m )2 (67)
m= 0 m= 0

Esta relación es análoga a la que describen los giros ortogonales que conservan las distancias en espa-
cios tridimensionales, por lo que las transformaciones que buscamos corresponden a un giro en un es-
pacio cuadridimensional. Es decir, las transformaciones serán ortogonales en el espacio de Minkows-
ki y podemos escribir:
3

x¢ m = å L mn x n (68)
n=0

en donde L mn son los coeficientes de la matriz de giro L.


Si por simplicidad suponemos que S´ se desplaza paralelamente a S a lo largo del eje x1 – x´1, se
tendrá que x2 = x´2 y x3 = x´3, por lo que la matriz de giro será de la forma:

æL00 L01 0 0ö
ç ÷
çL 1 L11 0 0÷
L =ç 0 ÷ (69)
ç 0 0 1 0÷
ç ÷
è 0 0 0 1ø

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 373


Volumen II. Física II

Puesto que la transformación es ortogonal se debe satisfacer que:

LLt = I (70)

en donde Lt es la traspuesta de L, e I es la matriz identidad. En términos de los coeficientes, la condi-


ción de ortogonalidad de L proporciona las siguientes relaciones:

( L00 ) 2 + ( L01 ) 2 = 1 (71)

( L10 ) 2 + ( L11 ) 2 = 1 (72)

L00 L10 + L01 L11 = 0 (73)

De las ecuaciones de transformación de coordenadas se tiene que:

x' 0 = L00 x 0 + L01 x 1 (74)

x' 1 = L10 x 0 + L11 x 1 (75)

Ahora bien, puesto que el origen del sistema S´ (x´1 = 0) se mueve con velocidad u, visto desde S se
tendrá que x1 = ut, por lo que de la relación (75):
æ L10 ö
0= L10 x 0 + L11 x 1 ® 0= L11ç ÷
ç 1 ict + ut ÷ (76)
L
è 1 ø

Por lo que:

L10 u
= i = ib (77)
L11 c

Ahora bien, de (72):


1 1 1
( L11 ) 2 = = ®= L11 ± (78)
æL 1 ö2
1– b 2
1– b 2
1+ç
ç
0 ÷
÷
èL
1
1 ø

Para decidir el signo que hemos de tomar se ha de tener en cuenta que si u ® 0 (b ® 0) se tiene que
x´1 = x1 por lo que L11 ® 1. Por tanto:
1
L11 = (79)
1– b 2

y de (77):
ib
L10 = (80)
1– b 2

374 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

Procedamos ahora a calcular los otros coeficientes. De la condición de ortogonalidad (73):

L10
L01 = – L00 = – ibL00 (81)
L 1
1

Y sustituyendo este resultado en (71)


1
( L00 ) 2 – b 2 ( L00 ) 2 = 1® L00 =± (82)
1– b 2

Para elegir el signo adecuado en la expresión anterior consideremos la transformación:

x' 0 = L00 x 0 + L01 x 1 (83)

Relación que podemos escribir como:

ict '= L00 ict + L01 x 1 (84)

Además, si u ® 0 entonces, de (82), L00 ®±1. Pero como en el origen común x1 = x´1 = 0 se tiene que t´
= t, se deduce que:
1
L00 = (85)
1– b 2

Por último, de la expresión (81), obtenemos que:


– ib
L01 = – ibL00 = (86)
1– b 2

Por consiguiente, la matriz de giro la podemos escribir como:


æ g – ibg 0 0ö
ç ÷
çibg g 0 0÷
L =ç
1 0÷
(87)
ç 0 0 ÷
ç ÷
è 0 0 0 1ø

en donde:
u
b= (88)
c

y
1 1
g= = (89)
1– b 2
æ u ö2
1–ç ÷
ècø

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 375


Volumen II. Física II

De la matriz de giro obtenemos inmediatamente las transformaciones de Lorentz del espacio-tiempo entre
dos sistemas de referencia inerciales S y S´:

x' 0 = g ( x 0 – ibx 1 ) (90)

x' 1 = g ( ibx 0 + x 1 ) (91)

x' 2 = x 2 (92)

x' 3 = x 3 (93)

Expresiones que podemos escribir como:


u 1
t– x
x' 0 æ u ö c2
t '= = gçt – 2 x 1 ÷= (94)
ic è c ø 1– b 2

x 1 – ut
x' 1 = g(x 1 – ut) = (95)
1– b 2

x' 2 = x 2 (96)

x' 3 = x 3 (97)

De las ecuaciones anteriores es fácil encontrar la expresión de las coordenadas en el sistema S en


función de las coordenadas en el sistema S´. Estas expresiones, que son las transformaciones inversas
de las anteriores, resultan ser:
u 1
t '+ x'
x0 æ u ö c2
t '= = gçt '+ 2 x' 1 ÷= (98)
ic è c ø 1– b 2

x' 1+ut '


x 1 = g(x' 1+ut) = (99)
1– b 2

x 2 = x' 2 (100)

x 3 = x' 3 (101)

3.2. Consecuencias de las transformaciones de Lorentz


Hemos visto cómo se transforman las coordenadas espaciales y temporales en dos sistemas de
referencia inerciales S y S´. A continuación vamos a ver algunas consecuencias inmediatas de estas
transformaciones.

376 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

3.2.1. Contracción de las longitudes


Consideremos una varilla rígida de longitud l que se encuentra en reposo en el sistema de refe-
rencia S. Si suponemos que se encuentra en la dirección del eje x, se tendrá que:

l= x 1 ( 2) – x 1 (1) (102)
1 1
en donde x (2) es la posición de un extremo de la varilla y x (1) la posición del otro extremo.
Veamos cómo determina la longitud un observador situado en un sistema de referencia S´ que se
mueve con velocidad u con respecto a S. Un observador en S´ determinará la longitud l' de la varilla
localizando la posición de sus extremos en un instante de tiempo t´:

l'= x' 1 ( 2) – x' 1 (1) (103)

De las ecuaciones de las transformaciones de Lorentz se tiene que:

x 1 ( 2) – ut ( 2)
x' 1 ( 2 ) = (104)
1– b 2

x 1 (1) – ut (1)
x' 1 (1) = (105)
1– b 2

Por lo que:

[ x 1 ( 2) – x 1 (1)] – u[ t ( 2) – t (1)]
x' 1 ( 2) – x' 1 (1) = (106)
1– b 2

Los instante de tiempo t(2) y t(1) son instantes de tiempos medidos en el sistema S y no corresponden
a los tiempos en los que se hicieron las medidas en S´. Ahora bien, las transformaciones de Lorentz
nos proporcionan las siguientes relaciones:
u 1
t ( 2) – x ( 2)
t ' ( 2) = c2 (107)
1– b 2

u 1
t (1) – x (1)
t ' (1) = c2 (108)
1– b 2

Por lo que:
u 1
[ t ( 2) – t (1)] – [ x ( 2) – x 1 (1)]
t ' ( 2) – t ' (1) = c2 (109)
1– b 2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 377


Volumen II. Física II

Como las medidas de la longitud de la varilla en el sistema S´ se hacen estableciendo las posiciones de
sus extremos en un instante de tiempo, se tendrá que t´(2) = t´(1). Llevando esto a la expresión ante-
rior, se tiene que:
u 1
t ( 2) – t (1) = [ x ( 2) – x 1 (1)] (110)
c2

Por último, llevando el resultado anterior a (106) y simplificando, se obtiene que:

x' 1 ( 2) – x' 1 (1) = [ x 1 ( 2) – x 1 (1)] 1– b 2 (111)

Expresión que puede escribirse como:

l'= l 1– b 2 (112)

Este resultado se conoce como contracción de las longitudes y establece que un observador en S´ verá
que la longitud de una varilla que se mueve respecto a él con velocidad u (la varilla está en reposo en S
y la velocidad relativa de los dos sistemas es u) se acorta en un factor 1– b 2 . Este resultado es la
base de la hipótesis de contracción de las longitudes de Lorentz-Fitzgerald.

3.2.2. Dilatación del tiempo


Supongamos ahora un reloj que está situado en una posición determinada en un sistema de refe-
rencia S y que emite señales con un intervalo de tiempo:
Dt = t ( 2) – t (1) (113)

Para un observador en un sistema S´ que se mueve a velocidad u respecto de S el intervalo temporal


será:
Dt '= t ' ( 2) – t ' (1) (114)

De las transformaciones de Lorentz, se tiene que:


u 1
t ( 2) – x ( 2)
t ' ( 2) = c2 (115)
1– b 2

u 1
t (1) – x (1)
t ' (1) = c2 (116)
1– b 2

Por lo que:
u 1
[ t ( 2) – t (1)] – [ x ( 2) – x 1 (1)]
t ' ( 2) – t ' (1) = c2 (117)
1– b 2

378 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

Ahora bien, puesto que x1(2) = x1(1), se obtiene que:


t ( 2) – t (1)
t ' ( 2) – t ' (1) = (118)
1– b 2

Por tanto:
Dt
Dt '= (119)
1– b 2

Este resultado se conoce como dilatación del tiempo y se interpreta de la siguiente manera. En el
sistema S el reloj está en reposo, mientras que desde el punto de vista de S´ el reloj se está moviendo a
velocidad u. El tiempo medido en el sistema en el que el reloj está en reposo se denomina tiempo pro-
pio y es el más corto. Para un observador en S´ es como si el reloj del sistema en movimiento fuese
más despacio, es decir, como si el tiempo se dilatara.
Hoy en día existen abundantes evidencias que apoyan el efecto de la dilatación del tiempo. La
primera observación directa de la dilatación del tiempo fue realizada por H. E. Ives y G. R. Stilwell en
el año 1938 al confirmar la existencia de un efecto Doppler transversal, el cual es un efecto puramente
relativista. Otro ejemplo de dilatación del tiempo lo podemos encontrar en los muones producidos
por los rayos cósmicos. Los rayos cósmicos son partículas de muy alta energía, fundamentalmente
protones, que provienen del espacio exterior. En la atmósfera reaccionan con los núcleos de las molé-
culas de gas atmosférico dando lugar a un tipo de partículas subatómicas denominadas muones. Po-
demos suponer que los muones se generan a una altitud de 10000 m con una velocidad de 0,99c. Estas
partículas inestables tienen en el laboratorio un período de vida medio de 2,2 ms. En este tiempo, las
partículas viajarían una distancia aproximada de 650 m antes de desintegrarse, de manera que muy
pocas alcanzarían la superficie terrestre. Sin embargo, una gran cantidad de muones alcanzan el nivel
del mar. Si consideramos el factor de dilatación del tiempo el espacio recorrido por los muones sería
de x = ut = ugt = 4800 m, lo que explicaría el número de los que alcanzan el nivel del mar. Un efecto
similar ocurre en los aceleradores de partículas de alta energía. La colisión de partículas como proto-
nes y electrones sobre un blanco producen partículas subatómicas inestables. En un experimento rea-
lizado en 1977, J. Bailey midió la vida media de muones que estaban circulando a velocidades de
0,99942c y encontró que era 29,3 veces más grande que la vida media de los muones en reposo, factor
que concuerda bien con el factor g a esas velocidades. Otro experimento realizado en 1972 por J. C.
Hafele y R. E. Keating consistió en hacer viajar en un avión relojes atómicos muy precisos y compa-
rar el tiempo de vuelo con el medido por relojes similares situados en tierra. El resultado fue que los
relojes en movimiento corrían más despacio que los relojes en reposo. Si bien la mayor parte del efec-
to observado era consecuencia de un efecto de la relatividad general debido a la diferencia en el po-
tencial gravitatorio de los relojes, el resultado total sólo podía explicarse como una del efecto de la re-
latividad general y de la relatividad especial de dilatación del tiempo.

3.2.3. Relatividad de la simultaneidad


Una diferencia fundamental entre la mecánica clásica y la relativista es el concepto de simulta-
neidad. En mecánica clásica, el concepto de tiempo absoluto tiene como consecuencia inmediata que
dos sucesos que son simultáneos en un sistema de referencia son también simultáneos en cualquier
otro sistema de referencia inercial. Veamos a continuación lo que sucede en mecánica relativista.
Para ello, supongamos dos sistemas de referencia inerciales S y S´ que se mueven con velocidad rela-
tiva u. Consideremos que en el sistema S´ tienen lugar dos sucesos en las coordenadas x´1(1) y x´1(2)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 379


Volumen II. Física II

en el mismo instante de tiempo t´(1) = t´(2). Notemos cómo ve estos sucesos un observador situado en
S. De las transformaciones de Lorentz se tiene que:
u
t ' ( 2)+ 2 x' 1 ( 2)
t ( 2) = c (120)
1– b 2
u 1
t ' (1)+ x' (1)
t (1) = c2 (121)
1– b 2

Por lo que:
u 1
[ t ' ( 2) – t ' (1)] – [ x' ( 2) – x' 1 (1)]
t ( 2) – t (1) = c2 (122)
1– b 2

Ahora bien, como los sucesos son simultáneos en S´ y t´(2) – t´(1) = 0, se tiene que:
– u x' 1 ( 2) – x' 1 (1)
t ( 2) – t (1) = (123)
c2 1– b 2

En consecuencia, los sucesos no son simultáneos en el sistema S. Sólo en el caso en que los sucesos se pro-
duzcan en el mismo lugar en S´ serán simultáneos en todos los sistemas de referencia inerciales.

3.2.4. Composición de velocidades


Consideremos una partícula cuya posición varía con el tiempo y estudiemos cómo es observada
desde dos sistemas de referencia inerciales S y S´ que se mueven con velocidad relativa u uno con res-
pecto a otro.
Para un observador en S:
dx 1
u1 = (124)
dt
dx 2
u2 = (125)
dt
dx 3
u3 = (126)
dt

Mientras que para un observador en S´:


dx' 1
u' 1 = (127)
dt '
dx' 2
u' 2 = (128)
dt '
dx' 3
u' 3 = (129)
dt '

380 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

De las transformaciones de Lorentz:


dx' 1+udt '
dx 1 = (130)
1– b 2
u
dt '+ 2
dx' 1
dt = c (131)
1– b 2

Llevando las expresiones anteriores a (124), se tiene que:


dx 1 dx' 1+udt '
u1 = = (132)
dt u
dt '+ 2 dx' 1
c

Y dividiendo numerador y denominador por dt´:


u' 1+u
u1 = (133)
uu' 1
1+ 2
c

Procediendo de forma análoga con u2 y u3, se tiene que:

u' 2 1 – b 2
u2 = (134)
uu' 1
1+ 2
c
u' 3 1 – b 2
u3 = (135)
uu' 1
1+
c2

De las relaciones anteriores, vemos que la velocidad de la luz constituye un límite universal en
las velocidades de las señales. Así por ejemplo, si u´1 = c, de la expresión de la ley de composición de
velocidades dada por (133), se tiene que u1 = c. Ahora bien, que una señal no pueda viajar a velocida-
des mayores que la de la luz en el vacío c no significa que no puedan presentarse en la naturaleza velo-
cidades superiores a este límite. Por ejemplo, la velocidad de fase de una onda electromagnética que
se propaga en un medio cuyo índice de refracción sea inferior a la unidad es mayor que c. No obstan-
te, la velocidad de fase no corresponde a la velocidad de la señal en el medio, la cual es inferior a c.
Dicho de otra manera, el transporte de energía o de información siempre se produce a una velocidad
inferior a la de la luz en el vacío.

3.3. Intervalos en el espacio de Minkowski y principio de causalidad


Un suceso se describe por el lugar y el tiempo en el que ocurre. Así, un suceso se define por las
tres coordenadas espaciales y el tiempo en el que se produce. Si denominamos (x1(1), x2(1), x3(1),
t(1)) y (x1(2), x2(2), x3(2), t(2)) a las coordenadas espacio-temporales de dos sucesos, se denomina in-
tervalo entre estos dos sucesos a:
2
s12 = c 2 [ t ( 2) – t (1)] 2 – [ x 1 ( 2) – x 1 (1)] 2 – [ x 2 ( 2) – x 2 (1)] 2 – [ x 3 ( 2) – x 3 (1)] 2 (136)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 381


Volumen II. Física II

Si dos sucesos están infinitamente cerca uno del otro, el intervalo ds entre ellos es:
ds 2 = c 2dt 2 – (dx 1 ) 2 – (dx 2 ) 2 – (dx 3 ) 2 (137)

Introduzcamos la notación:
t 12 = t ( 2) – t (1) (138)

l 212 = [ x 1 ( 2) – x 1 (1)] 2 +[ x 2 ( 2) – x 2 (1)] 2 – [ x 3 ( 2)+ x 3 (1)] 2 (139)

Entonces, el intervalo entre dos sucesos puede escribirse de forma abreviada como:
2
s12 = c 2 t 12
2
– l 212 (140)

Consideremos ahora un sistema de referencia S´ que se mueve respecto al anterior a velocidad u.


El intervalo entre ambos sucesos será:
s' 212 = c 2 t ' 212 – l' 212 (141)

Ahora bien, como s es un invariante (se deja la demostración al lector), se tiene que:
c 2 t 12
2
– l 212 = c 2 t ' 212 – l' 212 (142)

Lo que nos preguntamos es lo siguiente ¿existe algún sistema S´ en el que los sucesos ocurran en el
mismo lugar? Si esto es así, entonces l' 12 = 0, y en consecuencia:
2
s12 = c 2 t 12
2
– l 212 = c 2 t ' 212 > 0 (143)

2
Luego la respuesta a la pregunta anterior es que sí, siempre que s12 > 0; es decir, si el intervalo entre
los dos sucesos es un número real. Un intervalo que es real se dice que es un intervalo temporal. Por
consiguiente, si el intervalo entre dos sucesos es temporal entonces existe un sistema de referencia en
el que los sucesos ocurren en el mismo lugar.
¿Existe un sistema de referencia en el que los sucesos ocurran en el mismo instante de tiempo?
Si esto fuera así, entonces t´12 = 0 y en consecuencia:
2
s12 = c 2 t 12
2
– l 212 = – l' 212 < 0 (144)

Luego existirá un sistema de referencia en el que los sucesos sean simultáneos si el intervalo entre los
sucesos es un número imaginario. A los intervalos imaginarios se les denomina intervalos espaciales.
Evidentemente, el carácter temporal o espacial de un intervalo es independiente del sistema de refe-
rencia inercial.
Consideremos ahora un suceso en el origen de coordenadas espacio-temporales O, y considere-
mos la relación de otros sucesos con este. Para visualizarlo de forma sencilla vamos a considerar una
sola coordenada espacial x y el tiempo t. El movimiento de una partícula que pasa por x en t = 0 se repre-
senta por una línea recta inclinada un ángulo respecto del eje temporal. Si la velocidad de la partícula es
u, la pendiente de la recta será igual a la velocidad u. Ahora bien, como la velocidad máxima es c, hay
un ángulo máximo que esta línea puede formar con el eje temporal. Toda línea que representa el movi-
miento de una partícula debe caer dentro de la región AOC o DOB de la figura 12. Consideremos suce-
sos dentro de la región AOC. Para todos los sucesos de esta región se tiene que, como x2 = u2t2 < c2t2,
2
s12 = c 2 t 12
2
– x2 > 0 (145)

382 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

Es decir, que el intervalo entre cualquier suceso y el suceso O


es un intervalo temporal. Además, en esta región t > 0 (eje po- ct
sitivo de t) por lo que todo suceso es posterior al suceso O. Por A C
otra parte, dos sucesos que están separados por un intervalo u
temporal no pueden ocurrir simultáneamente en ningún siste- Cono de Luz
c
ma de referencia. En consecuencia, es imposible encontrar un
sistema de referencia en el que cualquier suceso de la región
O
AOC sea anterior al suceso O. Es decir, todos los sucesos en x
AOC son sucesos futuros para el suceso O y a esta región se le
denomina futuro absoluto de O.
Un razonamiento análogo nos llevaría a que la región D B
BOD es el pasado absoluto de O en todos los sistemas de refe- Línea del mundo
rencia inerciales. de la partícula

Consideremos ahora la región DOA y COB. En esta re- Figura 12. Cono de luz.
gión se satisface que c2t2 – x2 < 0, por lo que los intervalos en-
tre el suceso O y cualquier suceso son espaciales y los sucesos
ocurren en diferentes sitios del espacio en cualquier sistema
de referencia, por lo que se llama región de separación absoluta. Sin embargo, en esta región los con-
ceptos de simultaneidad, de antes y después, son relativos. Para cualquier suceso en esta región exis-
ten sistemas de referencia en los que el suceso ocurre después del suceso O, antes que O, o simultá-
neamente a O.
Notemos que si utilizamos las tres coordenadas espaciales, en vez de una, las líneas de la fi-
gura anterior se convierten en un cono en el espacio de cuatro dimensiones. A este cono se le de-
nomina cono de luz, en donde las regiones de pasado y futuro absoluto son los puntos interiores a
este cono.
Dos sucesos pueden estar relacionados causalmente uno a otro si el intervalo entre ellos es tem-
poral. Puesto que ninguna señal puede propagarse a mayor velocidad que la de la luz, para estos suce-
sos el concepto de antes y después tiene un significado absoluto lo cual es necesario para que el con-
cepto de causa efecto tenga sentido.

3.4. Tiempo propio


Supongamos que en un sistema de referencia estamos viendo un reloj que se mueve de forma ar-
bitraria respecto a nosotros. En cada instante de tiempo este movimiento puede considerarse como
uniforme. Así, en cada instante podemos introducir un sistema de coordenadas rígido ligado al reloj
que se mueve, que constituya un sistema de referencia inercial.
En el intervalo de tiempo dt (leído en el reloj de nuestro sistema en reposo) el reloj que se mueve
se desplaza una distancia (dx 1 ) 2 + (dx 2 ) 2 + (dx 3 ) 2 . ¿Cuál es el intervalo de tiempo dt´ indicado por
el reloj en movimiento? En el sistema ligado al reloj, se tiene que dx´1 = dx´2 = dx´3 = 0 y por la inva-
riancia de los intervalos espacio-temporales, se tiene que:

c 2 (dt ) 2 – (dx 1 ) 2 – (dx 2 ) 2 – (dx 3 ) 2 = c 2 (dt ' ) 2 (146)

De esta expresión, si denominamos dt º dt´, se tiene que:

(dx 1 ) 2 + (dx 2 ) 2 + (dx 3 ) 2


dt = dt 1 – (147)
c 2 (dt ) 2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 383


Volumen II. Física II

Ahora bien:

ædx 1 ö2 ædx 2 ö2 ædx 3 ö2


u 2 =ç
ç ÷
÷ +ç
ç ÷
÷ +ç
ç ÷
÷ (148)
è dt ø è dt ø è dt ø

en donde u es la velocidad de la partícula (y del reloj ligado a ella). Por consiguiente, llevando (148) a
(147), se tiene que:

u2
dt = dt 1– (149)
c2
Al tiempo marcado por el reloj en reposo se le denomina tiempo propio.

3.5. Cuadrivector velocidad


Un cuadrivector (4-vector) es una magnitud que consta de cuatro componentes que se transfor-
ma de acuerdo a la siguiente relación:
3

A¢ m = å L mn A n (150)
n=0

en donde L mn definen una transformación de Lorentz.


Uno de estos 4-vectores será:
r
c = ( x 0 , x 1 , x 2 , x 3 ) = ( ict , x ) (151)
r
Siendo x el vector posición de la partícula en el espacio de 3 dimensiones.
Se define el 4-vector velocidad n como la derivada del 4-vector posición de una partícula respec-
to de su tiempo propio. Por tanto, sus componentes vendrán dadas por:
m

n m = dx (152)
dt
Teniendo en cuenta la expresión del tiempo propio (149), estas componentes se escribirán como:
ic
n0 = (153)
1– b 2

1 dx i ui
ni = = (154)
1– b 2 dt 1– b 2

u
en donde b = (siendo u la velocidad de la partícula) y ui son las componentes espaciales de la ve-
c
locidad ordinaria. De la definición de v, se tiene que:
3

(v )2 = å (v m )2 = – c 2 (155)
v= 0

384 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

4. DINÁMICA RELATIVISTA
En este apartado vamos a ver cómo se modifican las leyes de la mecánica clásica y encontrare-
mos las expresiones relativistas del momento, la energía cinética y la energía total de una partícula.

4.1. Momento relativista y fuerza de Minkowski


En mecánica clásica se define el momento lineal como el producto de la masa por la velocidad
de la partícula. En mecánica relativista podemos actuar de la misma manera, sin embargo, para que la
masa sea una característica de la partícula y no de su velocidad respecto de un sistema de referencia
inercial cualquiera, la masa deberá medirse en el sistema de referencia que se encuentre en reposo
respecto de la partícula, es decir, en el sistema en reposo o sistema propio. A esta masa se le denomina
masa en reposo de la partícula o masa propia y se representa por m0.
Se define el 4-vector impulso como aquel cuyas componentes vienen dadas por:
P m = m0 v m (156)

Por consiguiente, las componentes serán:


im0 c
P0= (157)
1– b 2

m0 u i
Pi = (158)
1– b 2

Observemos que las componentes del 4-vector impulso las podemos escribir como:
m0
P i = mu i m= (159)
1– b 2

expresiones que son idénticas a las de la mecánica clásica pero en donde m no es un invariante, sino
que depende de la velocidad de la partícula y por tanto varía de un sistema de referencia a otro.
Puesto que las leyes de Newton son invariantes frente a las transformaciones de Galileo y no lo
son frente a las de Lorentz, será necesario generalizar dichas leyes. Definimos el 4-vector fuerza o
fuerza de Minkowski como el vector cuyas componentes vienen dadas por:
m
dP m d( m0 v )
Fm = = (160)
dt dt

Por consiguiente, se tendrá que para i = 1, 3, las componentes del 4-vector fuerza son:

d( m0 v i ) æ ö
d ç m0 u
i
1 ÷
Fi = = ç ÷ (161)
dt 1 – b 2 dt è 1 – b 2 ø

en donde hemos tenido en cuenta la expresión dada por (158). Por otra parte, la fuerza ordinaria viene
dada por:
æ i ö
dp i dç m u ÷
Fi = = ç 0 (162)
dt dt è 1 – b 2 ÷
ø

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 385


Volumen II. Física II

por lo que la relación entre la fuerza de Minkowski y la fuerza ordinaria viene dada por:
æ i ö
1 d ç m0 u ÷ Fi
Fi = ç ÷= (163)
1 – b 2 dt è 1 – b 2 ø 1– b 2

Procediendo de forma análoga se obtiene que:


æ ö
1 d ç im0 c ÷
F0 = ç ÷ (164)
1– b 2 dt è 1– b 2 ø

Veamos a continuación el significado de esta componente de la fuerza de Minkowski.

4.2. Energía relativista


Tal como hemos visto anteriormente:
3

å (v m
)2 = – c 2 (165)
v= 0

Derivando en esta expresión con respecto al tiempo propio, se tiene que:


dæ ö m
çå ( v m ) 2 ÷= 0 ® 2å v m dv = 0
3 3

(166)
dt ç
è v= 0
÷
ø v= 0
dt

Multiplicando por m0 y teniendo en cuenta la definición de la fuerza de Minkowski (160), resulta:


3
d ( m0 v m ) 3

åv m

dt
= 0® åvmFm = 0 (167)
v= 0 v= 0

Es decir, los 4-vectores v y F son ortogonales. Por tanto, de esta condición de ortogonalidad y de la
relación entre la fuerza de Minkowski y la fuerza ordinaria (163), se obtiene que:
ui F i
3
ic
F0 + å =0 (168)
i= 1 1 – b
2
1– b 2

Ecuación que podemos escribir como:


r r
ic F ×u
F + =0 0
(169)
1– b 2 1– b 2

De esta expresión, se obtiene que:


r r
i F ×u
F = 0
(170)
c 1– b 2

386 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

Comparando esta expresión con (164):

r r dæ 2 ö
ç mc ÷
F ×u = ç 0 (171)
dt è 1– b 2 ÷
ø

r r
El trabajo realizado sobre la partícula por unidad de tiempo es F ×u y es igual a la variación de la
energía cinética T por unidad de tiempo. Por tanto:

æ 2 ö
dT d ç m0 c ÷
= ç ÷ (172)
dt dt è 1– b 2 ø

Integrando la ecuación anterior:

m0 c 2
T= +C (173)
1– b 2

Para encontrar el valor de la constante C hemos de tener en cuenta que T = 0 cuando u = 0, por lo que:

0= m0 c 2 +C ® C = – m0 c 2 (174)

Llevando el valor de esta constante a la expresión de la energía cinética, obtenemos finalmente que:
m0 c 2
T= – m0 c 2 = mc 2 – m0 c 2 (175)
1– b 2

Si llamamos E a la energía total de la partícula:

E = T + m0 c 2 (176)
2
en donde m0c es la energía en reposo. De la expresión de la energía cinética se tiene que:

E = mc 2 (177)
que nos proporciona la energía total de la partícula.
Teniendo en cuenta esta expresión, la componente P0 de 4-vector impulso se puede escribir como:

im0 c E
P0 = =i (178)
1– b 2 c

y por tanto el 4-vector impulso puede escribirse como:

æ E rö
P =çi , p÷ (179)
è c ø
r
en donde p son las componentes espaciales del momento.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 387


Volumen II. Física II

Si aplicamos la matriz de cambio de Lorentz a las componentes del 4-vector momento lineal, se
tiene que la relación entre las componentes en un sistema S y otro S´ que se muevan con velocidad re-
lativa u uno respecto del otro, vienen dadas por:
E – up 1
E '= (180)
1– b 2

u
p1 – E
p' 1 = c2 (181)
1– b 2

p' 2 = p 2 (182)
p' = p
3 3
(183)
en donde b = u/c.
Puesto que como vimos anteriormente (v)2 = –c2, se tendrá que:
(P ) 2 = ( m0 ) 2 ( v ) 2 = –( m0 ) 2 c 2 (184)
que indica que el módulo al cuadrado del 4-vector impulso es un invariante.
Por otra parte, de (179), se tiene que:
E2
(P ) 2 = – 2
+ ( p 1 )2 + ( p 2 )2 + ( p 3 )2 (185)
c

Si llamamos p2 = (p1)2 + (p2)2 + (p3)2, la expresión anterior la podemos escribir como:


E2
–( m0 c ) 2 = – + p2 (186)
c2

Despejando de esta expresión, se tiene que:


E 2 = p 2 c 2 +( m0 ) 2 c 4 (187)
expresión que relaciona la energía relativista con el momento.

4.3. Aceleración relativista


Aunque en la práctica no se usa, es posible definir un 4-vector aceleración. A continuación va-
mos a ver cómo se relaciona este vector con la fuerza que actúa sobre la partícula.
La fuerza ordinaria sobre la partícula dada por (162) puede escribirse como:
r ö
r dpr d æ ç m0 u ÷
F= = ç (188)
dt d t è 1 – b 2 ÷
ø

Derivando la expresión entre paréntesis, se tiene que:


r
r m0 du r d æ ç m0
ö
÷
F= +u ç ÷ (189)
1– b 2 dt d t è 1– b
2
ø

388 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

Teniendo en cuenta la expresión de la energía dada por (177), la ecuación anterior queda como:
r r r
m0 du u dE
F= + 2 (190)
1– b 2 dt c dt

Ahora bien, la derivada temporal de la energía es:


dE dT r r
= = F ×u (191)
dt dt

Llevando eso a la expresión de la fuerza y despejando, se tiene que:


r r
r du 1– b 2 é r u r r ù
a= =
dt m0 ë
ê F –
c2
F ×u ú
û
( ) (192)

r r
Podemos observar que, en general, a no es paralela a F. No obstante hay dos casos en lo que am-
bos vectores son paralelos:
r r r r r r r
1. Si F es paralela a u, como F ×u es un escalar, se tendrá que los vectores a, F y u son paralelos. En
este caso, se demuestra que:
m0
F= a (193)
æ u 2 ö3 2
ç
ç1– 2 ÷ ÷
è c ø
r r r r
2. Si F es perpendicular a u, entonces F ×u = 0, por lo que:
m0
F= a (194)
1– b 2

4.4. Equivalencia entre la masa y la energía


Supongamos una colisión inelástica de dos cuerpos idénticos de masa en reposo m0 y con ener-
gía cinética T, cada uno de ellos. Consideremos dos sistemas de referencia S y S´ tales que S´ se mue-
ve hacia la derecha con velocidad relativa u = u´ a lo largo del eje común x – x´ y siendo los demás ejes
paralelos. En el sistema S´ los cuerpos se dirigen uno hacia el otro con velocidad u´, como se indica en
la figura 13. En este sistema la partícula resultante de la colisión permanecerá en reposo después de la
colisión.
S´ S´

u= u´ u = u´

u´B = u´ u´ A = u´ u´C = 0
Figura 13. Colisión de dos
partículas en el sistema de B A C
referencia S´: (a) antes de la
colisión, (b) después de la
colisión. (a) (b)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 389


Volumen II. Física II

En otro sistema de referencia S que se desplaza hacia la izquierda con velocidad u = u´ con res-
pecto a S´, la colisión se observa como se indica en la figura 14. Puesto que en el sistema S´ la partícu-
la resultante se encuentra en reposo, en el sistema S, que ve moverse a S´ con velocidad u = u´ hacia la
derecha, la partícula resultante de la colisión se moverá hacia la derecha con velocidad u´.

S S

uB uA = 0 uC = u´

B A C

(a) (b)

Figura 14. Colisión de dos partículas en el sistema de referencia S:


(a) antes de la colisión, (b) después de la colisión.

Ahora, apliquemos en el sistema S el principio de conservación del momento lineal. Para ello,
denominemos uB a la velocidad de la partícula B y mB a su masa relativista. Además, tengamos en
cuenta que la partícula A se encuentra en reposo antes de la colisión. Como la velocidad de la partícu-
la resultante de la colisión es u´, si denominamos M a su masa relativista, el principio de conservación
del momento lineal se escribe como:
mB u B + 0= Mu' (195)

La masa relativista de la partícula resultante la podemos expresar en función de su masa en reposo M0


y de su velocidad u´:
M0
M= (196)
æ u' ö2
1–ç ÷
ècø

Calculemos ahora la velocidad uB y la masa relativista mB de la partícula B. La velocidad de la partí-


cula B en el sistema S se calcula utilizando la ley de composición de velocidades relativistas dada por
(133):
u'+u u'+u' 2u'
uB = = = (197)
u' u u' 2
u' 2
1+ 2 1+ 2 1+ 2
c c c

La masa relativista en el sistema S será:


m0
mB = (198)
æ u ö2
1–ç B ÷
è c ø

390 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

Si sustituimos en esta expresión la encontrada anteriormente para uB y simplificando, se tiene que:


æ u' 2 ö
m0ç
ç1+ 2 ÷÷
è c ø
mB = (199)
u' 2
1– 2
c

Si llevamos la expresión (196) y los resultados (197) y (199) a la ecuación (195) de la conservación
del momento lineal, obtenemos que:
æ u' 2 ö
m0ç
ç1+ 2 ÷÷
è c ø 2u' M 0 u'
= (200)
u' 2 u' 2 u' 2
1– 2 1+ 2 1– 2
c c c

De esta expresión, se obtiene que la masa en reposo de la partícula resultante de la colisión viene dada
por:
2m0
M0 = (201)
u' 2
1– 2
c

Luego, la masa en reposo del resultado de la colisión no es igual a la suma de las masas en reposo de
las dos partículas que colisionan. El aumento de la masa en reposo es:
æ ö
ç ÷
ç 1 ÷
M 0 – 2m0 = 2m0ç – 1÷ (202)
ç u' 2 ÷
ç 1– 2 ÷
è c ø

Calculemos ahora la energía cinética en el sistema S´. Antes de la colisión, las partículas tienen
energías cinéticas iguales, y el producto de la colisión permanece en reposo. Luego la variación de
energía cinética, antes y después de la colisión, es:
æ ö
ç ÷
ç 1 ÷
TA +TB = 2T = 2m0 c 2ç – 1÷ (203)
ç ÷
2
u'
ç 1– 2 ÷
è c ø

Comparando las dos expresiones anteriores, se tiene que:


TA +TB = ( M 0 – 2m0 )c 2 (204)

La energía cinética desaparece en la colisión y en su lugar aparecen otras formas de energía interna,
como la calorífica. Vemos que esa energía interna da lugar a un aumento de la masa en reposo de la

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 391


Volumen II. Física II

partícula resultante de la colisión. Por consiguiente, la masa en reposo es equivalente a la energía y


debe incluirse al formular el principio de conservación de la energía.
La energía cinética no se conserva en una colisión inelástica, pero sí se conserva la energía total:
la energía cinética más la energía en reposo. Además, la conservación de la energía total es equivalen-
te a la conservación de la masa relativista. Para ver lo que acabamos de afirmar, vamos a demostrar
que en la colisión estudiada la energía total se conserva tanto en el sistema S como en el sistema S´.
En el sistema S´, antes de la colisión la energía total es:
2m0 c 2
m0 c 2 +TA + m0 c 2 +TB = 2m0 c 2 + 2T = (205)
u' 2
1– 2
c

Después de la colisión, la energía total será la energía en reposo de la partícula resultante:


æ ö
ç ÷
ç 2m ÷2 2m0 c 2
M 0 c 2 =ç 0
÷c = (206)
ç u' 2 ÷ u' 2
ç 1– 2 ÷ 1– 2
è c ø c

Luego, en el sistema S´, se conserva la energía total en la colisión.


Por otra parte, en el sistema S, la energía total antes de la colisión es:
æ ö
ç ÷
ç 1 ÷
m0 c + m0 c +TB = 2m0 c + m0 c ç
2 2 2 2
– 1÷=
ç u B2 ÷
ç 1– 2 ÷
è c ø
(207)
æ u' 2 ö
ç2 ÷ 2
ç 2
÷ 2m0 c
= 2m0 c 2 + m0 c 2ç c 2 ÷=
u' u' 2
ç1 – 2 ÷ 1– 2
è c ø c

Después de la colisión, la energía total es:


é ù
2 2 ê ú
2m0 c 2m0 c ê 2m c 2
– 1ú= 0 2
1
M 0 c 2 +TC = + (208)
u' 2 u' 2 ê u' 2 ú u'
1– 2 1– 2 ê 1– 2 ú 1– 2
c c ë c û c

Luego, en el sistema S, la energía total se conserva en la colisión.


Por consiguiente, la masa y la energía son equivalentes, y la ecuación:
E = mc 2 (209)
expresa dicha equivalencia. Es por esto por lo que es habitual expresar la masa en reposo de una partí-
cula en unidades de energía, aunque es necesario decir que la masa no es numéricamente igual a la
energía pues sus unidades son diferentes.

392 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Limitaciones de la física clásica

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano, Bogotá, 1971.


Bohm, D.: The Special Theory of Relativity. Addison-Wesley, Redwood City,
California, 1989.
Feynman, R. P., Leighton, R. B. y Sand, M.: Física. Fondo Educativo Interame-
ricano, Bogotá, 1972.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S.T.: Physics for Scientist and
Engineers. Prentice Hall, Upper Saddle River, New Jersey, 1996.
French, A. P.: Relatividad Especial. Reverté, Barcelona, 1988.
Gamov, G.: Biografía de la Física. Alianza Editorial, Barcelona, 1983.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill,
Madrid, 1991.
Goldstein, H.: Mecánica Clásica. Aguilar, Madrid, 1972.
Holliday, D. y Resnick, R.: Física. CECSA, México, 1983.
Landau, L. D. y Lifshitz, E. M.: The Classical Theory of Fields. Pergamon
Press, New York, 1989.
Marion, J. B.: Dinámica Clásica de las Partículas y Sistemas. Editorial Rever-
té, Barcelona, 1998.
Resnick, R.: Introducción a la Teoría Especial de la Relatividad. Limusa, Mé-
xico, 1977.
Schröder, U. E.: Special Relativity. World Scientific, Singapur, 1990.
Tipler, P. A.: Física. Editorial Reverté, Barcelona, 1992.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 393


TEMA

30
Teoría cuántica. Problemas
precursores. Límites de la física
clásica para resolverlos.
Fenómenos que corroboran la
teoría cuántica

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. TEORÍA CUÁNTICA ANTIGUA: PROBLEMAS PRECURSORES Y


LIMITACIONES DE LA FÍSICA CLÁSICA
1.1. Radiación del cuerpo negro
1.1.1. Magnitudes para el estudio de la radiación térmica
1.1.2. Absorción, reflexión y transmisión de la radiación
1.1.3. Cuerpo negro
1.1.4. Teoría de Rayleigh-Jeans de la cavidad radiante
1.1.5. Teoría de Planck de la radiación del cuerpo negro
1.2. Efecto fotoeléctrico
1.2.1. Resultados experimentales
1.2.2. La teoría clásica del efecto fotoeléctrico
1.2.3. Teoría de Einstein
1.3. Efecto Compton
1.3.1 Predicción de la teoría clásica
1.3.2. Predicción mediante la teoría corpuscular de la radiación
1.4. Modelo atómico de Bohr
1.4.1. Postulados de Bohr
1.4.2. Espectro energético del átomo de Bohr

2. MECÁNICA CUÁNTICA
2.1. Principios fundamentales de la mecánica cuántica
2.1.1. Hipótesis de De Broglie
2.1.1.1. Confirmación experimental de la hipótesis de De Broglie
2.1.1.2. La dualidad onda-partícula
2.1.2. Principio de incertidumbre de Heinsenberg
2.1.2.1. Ondas de materia y principio de incertidumbre
2.1.3. Principio de complementariedad
2.2. Teoría de Schrödinger de la mecánica cuántica
2.3. Base conceptual de la mecánica cuántica
2.3.1. Probabilidad de la posición
2.3.2. Valores promedio o esperados de una medida

BIBLIOGRAFÍA

396 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

1. TEORÍA CUÁNTICA ANTIGUA: PROBLEMAS PRECURSORES Y


LIMITACIONES DE LA FÍSICA CLÁSICA
A finales del siglo XIX, la física parecía un campo del conocimiento bien asentado sobre pilares
sólidos: la mecánica de Newton, la teoría cinética y la teoría electromagnética de Maxwell. Estas teo-
rías conformaban un marco teórico, denominado física clásica, que había resultado de gran utilidad
para explicar una gran gama de fenómenos naturales.
Todos los problemas de mecánica eran explicados mediante las leyes de la mecánica clásica, la
cual constituía también la base del tratamiento de los fluidos y de las ondas, entre ellas el sonido. A
escala astronómica, el movimiento de los planetas podía explicarse mediante las leyes del movi-
miento de Newton y su ley de la gravitación universal.
Aún más importante todavía era que las mismas leyes se aplicaban tanto a escala macroscópica
como para explicar aquellos fenómenos a escala microscópica. La aplicación de las leyes de Newton y las
ideas estadísticas resultaban adecuadas para explicar el comportamiento de los gases y permitía deducir el
calor específico de los gases en concordancia con los datos experimentales que se disponían en la época.
En cuanto a los fenómenos eléctricos y magnéticos, las leyes de la electricidad y el magnetismo
fueron unificadas por Maxwell en una teoría del campo electromagnético sintetizada en sus famosas
cuatro ecuaciones. Esta teoría predecía la existencia de ondas electromagnéticas, cuyo comportamiento
era el mismo que el de la luz, que más tarde fueron verificadas experimentalmente por Hertz.
Se cuenta que muchos físicos de la época opinaban que sus sucesores se dedicarían simplemente a
“efectuar medidas para determinar la siguiente cifra decimal”. En esta situación, parecía que la física
clásica era una teoría completa que permitía explicar el mundo natural y que con estos mismos princi-
pios podrían explicarse algunos problemas surgidos y todavía no resueltos. Entre estos se encontraba la
contradicción entre el principio de relatividad y las transformaciones de Galileo y el espectro del cuerpo
negro. El principio de relatividad establece que las leyes de la física son las mismas en todos los siste-
mas de referencia inerciales. Es decir, que las leyes de la física son invariantes bajo una transformación
de coordenadas. Sin embargo, la aplicación de las transformaciones de Galileo a las leyes de la mecáni-
ca eran compatibles con dicha invariancia, pero no ocurría lo mismo con las leyes del electromagnetis-
mo. Una segunda cuestión que intrigaba a los físicos de principios del siglo XX era la naturaleza del
espectro de la radiación del cuerpo negro. Las predicciones de la física clásica no se ajustaban con los
resultados experimentales.
Estas dos cuestiones no resultaron tan simples y su solución sólo se obtuvo con la introducción
en la primera parte del siglo XX de dos nuevas teorías, absolutamente revolucionarias, que cambia-
ron toda nuestra concepción de la naturaleza: la teoría de la relatividad y la teoría cuántica.
Por un lado, la teoría de la relatividad exige abandonar la idea clásica de espacio y tiempo y ex-
tiende el campo de aplicación de las leyes de la física al de las altas velocidades. Por otro, la teoría
cuántica requiere que se abandone la idea de continuidad en la naturaleza y extiende el campo de apli-
cación de las leyes de la física a aquellos sistemas de dimensiones microscópicas. El estudio de las li-
mitaciones de la física clásica en el campo de las altas velocidades y los postulados de la teoría de la
relatividad especial ha sido el objeto del tema 29. En éste, estudiaremos las limitaciones que la física
clásica mostraba en la explicación de algunos fenómenos; limitaciones que llevaron al nacimiento de
la teoría cuántica antigua, que fue el origen de la mecánica cuántica actual.

1.1. Radiación del cuerpo negro


La radiación térmica es la radiación electromagnética emitida por un cuerpo en virtud de su tem-
peratura. Como toda radiación electromagnética, la radiación térmica se propaga en el vacío a la velo-
cidad de la luz, y ésta es la forma en que llega a la Tierra la energía procedente del Sol.
Un átomo aislado en un gas emite sólo radiación a frecuencias discretas; las moléculas emiten
bandas de frecuencia y los sólidos emiten radiación en un espectro continuo de frecuencia.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 397


Volumen II. Física II

Al igual que emiten radiación, los cuerpos pueden absorber la radiación térmica emitida por los otros
cuerpos de su alrededor. Este intercambio de energía provoca el calentamiento o enfriamiento del cuerpo.
Cuando el ritmo de emisión de energía radiante es igual al de absorción, se alcanza el equilibrio térmico.
A bajas temperaturas, la radiación térmica es prácticamente despreciable, mientras que es impor-
tante a altas temperaturas. El espectro de la radiación emitida por los cuerpos es prácticamente indepen-
diente de su naturaleza y depende fuertemente de la temperatura. El rango de longitudes de onda de la
radiación térmica se sitúa entre los 0.1 mm y los 100 mm. De este modo, se extiende desde el ultravioleta
hasta el infrarrojo e incluye, por tanto, la porción visible del espectro. Así, a temperaturas suficiente-
mente altas, los cuerpos emiten radiación en la región del visible y se hacen luminosos por sí mismos,
mientras que, a temperaturas bajas, son visibles por la luz que reflejan y no por la emitida.

1.1.1. Magnitudes para el estudio de la radiación térmica


A continuación, vamos a definir aquellas magnitudes que se utilizan para el estudio de la radia-
ción térmica.

– Flujo de energía: dada una fuente que emite energía radiante, se define el flujo energético F
como la energía irradiada en todo el espacio que le rodea, o sea, en un ángulo sólido de 4p. Se
expresa en W.
– Flujo monocromático: se define el flujo monocromático Fl como el flujo de las radia-
ciones emitidas entre l y l + dl. Sus unidades serán, por tanto, W m o W mm .
–1 –1

– Emitancia o poder emisivo: la emitancia E es la potencia irradiada por un elemento plano,


de superficie unidad, en todo el espacio que lo rodea:
F
E= (1)
S
en donde S es la superficie de la fuente. Si nos referimos a un punto de la fuente, la emitan-
cia en dicho punto viene dada por:
dF
EP = (2)
dS
en donde dF es la potencia emitida por un elemento de superficie dS tangente a la fuente en
–2
el punto P. Su unidad es el W m .
– Emitancia monocromática o espectral: se denomina emitancia monocromática de la
fuente, El, a:
d 2F l
El = (3)
dSdl
en donde d Fl es la potencia emitida por el punto P de la fuente en el intervalo de longitu-
2

des de onda comprendido entre l y l + dl. Se expresa en W m .


–3

De la definición de la emitancia monocromática se obtiene que d Fl = EldSdl, y por tanto:


2

dF= ò0 E l dSdl = dS ò0 E l dl
¥ ¥
(4)

Y por consiguiente:
dF
= ò0 E l d l
¥
E= (5)
dS

398 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

1.1.2. Absorción, reflexión y transmisión de la radiación


De la energía que incide sobre la superficie de un cuerpo, parte es reflejada, otra es absorbida por
el cuerpo, y el resto es transmitida. Si denominamos G a la energía incidente (W/m2), tendremos que:
G = aG + rG + tG (6)
en donde a es el factor de absorción o absortividad del cuerpo, r es el factor de reflexión o reflectivi-
dad y t es el factor de transmisión o transmisividad. Es decir, que se debe cumplir que:
1=a+r+t (7)

Para un cuerpo opaco t = 0, por lo que se tendrá:


a+r=1 (8)

Por otro lado, un reflector perfecto es aquél para el que r = 1, por lo que para este tipo de cuerpos se
tiene que:
a=t=0 (9)

Por último, un absorbente perfecto es aquél para el que a = 1. En este caso:


r=t=0 (10)

Si denominamos Gl a la energía incidente en un intervalo de longitudes de onda comprendido


entre l y l + Dl y llamamos G al , G rl y G tl a la energía absorbida, reflejada y transmitida en ese interva-
lo de longitudes de onda, se tiene:
G al G lr G tl
al = rl = tl = (11)
Gl Gl Gl

donde los coeficientes monocromáticos cumplen, evidentemente, la relación:


al + rl + tl = 1 (12)

La absortividad y la absortividad monocromática están relacionadas por:

ò aGd
¥
l l l
a= 0
(13)
ò Gd
¥

0 l l

Análogamente, para la reflectividad y transmisividad se tiene que:

ò rGd
¥
l l l
r= 0
(14)
ò Gd
¥

0 l l

ò tGd
¥
l l l
t= 0
(15)
ò Gd
¥

0 l l

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 399


Volumen II. Física II

1.1.3. Cuerpo negro


Un cuerpo negro es un absorbente perfecto, es decir, es un cuerpo que absorbe toda la radiación
incidente recibida, independientemente de la banda espectral. Por tanto, para un cuerpo negro al = 1 y
a = 1. Un cuerpo negro es una idealización, un concepto teórico, pues no existe ningún cuerpo real
que satisfaga las condiciones citadas. No obstante, en la naturaleza, podemos encontrar algunos cuer-
pos que se comportan aproximadamente como un cuerpo negro. Un ejemplo de este tipo lo constituye
un cuerpo cubierto de una capa de pigmento negro, o también un objeto que contiene una cavidad que
se comunica con el exterior mediante un pequeño orificio (figura 1). Si las dimensiones del orificio
son pequeñas comparadas con la superficie interna de la cavidad, la radiación emitida por el orificio
será despreciable y, prácticamente, toda la radiación que entra en la cavidad es absorbida por las pare-
des. Por lo tanto, el orificio se comporta como un cuerpo negro.

El T3
T3 > T2 > T1

T2

T1

l l +dl l

Figura 1. El orificio de una Figura 2. La emitancia


cavidad se comporta, espectral del cuerpo negro es
en buena aproximación, como una función continua que
un cuerpo negro. depende de la temperatura.

Experimentalmente, se obtiene que, para un cuerpo negro la, emitancia espectral es una función
continua que depende de la temperatura, tal y como se muestra en la figura 2. Vemos que el máximo
se desplaza hacia longitudes de onda más cortas al aumentar la temperatura. Este comportamiento del
máximo con la longitud de onda viene dado por la ley de desplazamiento de Wien, que establece que
los máximos corresponden a una longitud de onda dada por:
C
l max = (16)
T
en donde C = 2.898 ´ 10–3 m K es una constante.
Por otra parte, se obtiene que la emitancia total de un cuerpo negro es directamente proporcional
a la cuarta potencia de la temperatura. Este resultado, que se conoce como ley de Stefan-Boltzmann,
puede escribirse como:

E 0 (T ) = ò0 E 0 ( l , T )dl = sT 4
¥
(17)

en donde s = 5.6698 ´ 10–8 W m–2 K–4 es la constante de Stefan-Boltzmann.


Tanto desde el punto de vista experimental como teórico, conviene estudiar el espectro de un
cuerpo negro midiendo experimentalmente o calculando teóricamente el espectro de la radiación
electromagnética de una cavidad radiante con un pequeño orificio. Esto puede hacerse, ya que si el
orificio se comporta como un cuerpo negro, el espectro de la radiación emitida ha de ser el de un cuer-
po negro; pero como el agujero simplemente muestra la radiación de la cavidad, ésta debe tener un es-
pectro igual al de un cuerpo negro. Por consiguiente, vamos a estudiar el espectro de un cuerpo negro

400 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

estudiando el espectro de la radiación de una cavidad. El espectro de la radiación emitida por el agujero
vendrá especificado por la emitancia espectral E0(l,T); no obstante, por razones de tipo práctico, es más
fácil especificar el espectro de la radiación en la cavidad en función de la densidad de energía u(v,T) de-
finida como la energía contenida en la cavidad por unidad de volumen a una temperatura T y en un in-
tervalo de frecuencias entre v y v + dv. La relación entre ambas magnitudes puede demostrarse que es:
c
E 0 ( v , T ) dv = u ( v , T ) dv (18)
4
en donde c es la velocidad de propagación de la radiación electromagnética.
A continuación, vamos a exponer los resultados que proporciona la física clásica sobre el espec-
tro de radiación del cuerpo negro.

1.1.4. Teoría de Rayleigh-Jeans de la cavidad radiante


A principios del siglo XX se realizaron varios intentos para encontrar una teoría que explicara
los resultados experimentales de la energía radiada por una cavidad.
La teoría de Rayleigh-Jeans, iniciada por lord Rayleigh (1842-1919) y luego modificada por sir
James Jeans (1877-1946), mostró un serio conflicto entre las predicciones de la física clásica y los re-
sultados experimentales. Para elaborar su teoría, lord Rayleigh consideró una cavidad con paredes
metálicas y utilizó la teoría electromagnética clásica para demostrar que la radiación en el interior de
la cavidad debía existir en forma de ondas estacionarias con nodos en las superficies de la cavidad. En
segundo lugar, determinó geométricamente el número g(v)dv de dichas ondas estacionarias en un in-
tervalo de frecuencia comprendido entre v y v + dv. Posteriormente, utilizó los resultados de la teoría
cinética para calcular la energía promedio áEñ de estas ondas estacionarias cuando se alcanza el equi-
librio térmico. A partir de estas cantidades, la densidad de energía viene dada por:
1
u( v, T ) dv = g ( v ) E dv (19)
V

Para determinar en número de ondas estacionarias en la cavidad, vamos a considerar, para sim-
plificar los cálculos, que se trata de una cavidad cúbica de lado L. Las ondas estacionarias han de ser
de la forma:
r r
E(x,y,z) = E 0 sen(kxx) sen(kyy) sen(kzz) (20)

en donde hemos de tener en cuenta que son posibles dos orientaciones mutuamente perpendiculares
para la orientación del campo eléctrico.
La condición de que el campo eléctrico sea cero en las paredes de la cavidad se satisface si los
valores de kx, ky y kz son de la forma:
p
k x = nx (21)
L
p
ky = ny (22)
L
p
k z = nz (23)
L
donde nx, ny y nz son números enteros: nx, ny, nz = 1,2,3...

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 401


Volumen II. Física II

De las expresiones anteriores, se tiene que:


p
k = k x2 + k y2 + k z2 = n x2 + n 2y + n z2 (24)
L

Y teniendo en cuenta que k = 2pv/c, las frecuencias permitidas son aquellas que satisfacen la relación:
2Lv
n x2 + n 2y + n z2 = (25)
c
nz
Para determinar el número de frecuencias permitidas en un
r = 2Lv/c intervalo de frecuencias dado, se construye una gráfica tridi-
mensional, siendo los ejes los enteros nx, ny y nz (figura 3). De
esta manera, cada frecuencia permitida corresponde a un pun-
to de la red cúbica, y el número de frecuencias permitidas en-
ny tre 0 y v corresponderá al número de puntos en el octante de
radio r = 2Lv/c. Puesto que por construcción hay un punto de
la red por unidad de volumen, el número de puntos es aproxi-
nx madamente igual al volumen del octante. Pero no exactamen-
te igual, debido a que los números nx, ny y nz son enteros,
Figura 3. Sistema de coordenadas mientras que el volumen es una función continua de la varia-
para determinar el número de ble v. Sin embargo, conforme el valor de v es mayor, más se
frecuencias permitidas en una acerca el número de estados estacionarios N(v) entre 0 y v al
cavidad cúbica. valor dado por:
1 4 æ 2Lv ö
3
4pL3 3
N ( v )= pç ÷= v (26)
83 è c ø 3c 3

Por tanto, el número de estados estacionarios en un intervalo de frecuencias de anchura dv alrededor


de v será:

4pL3 2
dN ( v )= v dv (27)
c3

Por último, hemos de tener en cuenta que, por cada onda estacionaria, son posibles dos orientaciones
mutuamente perpendiculares del campo eléctrico correspondientes a los dos estados de polarización
posibles de la radiación electromagnética, por lo que el número de estados estacionarios en un inter-
valo de frecuencias lo podemos escribir como:

8pL3 2
g ( v )dv = v dv (28)
c3

El siguiente paso en la teoría clásica de Rayleigh-Jeans es determinar la energía promedio de


cada onda estacionaria de frecuencia v. El resultado viene establecido por la ley de equipartición de
la energía, asignándole a cada grado de libertad una energía de kBT/2, siendo kB la constante de
Boltzmann. Puesto que a una onda electromagnética se le asignan dos grados de libertad, uno para
el campo eléctrico y otro para el campo magnético, en total, cada onda estacionaria tiene una ener-
gía promedio igual a:

áEñ = kBT (29)

402 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Este resultado puede obtenerse directamente de la distribución de Boltzmann dada por:

e – E / kBT
P (E )= (30)
kBT

en donde P(E)dE es la probabilidad de encontrar un ente de un sistema con energía comprendida en-
tre E y E + dE cuando el número de estados de energía para el ente en ese intervalo es independiente
de E. En función de esta distribución, puede obtenerse la energía promedio de los entes del sistema:

ò EP ( E )dE
¥

E = 0
(31)
ò P ( E )dE
¥

La integral en el denominador es la probabilidad de encontrar al ente con cualquier energía y, por tan-
to, es igual a la unidad. Evaluando la integral de numerador se tiene que:

áEñ = kBT (32)

La densidad de energía en el intervalo de frecuencias comprendidas entre v y v + dv es, como indi-


camos en (19), el producto del número de ondas estacionarias en ese intervalo por la energía promedio
de cada onda dividido por el volumen de la cavidad. Llevando los resultados que hemos encontrado en
(28) y (32) a (19), obtenemos finalmente que:

8pv 2 k B T
u( v, T )dv = dv (33)
c3
que es la fórmula de Rayleigh-Jeans para la radiación del cuerpo negro.
En la figura 4 se comparan las predicciones de la teoría de Rayleigh-Jeans con los resultados ex-
perimentales. La falta de acuerdo es clara: en el límite para frecuencias bajas, el espectro que predice
la teoría clásica se acerca a los datos experimentales. Sin embargo, conforme aumenta la frecuencia,
la teoría clásica predice una densidad de energía infinita en completa contradicción con los resultados
experimentales que indican que la densidad de energía, como no puede ser de otra manera, permane-
ce siempre finita y tiende a cero a frecuencias muy elevadas. Esta terrible discrepancia entre la pre-
dicción de la teoría clásica (predicción irreal a todas luces) y los experimentos es conocida en física
como catástrofe ultravioleta y el término refleja de forma contundente el gran fallo de la teoría clásica
en la explicación de la radiación del cuerpo negro.
u(v,T) (10-17 J/m3 Hz)

8
Teoría de
6 Rayleigh-Jeans

4
Figura 4. Predicción de Resultados
Rayleigh-Jeans comparada con los 2 experimentales
valores experimentales para la
densidad de energía en una cavidad 0
radiante. La discrepancia a 0 1 2 3
frecuencias altas se denomina 14
catástrofe ultravioleta. v (10 Hz)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 403


Volumen II. Física II

1.1.5. Teoría de Planck de la radiación del cuerpo negro


A finales del año 1900, en una reunión de la Sociedad Alemana de Física, Max Planck (1858-1947)
presentó un trabajo titulado On the theory of the energy distribution law of the normal spectrum, que es
considerado como el nacimiento de la teoría cuántica.
La aproximación de Planck al problema del espectro de la radiación de un cuerpo negro fue ob-
tener de forma empírica una expresión matemática que estuviera de acuerdo con los datos experimen-
tales. Sin embargo, poco después, observó que la expresión matemática podría obtenerse tomando
como hipótesis de partida una idea revolucionaria:
Un sistema que describe un movimiento armónico simple con frecuencia v, sólo puede
tener, y por tanto sólo puede emitir, energías dadas por:
E = nhv (34)
en donde n es un número entero positivo, v la frecuencia de la oscilación y h es una constante
conocida con el nombre de constante de Planck, cuyo valor es:
–34
h = 6.626 ´ 10 J·s (35)

Por consiguiente, cualquier entidad que satisfaga la hipótesis de Planck presenta un espectro discreto
de energía frente al espectro continuo de la física clásica. Decimos que la energía del sistema está
cuantizada, correspondiendo cada energía a un estado cuántico posible con número cuántico n.
Veamos, a continuación, cuál sería la densidad de energía de una cavidad radiante si suponemos
que cada onda estacionaria, cuya amplitud describe un movimiento armónico simple de frecuencia v,
satisface el postulado de Planck. Para ello, debemos calcular la energía media de cada onda estacionaria
tomando como base esta nueva hipótesis. Puesto que ahora la energía sólo puede tomar valores discre-
tos, la expresión del valor medio de la energía dada por (31) deberá escribirse como:

å
¥
EP ( E )
n= 0
E = (36)
å
¥
P (E )
n= 0

Sustituyendo el valor de la probabilidad P(E) dado por (30) y el valor de la energía según la hipótesis
de Planck, se tiene que:

å nhve
¥
– anhv
n= 0
E = (37)
åe
¥
– anhv
n= 0

siendo a = 1/kBT y donde hemos supuesto que la distribución de Boltzmann sigue siendo válida. Esta
expresión la podemos escribir de forma más simple como:
¥
d
E =– ln å e – anhv (38)
da n= 0

Calculemos, a continuación, el valor de la suma:


¥

åe – anhv
= 1+ e – ahv + e –2ahv + e –3anhv +... (39)
n= 0

404 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Esta expresión la podemos escribir como:


¥

åe – anhv
= 1+ x+ x 2 + x 3+... (40)
n= 0

con x = e–ahv. Si tenemos ahora en cuenta que:


–1 2 3
(1 – x) = 1 + x + x + x + ... (41)
se tiene que:
¥

åe – anhv
= (1– e – ahv ) –1 (42)
n= 0

y, por tanto, el valor medio de la energía podrá escribirse como:


d
E =– ln (1– e –ahv ) –1 (43)
da

Calculando la derivada, se tiene que:


hv
E = (44)
e hv / kBT – 1

Sustituyendo este resultado en la ecuación (19) de la densidad de energía y teniendo en cuenta la ex-
presión (28), obtenemos que la densidad de energía de la cavidad radiante viene dada por:
8pv 2 hv
u( v, T )dv = 3 hv / kBT
dv (45)
c e –1
que es la fórmula de Planck para la radiación del cuerpo negro. Esta expresión se ajusta a los datos ex-
perimentales adecuadamente, tal como se muestra en la figura 5.

2.00
1.75 T = 1595 K
u(l,T ) (kJ/m3 m)

1.50
1.25
1.00
0.75
0.50
0.25
0.00
0 1 2 3 4 5 6
l (mm)
Figura 5. Predicción de Planck de la densidad de energía de una cavidad
radiante comparada con los resultados experimentales (círculos).

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 405


Volumen II. Física II

En función de la longitud de onda, la densidad de energía puede escribirse como:


8phc 1
u( l , T ) dl = dl (46)
l5 e hc / kB lT – 1

Para la emitancia espectral, teniendo en cuenta que la relación entre esta magnitud y la densidad
de energía de la cavidad radiante viene dada por (18), se tiene:
2phc 2 l–5
E 0l = (47)
e hc / kB lT – 1

La longitud de onda para la cual la emitancia alcanza su valor máximo la podemos encontrar impo-
niendo la condición de máximo en la expresión de la ley de Planck:
dE 0l d 2phc 2 l–5
= =0 (48)
dl dl e hc / kB lT – 1

Haciendo la derivada, encontramos que:


hc 1 C
l max = = (49)
4.965k B T T

en donde C = 2.898 ´ 10–3 m K es una constante. Esta expresión constituye la ley de desplazamiento
de Wien. Si sustituimos este valor en la expresión de la ley de Planck, encontramos que el valor máxi-
mo de la emitancia espectral viene dado por:
0 –5 5 –3
[E (l,T)]máx = 1.287 ´ 10 T Wm (50)

La cantidad de energía radiante por unidad de área que emite un cuerpo negro a la temperatura T
viene dada por la integral de la distribución de Planck extendida a todas las longitudes de onda:

E 0 (T ) = ò0 E 0 ( l , T )dl
¥
(51)

Sustituyendo en esta integral la expresión dada por (47), se tiene que:


2pk B4 x3
T 4 ò0
¥
E 0 (T ) = dx (52)
h3c2 ex – 1

El valor de esta integral es p4/15, por lo que podemos escribir que la emitancia total es de la forma:
0 4
E (T) = sT (53)
que corresponde a la ley de Stefan-Boltzmann, siendo s:
2pk B4 p 4
s= (54)
h 3 c 2 15

De la discusión anterior, vemos que la ley de Planck permite obtener las leyes empíricas de
Wien y de Stefan-Boltzmann. Puesto que las medidas experimentales permiten obtener los valores de
la constante de Stefan-Boltzmann y de la ley de desplazamiento de Wien, podemos comparar estos

406 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

valores con los deducidos a partir de la ley de Planck de la radiación del cuerpo negro (49) y (54). Los
valores teóricos y los experimentales son compatibles si kB es la constante de Boltzmann y si la cons-
tante de Planck es igual a h = 6.625 ´ 10–34 J · s.

1.2. Efecto fotoeléctrico


El efecto fotoeléctrico consiste en la emisión de electrones por parte de un material cuando inci-
de luz sobre su superficie. Este efecto fue detectado por primera vez en 1887 por Heinrich Hertz
cuando estaba trabajando en la confirmación experimental de la radiación electromagnética por car-
gas aceleradas, predicha por Maxwell en 1864. En el transcurso de sus experimentos, Hertz observó
que una descarga eléctrica entre dos electrodos ocurría más fácilmente si sobre uno de ellos se hacía
incidir luz ultravioleta.
En 1888, Hallwachs encontró que una superficie de zinc muy pulida iluminada por luz ultravio-
leta perdía su carga si ésta era inicialmente negativa y retenía la carga positiva. Además, encontró que
una placa neutra se cargaba positivamente si se le iluminaba. Por consiguiente, la luz producía la ex-
pulsión de la electricidad negativa de una placa neutra. Posteriormente, en 1890, Stoletow demostró
el paso de una corriente continua entre una placa y una rejilla si se iluminaba la placa. Puesto que la
corriente se observaba en las condiciones de vacío más alto que podía alcanzarse en la época, se con-
cluía que el flujo de corriente se debía al movimiento de portadores de carga negativa.

1.2.1. Resultados experimentales


En la figura 6 se muestra el esquema de un montaje experimental para el estudio del efecto fotoe-
léctrico. El aparato está formado por un tubo de vacío en el que se colocan dos placas metálicas, el cáto-
do C y el ánodo A. Una luz monocromática (de una sola frecuencia) se hace incidir sobre el cátodo a
través de una ventana de cuarzo, lo que produce la emisión de electrones. Estos electrones son emitidos
con cierta energía cinética y pueden alcanzar el ánodo, lo que produce una corriente que puede medirse
mediante una galvanómetro. Mediante una batería de tensión variable, se cambia la diferencia de ten-
sión entre el ánodo y el cátodo. Otros parámetros, tales como la intensidad I de la luz incidente y su fre-
cuencia pueden variarse con el objeto de estudiar la dependencia de la corriente con ellos.

Ventana de Luz
cuarzo

e
C A
i G

Figura 6. Esquema del


montaje experimental
utilizado para el estudio
del efecto fotoeléctrico. V

Los resultados más importantes que se obtienen del experimento son los siguientes: si la tensión
V es positiva y suficientemente elevada, todos los electrones emitidos por el cátodo llegan al ánodo y,

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 407


Volumen II. Física II

por tanto, se alcanza una corriente de saturación; si se disminuye el valor de V, la corriente disminuye
y, cuando se invierte (valores de V negativos), se observa que la corriente no se hace cero inmediata-
mente, lo que indica que los electrones son emitidos con cierta energía cinética. Conforme este poten-
cial de retardo se va haciendo mayor, menor es el número de electrones que tienen energía suficiente
para llegar al ánodo y, por consiguiente, la corriente fotoeléctrica disminuye. Para un valor suficien-
temente grande y negativo de esta diferencia de potencial, la corriente se hace cero. Al valor absoluto
V0 de esta diferencia de potencial se le denomina potencial de frenado, y es una medida de la energía
cinética máxima con la que son emitidos los electrones por el cátodo:
Kmáx = e V0 (55)

i i V = cte V0
v = cte
2I

vc vc v
Figura 7. Resultados
V0 V I experimentales del efecto
a) b) c) fotoeléctrico.

Experimentalmente, se observa que el potencial de frenado es independiente de la intensidad de


la luz que incide sobre el cátodo. En la figura 7a, se muestran los resultados experimentales de la co-
rriente en función del potencial V para dos intensidades diferentes de la radiación incidente I y 2I y de
la misma frecuencia v. Se observa que la corriente fotoeléctrica es, en un caso, el doble que en el otro,
pero que el potencial de frenado es independiente de la intensidad de la radiación incidente. Además,
para una frecuencia v y un potencial V dados, la corriente fotoeléctrica es directamente proporcional a
la intensidad de la radiación incidente (figura 7b).
Por otro lado, se observa que el potencial de frenado es una función lineal de la frecuencia v. Es
decir, que:
V0 = av (56)
en donde el valor de a es igual a 4,1 ´ 10-15 J · s/C. Esta dependencia lineal y el valor de la pendiente a
es la misma para diferentes materiales utilizados como cátodo. Además, se observa que, para fre-
cuencias menores que un determinado valor vc, el potencial de frenado V0 es cero (figura 7c). Por tan-
to, si no es necesario aplicar ningún voltaje entre el cátodo y el ánodo para frenar a los electrones más
energéticos, es por que no se emiten electrones. Como se indica en la figura, esta frecuencia de corte
depende del material utilizado para el cátodo.
Un último hecho experimental que resulta de gran importancia es que, cuando las condiciones
son favorables, la fotoemisión es casi instantánea. Se observa que la corriente fotoeléctrica se produ-
ce dentro de los 10–9 segundos desde el comienzo de la iluminación. Esta emisión instantánea de elec-
trones se produce hasta cuando se ilumina el cátodo con radiación de intensidades tan bajas como
10–10 W/m2.

1.2.2. La teoría clásica del efecto fotoeléctrico


Vamos a ver ahora las predicciones que la física clásica hace sobre el efecto fotoeléctrico y sus
limitaciones para explicar algunos de los fenómenos observados en el experimento.
En primer lugar hemos de tener en cuenta que, desde el punto de vista clásico, la luz es una
onda electromagnética y, como tal, la energía transportada se encuentra uniformemente distri-

408 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

buida por todo el espacio por el que se extiende en un momento determinado. Por otro lado, la in-
tensidad de una onda electromagnética es proporcional al cuadrado de la amplitud del campo
1
eléctrico I = e 0 cE 02 , siendo e0 la permitividad del vacío, c, la velocidad de la luz y E 0 , la ampli-
2
tud del campo eléctrico.
La emisión de electrones debida a la absorción de la radiación incidente debe ser consecuencia
de la interacción del campo eléctrico de la onda de luz incidente con los electrones del cátodo. Consi-
deremos un electrón que se encuentra ligado con cierta energía de enlace W al metal. El campo eléc-
trico de la onda electromagnética incidente ejercerá una fuerza F sobre el electrón F = eE. De esta
manera, cuanto mayor sea el campo eléctrico, mayor será la fuerza ejercida sobre el electrón y mayor
la energía cinética que éste puede adquirir. Puesto que la amplitud del campo eléctrico es proporcio-
nal a la raíz cuadrada de la intensidad, resultará que, conforme sea mayor la intensidad de la onda,
mayor será la energía cinética que pueden adquirir los electrones. Esto explicaría el hecho menciona-
do anteriormente, que fijada una frecuencia y una tensión V, la corriente fotoeléctrica aumenta con la
intensidad de la onda incidente. Sin embargo, no puede explicar el hecho de que el potencial de frena-
do, que es proporcional a la energía cinética máxima de los electrones, sea independiente de la inten-
sidad de la onda de la radiación incidente.
Otro hecho experimental que la teoría clásica no puede explicar es la dependencia del potencial
de frenado V0, o, lo que es lo mismo, de Kmáx, con la frecuencia v. Desde el punto de vista clásico, la
energía transportada por la onda electromagnética depende de su amplitud (o intensidad), pero no de
su frecuencia, por lo que la energía que puede ser absorbida por el electrón sería independiente de la
frecuencia y, por consiguiente, también lo sería la energía cinética que éste pudiera adquirir. Por tan-
to, la teoría clásica no puede dar una respuesta al hecho experimental observado. Igual que tampoco
puede explicar el que haya una frecuencia de corte vc, propia de cada material, por debajo de la cual
no se observa el efecto fotoeléctrico.
Una última limitación de la teoría clásica en la explicación del efecto fotoeléctrico, y que
jugó un papel crucial en el rechazo a las ideas clásicas de la radiación electromagnética, es su im-
posibilidad de explicar el hecho de que la emisión fotoeléctrica sea prácticamente instantánea.
Según la teoría ondulatoria clásica de la luz, es necesario un tiempo bastante grande para que un
electrón absorba la energía suficiente para abandonar una superficie metálica. Para analizar esto,
realicemos el siguiente cálculo. Supongamos una fuente que emite energía en forma de luz ultra-
violeta con una potencia de P = 1 W y supongamos que se encuentra a una distancia R =1 m del
cátodo. Por otro lado, vamos a suponer, de forma bastante generosa, que toda la radiación que in-
cide sobre un átomo es absorbida por un solo electrón, el que se encuentra menos ligado al átomo.
Vamos a suponer que el radio del átomo es del orden de r = 10–10 m. Por tanto, la sección expuesta
a la onda incidente será A = pr2 = p10–20 m2. Puesto que la energía de una onda electromagnética
se encuentra uniformemente distribuida sobre todo el frente de onda, suponiendo un frente de
onda esférico, la intensidad de la onda, es decir, la energía por unidad de tiempo y de superficie
en la placa metálica, será I = P/S = P/(4pR2) = 1/4p W/m2. Por tanto, la cantidad de energía absor-
bida por segundo por un electrón en el cátodo es Pa = IA = 2,5 ´ 10–21 W. Por otro lado, se sabe
que la energía mínima de enlace de un electrón con un átomo es del orden de unos pocos eV. Si to-
mamos como valor para esta energía Eb = 1 eV = 1.6 ´ 10–19 J, entonces el tiempo necesario para
absorber dicha energía será:

E b 1.6´10–19
t= = = 0.64´102 s = 64 s • 1 minuto (57)
Pa 2.5´10–21

Es decir, que debería observarse la corriente fotoeléctrica un minuto después de que la luz ultraviole-
ta incidiera sobre el cátodo. Sin embargo, experimentalmente no se observa ningún retraso (al menos
superior a 10–9 s).

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 409


Volumen II. Física II

1.2.3. Teoría de Einstein


En 1905, Albert Einstein (1879-1955) propuso una nueva teoría sobre la naturaleza de la radia-
ción electromagnética que era capaz de explicar el efecto fotoeléctrico, pero que suponía un cambio
radical en las ideas de la teoría del electromagnetismo clásico.
La explicación dada por Planck sobre el espectro de la radiación del cuerpo negro asumía que los
osciladores electromagnéticos tenían niveles de energía cuantizados. Sin embargo, Planck restringía
la cuantización de la energía a los electrones oscilantes en la cavidad y suponía que la energía electro-
magnética, una vez radiada, se esparcía por todo el espacio, como lo hacen las olas en el agua. En su
teoría, Einstein argumentó que la restricción impuesta por Planck de que la energía de una onda elec-
tromagnética de frecuencia v en una fuente tuviera los valores v, 2v, 3v... implicaba, a su vez, que, al
pasar de un estado de más energía a otro de energía inmediatamente inferior, la fuente emitía paque-
tes o cuantos de energía electromagnética de valor hv. De acuerdo con la hipótesis de Einstein, estos
cuantos de energía estarían localizados inicialmente en un volumen del espacio pequeño y se mantie-
nen localizados mientras se mueven, apartándose de la fuente con velocidad c. Estos cuantos de ener-
gía electromagnética se denominan fotones y su energía es:
E = hv (58)

Según la teoría de Einstein, un haz de radiación electromagnética transporta energía como lo


hace un haz de partículas y no como una onda en donde la energía está uniformemente distribuida so-
bre el frente de onda. Con esta hipótesis, la intensidad del haz es una medida de la densidad de fotones
del haz. Por eso, al aumentar la intensidad sin modificar la frecuencia, no se modifica la energía de
cada fotón, sino que lo que se modifica es la densidad de fotones del haz y, por consiguiente, la densi-
dad de energía del haz.
Einstein supuso que el efecto fotoeléctrico se trata de una colisión entre partículas en la que un
fotón de energía hv choca con un electrón en el metal y le transfiere toda su energía. Por consiguiente,
del principio de conservación de la energía se tiene que:
hv = K + W (59)
en donde W es la energía necesaria para arrancar al electrón del metal y K es la energía cinética con la
que es emitido el electrón. La energía W incluye la energía para vencer las fuerzas atractivas de los
átomos de la superficie, así como las pérdidas de energía cinética producidas en las colisiones inter-
nas del electrón. Es evidente que algunos electrones estarán más fuertemente ligados al átomo y otros
perderán energía en el trayecto debido a las colisiones. En el caso de que el electrón sea el que más dé-
bilmente se encuentra ligado al átomo, y suponiendo que no se producen pérdidas de energía por coli-
siones, los electrones emergerán del cátodo con la máxima energía cinética:
Kmáx = hv – f (60)
en donde f es un parámetro característico de cada metal que se denomina función trabajo y corres-
ponde a la mínima energía necesaria para liberar un electrón de la superficie del metal.
La máxima energía cinética con la que son emitidos los electrones puede determinarse experimen-
talmente midiendo el potencial de frenado V0. Sustituyendo el valor de la energía cinética máxima en
función del potencial de frenado, dado por la expresión (55), en la expresión anterior, obtenemos que:
h f
V0 = v– (61)
e e

Veamos, a continuación, cómo podemos explicar con la teoría de Einstein los resultados experi-
mentales del efecto fotoeléctrico presentados al comienzo de esta sección.

410 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Al aumentar la intensidad de la radiación, se aumenta la densidad de fotones del haz, por lo que
será mayor el número de fotones que colisionan con el cátodo cada segundo. Esto significa que habrá
un mayor número de colisiones fotón-electrón y, en consecuencia, se producirá un aumento de los
electrones emitidos por el cátodo, con el consiguiente aumento de la corriente fotoeléctrica. De esta
manera, podemos entender el resultado experimental representado en la figura 7b, en el que se mues-
tra que la corriente es proporcional a la intensidad de la radiación incidente.
Por otro lado, aumentar la intensidad significa aumentar el número de fotones del haz, pero no la
energía de cada uno de ellos. Así, la máxima energía cinética Kmáx que puede adquirir un electrón, y
por, tanto el potencial de frenado V0, deberá ser independiente de la intensidad I (como se muestra en
la figura 7a) y ser sólo función de la energía del fotón incidente, es decir, de la frecuencia de la radia-
ción incidente. Esto es lo que indican las expresiones (60) y (61). Además, en la ecuación (61) pode-
mos observar que el potencial de frenado aumenta linealmente con la frecuencia v, tal como se
observa experimentalmente y se muestra en la figura 7c, y que la pendiente de la recta es la misma
para todos los metales. De esta misma ecuación, se ve que, si la energía del fotón es menor que la fun-
ción trabajo del metal, el cátodo no emite electrones. Es decir, no se produce el efecto fotoeléctrico si
hv < f. Es decir, que existe una frecuencia de corte vc dada por:
f
vc = (62)
h
por debajo de la cual no tiene lugar el efecto fotoeléctrico.
Esta predicción del aumento lineal de la energía cinética máxima de los electrones con la fre-
cuencia de la radiación incidente fue chequeada por Millikan en 1916, en una serie de experimentos
que corroboraron la teoría de Einstein. Además, esto permitió encontrar el valor de la constante de
Planck, el cual se ajustaba con un error menor del 0,5% con el obtenido por el método de ajustar la
teoría de Planck al espectro experimental del cuerpo negro. Esta perfecta concordancia del valor de la
constante de Planck supuso un gran éxito de las teorías cuánticas.
Por último, según la teoría de Einstein, la emisión electrónica debería ser instantánea, pues, en el
proceso no tiene lugar una absorción gradual de energía por parte del electrón hasta que alcanza la
energía suficiente para abandonar el metal. Este proceso es una colisión fotón-electrón, por lo que, si
algún fotón de energía mayor que la función trabajo alcanza la superficie del cátodo, el fotón será ab-
sorbido inmediatamente por un átomo y se producirá la emisión inmediata de un electrón.
Un aspecto interesante que merece la pena resaltar es que, en el proceso fotoeléctrico, los foto-
nes son absorbidos, lo que exige que los electrones estén ligados a átomos o a un sólido, ya que un
electrón libre no podría absorber un fotón y conservar en el proceso tanto su energía relativista como
su momento. Por consiguiente, el electrón deberá estar ligado de manera que las fuerzas de ligadura
transmitan el momento al átomo o al sólido. Puesto que la masa de un átomo o de un sólido es mucho
mayor que la del electrón, aquéllos pueden absorber una gran cantidad de momento sin que se pro-
duzca una variación apreciable en la energía.

1.3. Efecto Compton


En 1923, Arthur Holly Compton (1892-1962) realizó una serie de experimentos que confirma-
ron de forma inequívoca la naturaleza corpuscular de la radiación electromagnética. El esquema del
montaje experimental utilizado se muestra en la figura 8.
Un haz de rayos X de una longitud de onda l bien definida se hace incidir sobre un blanco de gra-
fito. Compton estudió la radiación dispersada para determinar las longitudes de onda presentes en
ella, para diferentes ángulos q entre la radiación incidente y la dispersada. Mientras que la radiación
incidente tenía una longitud de onda l = 0.709 Å, observó que la radiación dispersada presentaba dos

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 411


Volumen II. Física II

máximos bien definidos: uno con longitud de onda l, igual a la longitud de la radiación incidente y
otro máximo con longitud de onda l´, mayor que la longitud de onda incidente, cuyo valor dependía
del ángulo q y alcanzaba su máximo valor para un ángulo q = 180º. Este fenómeno se denomina efec-
to Compton y se muestra en la figura 9.

Colimador
Fuente de
rayos X
Detector

Blanco
q

Figura 8. Montaje experimental para estudiar el efecto Compton.

I I

00 450

I l I l

900 1350

l l

Figura 9. Intensidad de los rayos X dispersados en el experimento de Compton,


en función de la longitud de onda y para diversos ángulos q.

1.3.1. Predicción de la teoría clásica


Veamos lo que predice la teoría electromagnética clásica sobre la dispersión de la radiación
electromagnética. Si una onda electromagnética de frecuencia
r r v incide sobre una partícula cargada,
como el electrón, ésta experimenta una fuerza dada por F = qE. Como consecuencia, el electrón osci-
lará a la misma frecuencia que la fuerza aplicada y, por consiguiente, a la misma frecuencia que la
onda electromagnética incidente.
Por otra parte, de acuerdo con la teoría de la radiación electromagnética clásica, una partícula carga-
da que se mueve en un movimiento armónico simple radia energía electromagnética de la misma frecuen-
cia que la de la oscilación de la partícula en todas las direcciones del espacio, excepto la dirección de
oscilación. Por tanto, el electrón (o la partícula cargada) absorbe energía de la radiación incidente y la
vuelve a emitir a la misma frecuencia. Por consiguiente, la teoría clásica del electromagnetismo no puede
explicar la existencia de una longitud de onda mayor (frecuencia más pequeña) en la radiación dispersada.

412 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

1.3.2. Predicción mediante la teoría corpuscular de la radiación


A. H. Compton dio una explicación de este efecto postulando que los rayos X incidentes de fre-
cuencia v se comportaban como un haz de fotones, cada uno con energía E = hv. Puesto que se obser-
vaba que la longitud de onda de la radiación dispersada era independiente del material utilizado en el
blanco, en el fenómeno de dispersión no participaban los átomos completos del material, sino que era
debida a las colisiones de los fotones con los electrones libres y casi estacionarios del blanco. De esta
manera, se tendría que los fotones chocaban con los electrones del blanco de la misma manera que lo
hacen las bolas de billar. La radiación dispersada correspondería a los fotones desviados después de
la colisión.
En principio, vamos a considerar que el fotón se comporta como una partícula que se mueve a la
velocidad c, caracterizado por una energía E y un momento p. Ahora bien, esta partícula relativista
tiene unas características muy especiales. Puesto que el fotón se mueve a la velocidad de la luz c, se
tiene que la masa en reposo del electrón m0 es cero:

u2
m0 = m 1– =0 (63)
c2

Por otro lado, la energía en reposo del fotón también ha de ser cero:
2
E0 = m0c = 0 (64)

Es decir, el fotón es una partícula relativista masa en reposo cero y energía en reposo cero. Por tanto,
el fotón no puede existir en reposo y sólo existe cuando se mueve a la velocidad de la luz c. El mo-
mento del fotón puede calcularse a partir de la relación general entre la energía relativista, el momen-
to y la energía en reposo:
E 2 = E 02 + p 2 c 2 (65)

Por tanto, el momento del fotón vendrá dado por:


E hv h
p= = = (66)
c c l
en donde hemos tenido en cuenta la relación entre la frecuencia y la longitud de onda dada por l = c/v.
Analicemos, a continuación, la
colisión de un fotón con un electrón
y y
del blanco que consideraremos esta- l´
cionario. En la figura 10 se muestra
un fotón de energía relativista total E hv´
hv
y momento p que incide sobre un q
electrón de masa en reposo m0 y ener- e x f x
l
gía en reposo m0c2. Después de la co- e
lisión, el fotón resulta dispersado y se
mueve en una dirección que forma un
ángulo q con la dirección incidente,
siendo su energía E´ y su momento
p´. Por su parte, el electrón se moverá Figura 10. Dispersión de los rayos X en el experimento
en una dirección f con una energía de Compton. Un fotón colisiona con un electrón estacionario
cinética K y un momento pe. del blanco.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 413


Volumen II. Física II

Del principio de conservación del momento, se tiene que:


p = p´ cos q + pe cos f (67)
y
0 = p´ sen q – pe sen f (68)

Elevando al cuadrado ambas expresiones, se tiene que:


( p – p' cos q ) 2 = p e2 cos 2 f (69)
y
p' 2sen 2 q = p e2sen 2 f (70)

Sumando ambas expresiones, obtenemos que:


p 2 + p' 2 – 2 pp' cos q = p e2 (71)

La conservación de la energía total relativista implica que:


2 2
E + m0c = E´ + K + m0c (72)
de modo que:
E – E´ = K (73)

Si tenemos en cuenta ahora la relación (66) entre la energía del fotón y el momento, la expresión ante-
rior se puede escribir como:
c(p – p´) = K (74)

Para encontrar una relación entre la energía cinética del electrón y el momento del electrón, utilizare-
mos la ecuación (65):
( K + m0 c 2 ) 2 = p e2 c 2 + m02 c 4 (75)
en donde el primer miembro corresponde a la energía total relativista del electrón, que es la suma de
la energía cinética y la energía en reposo. Desarrollando el cuadrado y despejando, nos queda que:
K2
+ 2Km0 = p e2 (76)
c2

Sustituyendo ahora en esta expresión los resultados encontrados en (71) y (74), obtenemos que:
( p – p' ) 2 + 2m0 c( p – p' ) = p 2 + p' 2 – 2 pp' cos q (77)
que se reduce a:
m0 c( p – p' ) = pp' (1– cos q ) (78)
o lo que es lo mismo:
1 1 1
– = (1– cos q ) (79)
p' p m0 c

414 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Si multiplicamos ambos miembros por h, y teniendo en cuenta de nuevo lo ecuación (66), se tiene fi-
nalmente que:
h
l' – l = (1– cos q ) (80)
m0 c

A la cantidad:
h
lC = (81)
m0 c

se le denomina longitud de onda de Compton del electrón, pues la partícula dispersora de la radiación
es el electrón.
La ecuación (80) se denominada ecuación de Compton y predice que el aumento de la longitud
de onda de la radiación electromagnética dispersada Dl = l´ – l, denominada corrimiento Compton,
depende exclusivamente del ángulo de dispersión q y de la constante universal denominada longitud
de onda de Compton, y no de la longitud de onda incidente. El valor de este corrimiento Compton va
desde cero, para q = 0, hasta el valor máximo, para q = 180º:
2h
Dl max = = 0.049 Å (82)
m0 c

Este resultado explica el valor de la longitud de onda correspondiente al pico observado por Compton
en el experimento.
Por último, queda explicar el pico de intensidad de la radiación dispersada que corresponde a una
longitud de onda igual a la de la radiación incidente. En el estudio realizado anteriormente, hemos con-
siderado que el fotón colisiona con un electrón libre. Esta suposición es válida incluso si el electrón está
ligado, pero la energía cinética que adquiere es mucho mayor que su energía de enlace. Pero si el elec-
trón está fuertemente ligado a un átomo del blanco, o si la energía del fotón incidente es muy pequeña,
existe una posibilidad de que el electrón no sea expulsado del átomo y, en este caso, podemos suponer
que la colisión tiene lugar entre el fotón y el átomo completo. Entonces, el único cambio que hay que
hacer en el estudio anterior es sustituir en la ecuación de Compton la masa m0 en reposo del electrón por
la masa de todo el átomo M0. Puesto que la masa de los átomos es mucho mayor que la masa del elec-
trón, por lo general del orden de 104, esto implica que el corrimiento Compton, debido a la dispersión
por los electrones fuertemente enlazados, es despreciable y la longitud de onda del pico de intensidad
corresponde a la longitud de onda de la radiación incidente. Por ejemplo, si el blanco es grafito, se tiene
que M0 • 24000 m0, por lo que de la expresión (82), sustituyendo m0 por M0, se tiene que:
2h 2h 0.049
Dl max = = = • 2 ´ 10–6 Å (83)
M 0 c 24000m0 c 24000

Este corrimiento de la longitud de onda del fotón incidente es prácticamente inapreciable, por lo
que el fotón dispersado tiene la misma longitud de onda que el incidente. A este fenómeno de disper-
sión en el que no se modifica la longitud de onda de la radiación incidente se le denomina dispersión
de Thomson.
En resumen, cuando sobre el blanco inciden rayos X, se tiene que:
– Algunos de los fotones son dispersados por electrones libres o débilmente ligados a los áto-
mos del blanco, que, a su vez, son liberados por la colisión. Estos fotones modifican su lon-
gitud de onda y su valor viene dado por la ecuación de Compton.
– Otros fotones son dispersados por electrones fuertemente ligados a los átomos del blanco, los
cuales permanecen ligados durante la colisión. Estos fotones no cambian su longitud de onda.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 415


Volumen II. Física II

Es importante señalar que, cuando la radiación incidente corresponde a la zona del espectro del
visible, las microondas o las ondas de radio, la longitud de onda es mucho más grande que el corri-
miento Compton. Por lo tanto, la longitud de onda de la radiación dispersada es la misma que la de la
radiación incidente dentro de los límites de la precisión experimental. Es decir, cuando la longitud de
onda es grande, los resultados de la teoría clásica y la teoría cuántica coinciden. Sin embargo, confor-
me la longitud de onda se hace más pequeña, el efecto Compton se hace patente, siendo cada vez más
importante. Así, en la región de los rayos g, la dispersión de Compton es la dispersión dominate. En
este caso, la física clásica no puede explicar los resultados experimentales.
En el estudio del espectro de la radiación del cuerpo negro, hemos visto que la física clásica no
explica los resultados experimentales en la región de las longitudes de onda corta, discrepancia que,
como dijimos, recibe el nombre de catástrofe ultravioleta, poniendo así de manifiesto el gran fallo de
las ideas de la física clásica para explicar este fenómeno. También hemos visto en el estudio del efec-
to Compton que la física clásica vuelve a fallar en la explicación de la aparición del segundo pico de
intensidad, efecto que es apreciable en la zona del espectro de longitudes de onda muy corta. Esto
puede comprenderse por el valor tan pequeño del valor de la constante de Planck. Para longitudes de
onda larga, la frecuencia es pequeña y también lo es la cantidad hv, que determina la separación entre
los niveles de energía y el valor de los cuantos de energía. Por consiguiente, no se comete ningún
error apreciable si se considera, como lo hace la física clásica, que la energía es continua. Sin embar-
go, si la longitud de onda es pequeña, la frecuencia es grande y el valor de la constate de Planck no es
lo suficientemente pequeño como para que hv también lo sea. En este caso, el valor de hv es aprecia-
ble y los efectos cuánticos son importantes.

1.4. Modelo atómico de Bohr


Los experimentos realizados por Geiger y Marsden en 1908 sobre dispersión de partículas a por
láminas metálicas delgadas mostraron que algunas partículas eran dispersadas en ángulos muy gran-
des que eran totalmente inconsistentes con el modelo atómico de J.J. Thomson, en el que los electro-
nes se encontraban inmersos en una distribución continua de carga positiva.
Tomando como base estos resultados, Rutherford propuso un nuevo modelo en el que toda la car-
ga positiva, y con ella prácticamente toda la masa del átomo, estaba concentrada en una pequeña región,
comparada con el tamaño del átomo, denominada núcleo. Los electrones se ven atraídos por el núcleo
con una fuerza inversamente proporcional al cuadrado de la distancia y se mueven alrededor de éste en
órbitas, como los planetas lo hacen alrededor del Sol. Este modelo explicaba cuantitativamente la dis-
persión de partículas a, sin embargo, se enfrentaba con dos dificultades insuperables. La primera de
ellas consistía en que era incapaz de explicar el espectro de emisión de los átomos del que se había con-
firmado experimentalmente que correspondía a longitudes de ondas dada por la relación empírica:
1 1 1
= RH ( 2 – 2 ) (84)
l n' n

Esta expresión se conoce como fórmula de Rydberg, y en ella n´ y n son números enteros y RH se de-
nomina constante de Rydberg y tiene el valor:
–1
RH = 109677.5810 cm (85)

La segunda dificultad con la que se encontraba el modelo de Rutherford era su falta de explica-
ción sobre la aparente inestabilidad de los átomos: si un electrón se movía alrededor del núcleo en ór-
bitas circulares o elípticas se encuentra acelerado, por lo que, según la teoría clásica, debería radiar
energía. Esta pérdida continua de energía conduciría al colapso del átomo, con los electrones sobre el
núcleo, como el modelo de Thomson.

416 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

En 1913, Niels Bohr propuso una serie de postulados que rompían drásticasmente con la teoría
clásica y permitían explicar la estructura del espectro de emisión atómico. Por otro lado, estos postu-
lados sorteaban la cuestión de la estabilidad atómica. A continuación vamos a estudiar en más detalle
este modelo atómico propuesto por Bohr.

1.4.1. Postulados de Bohr


En 1913 Niels Bohr propuso un modelo que solventaba los dos problemas con los que se enfrenta-
ba el modelo de Rutherford, inestabilidad de los átomos y espectro continuo, y a su vez concordaba
cuantitativamente con algunos datos espectroscópicos, en concreto con los del átomo de hidrógeno. Al
igual que Rutherford, Bohr supuso que los electrones se mueven alrededor del núcleo en órbitas de ra-
dio r con velocidad u, de forma semejante a como los planetas se mueven alrededor del sol. Ahora bien,
con el objeto de evitar la discrepancia con las leyes de la física clásica Bohr formuló tres postulados so-
bre el comportamiento de los electrones en los átomos que se apartaban de la visión clásica y que supu-
sieron un paso importantísimo hacia la mecánica cuántica. Estos postulados eran los siguientes:
1. De la infinidad de órbitas con radios diferentes que permite la mecánica clásica, el electrón sólo
puede moverse en aquellas en las que el momento angular L es un múltiplo entero de la constante
de Planck dividida por 2p. Es decir:
L = mur = nh n = 1, 2, 3... (86)
en donde h = h / 2p.
2. Contrariamente a las predicciones de la teoría electromagnética clásica, un electrón se mueve en
una órbita permitida sin radiar energía electromagnética. De esta manera, su energía total per-
manece constante.
3. La emisión de energía electromagnética se produce cuando un electrón, que se encuentra en una
órbita de energía Ei, cambia su movimiento hasta moverse en una órbita de menor energía Ef. La
frecuencia v de la radiación emitida es igual a la diferencia de energías de las órbitas (Ei – Ef) di-
vidida por la constante de Planck h:
Ei – E f
v= (87)
h

El primer postulado de Bohr introduce la idea de cuantización utilizada por primera vez por
Planck. Pero a diferencia de éste, que introduce la idea de que los valores de la energía total de un os-
cilador armónico toma valores discretos, es decir, la cuantización de la energía, Bohr introduce la
idea de cuantización del momento angular orbital de un electrón que se mueve bajo la acción de una
fuerza culombiana.
El segundo postulado introducido por Bohr es necesario para evitar el problema de la inestabili-
dad atómica que predice la teoría electromagnética clásica. Este postulado se basa en el hecho experi-
mental de que los átomos son estables aunque la teoría clásica no pueda explicar dicha estabilidad.
Más concretamente, Bohr postula que la radiación de energía por parte de las partículas aceleradas es
válida a escala macroscópica pero no es aplicable al mundo microscópico.
Por último, el tercer postulado se basa en el concepto de fotón introducido por Einstein junto con
la conservación de la energía. Si la luz está compuesta de fotones de energía hv, la emisión por parte
del átomo de un fotón debe suponer una pérdida de energía igual a la energía del fotón emitido. Es de-
cir, Ei – Ef = hv.
Como vemos, los postulados de Bohr son una mezcla de las ideas de la física clásica con las nue-
vas ideas de cuantización surgidas a principio del siglo XX. Por un lado, el electrón se mueve en una

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 417


Volumen II. Física II

órbita circular y obedece a la mecánica clásica, pero, por otro, la órbita permitida debe satisfacer la
condición de cuantización del momento angular orbital. Por otro lado, el electrón obedece a una ley
del electromagnetismo clásico como es la ley de Coulomb, pero por el contrario no cumple el resulta-
do clásico de radiación de energía por parte de una carga acelerada. En definitiva, estos postulados es-
tablecen que las leyes de la física clásica, que son válidas para los sistemas a escala macroscópica,
dejan de ser completamente válidas en el mundo de los sistemas microscópicos.

1.4.2. Espectro energético del átomo de Bohr


En este apartado vamos a utilizar los postulados de Bohr para estudiar átomos con un solo elec-
trón. Obtendremos así una serie de resultados que contrastaremos con los obtenidos experimental-
mente. Esto nos permitirá estimar la validez de dicho modelo.
Consideremos un átomo compuesto de un núcleo de carga +Ze y masa M y un solo electrón de car-
ga –e y de masa m. Este modelo puede representar, por ejemplo, a un átomo de hidrógeno (H, Z = 1), a
un átomo de helio ionizado (He+ Z = 2), o un átomo de litio doblemente ionizado (Li++ Z = 3). Según el
modelo de Bohr, los electrones se mueven con velocidad u en órbitas circulares de radio r alrededor del
núcleo. Suponiendo válida la ley de Coulomb, el núcleo atómico ejerce una fuerza de atracción sobre el
electrón de módulo igual a:
1 Ze 2
F= (88)
4pe 0 r 2

Por otro lado, el electrón describe una trayectoria circular de radio r alrededor del núcleo, por lo que
la aceleración centrípeta vendrá dada por:
u2
a= (89)
r

Por tanto, la aplicación de la segunda ley de Newton al movimiento de electrones nos da:
1 Ze 2 u2
= m = mwr (90)
4pe 0 r 2 r

Por otro lado, según el primer postulado de Bohr, el impulso angular del electrón está cuantizado y
sólo están permitidas aquellas órbitas en las que se satisfaga la condición dada por (86). De esta ex-
presión se tiene que:
nh
un = (91)
mr

Sustituyendo esta expresión en la ecuación (90), y despejando r, obtenemos para el radio de la órbita:
n2h2
rn = 4pe 0 n = 1, 2, 3... (92)
mZe 2

Llevando este resultado a la expresión (91), obtenemos para la velocidad del electrón alrededor del
núcleo:
1 Ze 2
un = n = 1, 2, 3... (93)
4pe 0 nh

418 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Podemos utilizar la expresión (92) para predecir el radio del átomo de hidrógeno. Haciendo Z = 1 y
n = 1 en esta expresión obtenemos que el radio más pequeño del átomo de hidrógeno viene dado por:
h2
r1 = 4pe 0 (94)
me 2

Este valor mínimo del radio del átomo de hidrógeno se denomina radio de Bohr y se designa por a0.
Sustituyendo en la expresión anterior los valores de la carga de electrón e = 1.6 ´ 10–19 C, de su masa
m = 9.1 ´ 10–31 kg, de la permitividad del vacío e0 = 8.85 ´ 10–12 C2 N–1 m–2, y el valor de la constan-
te de Planck h = 6.626 ´ 10–34 J · s, obtenemos para el radio de Bohr:
h2
a 0 = 4pe 0 = 0.529´10–10 m = 0.529 Å (95)
me 2

Puesto que el hidrógeno tiene su energía mínima cuando el electrón se encuentra en un estado n = 1,
el radio de Bohr representa el radio del átomo de hidrógeno en su estado fundamental. Este resulta-
do concuerda con el tamaño del átomo de hidrógeno determinado experimentalmente.
Podemos escribir los radios de las órbitas permitidas en función del radio de Bohr si sustituimos
la ecuación (95) en (92):
2
rn = n a0 (96)

Es decir, que sólo están permitidas las órbitas de radio igual a:


r = a0, 4a0 9a0 16a0... (97)

Por otra parte, la velocidad del electrón en su órbita alrededor del núcleo puede ser evaluada uti-
lizando la expresión (93). Así, en su órbita más pequeña (n = 1), se tiene que esta velocidad es:
6 –1
u = 2.2 ´ 10 m · s (98)

Como vemos, esta velocidad, que es la máxima que puede tener un electrón en el átomo de hidrógeno,
es mucho más pequeña que la velocidad de la luz, por lo que está justificado que en el modelo atómico
de Bohr utilicemos las ecuaciones de la mecánica clásica en vez de las de la mecánica relativista.
Calculemos ahora la energía total de un electrón en un átomo de hidrógeno. Esta energía será la
suma de la energía cinética y de la energía potencial:
En = Kn + Un (99)

La energía cinética, haciendo uso de las ecuaciones de la mecánica clásica y de la expresión (90), vie-
ne dada por:
1 1 Ze 2
K n = mu n2 = (100)
2 8pe 0 r

Tomando el origen de energía potencial en el infinito, la energía potencial del electrón vendrá dada
por:
r r r 1 Ze 2 1 Ze 2
U n = – ò¥ F ×dr = ò¥
r
dr = – (101)
4pe 0 r 2 4pe 0 r

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 419


Volumen II. Física II

Por tanto, sustituyendo las expresiones (100) y (101) en (99) la energía total del electrón vendrá dada
por:
1 Ze 2
En = – (102)
8pe 0 r

Y sustituyendo la expresión de r dada por (92) se tiene que:

mZ 2 e 4 1
En = – n = 1, 2, 3... (103)
( 4pe 0 ) 2h n 2
2 2

La expresión (103) indica que el modelo de Bohr restringe los valores que puede tener la energía del
átomo; es decir, que la energía del átomo está cuantizada y, por tanto, su espectro energético es discreto.
La energía más baja del átomo se obtiene para el valor más pequeño del número cuántico n = 1, y con-
forme aumenta éste la energía tiende a cero.
Puesto que un sistema físico tiende a situarse en el estado de energía más bajo posible, el cual co-
rresponde a la configuración más estable del sistema, al estado que corresponde a la mínima energía
del átomo se le denomina estado fundamental, y se obtiene cuando n = 1. En el caso del átomo de hi-
drógeno Z = 1, esta energía del estado fundamental corresponde a:
–18
E1 = –2.17 ´ 10 J = –13.59 eV (104)

Los estados con valores de n ¹ 1 se denominan estados excitados. En la figura 11 se muestra, esque-
máticamente, el espectro discreto para el átomo de hidrógeno y los valores de la energía correspon-
diente a sus niveles más bajos.

n=¥ 0 eV
n=4 –0.85 eV
n=3 –0.51 eV
n=2 –3.39 eV

Figura 11. Algunos de los niveles


discretos de energía para el átomo de
hidrógeno, de acuerdo con el modelo de
Bohr. Entre el nivel n = 4 y n = ¥ existe
un conjunto infinito de niveles muy cerca
n=1 –13.59 eV uno de otro.

Para ionizar el átomo de hidrógeno, es decir, para separar un electrón del núcleo (r = ¥) es necesa-
rio suministrarle una energía igual a 13.59 eV, valor que concuerda con los obtenidos experimental-
mente. Una vez que el átomo se encuentra ionizado puede captar un electrón en una órbita permitida
cercana al núcleo. Este proceso puede realizarse en un solo paso, es decir, que el electrón pase al estado
fundamental, o bien mediante pasos intermedios en los que el electrón cae a uno o más estados excita-
dos. En cada una de estas transiciones electrónicas el átomo pierde una cierta cantidad de energía que es
radiada en forma de radiación electromagnética mediante la emisión de un fotón. La energía y la fre-
cuencia del fotón emitido dependerá de la energía perdida por el átomo, y, por tanto, dependerá de la
energía del estado inicial y del estado final después de la transición. Puesto que los valores de estas
energías no son continuos, se obtiene que el espectro de la radiación emitida por el átomo debe ser un
espectro discreto tal y como se obtiene en los experimentos.
En un típico experimento espectroscópico se produce una descarga en el seno de un gas, lo que
produce la ionización de sus átomos. Puesto que el número de átomos ionizados es muy elevado, tam-

420 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

bién lo será el número de transiciones electrónicas. En consecuencia, es lógico que en este tipo de expe-
rimentos se observen todas las longitudes de onda correspondientes a todas las transiciones electrónicas
posibles. A continuación vamos a calcular dichas longitudes de onda.
Supongamos que un electrón experimenta una transición desde un estado cuántico inicial carac-
terizado por ni hasta un estado cuántico final nf. Según el tercer postulado de Bohr la frecuencia del
fotón emitido viene dada por:
Ei – E f
v= (105)
h

Teniendo en cuenta la expresión de la energía dada por (103), esta frecuencia es igual a:
æ 1 ö2 mZ 2 e 4 æ
ç1 – 1÷
ö
v =ç
ç
÷
÷ 3 ç 2 2 ÷
(106)
è 4pe 0 ø 4ph è n f n i ø

Puesto que l = c/v, la expresión anterior la podemos poner en función del recíproco de la longitud de
onda como:

1 æ 1 ö mZ 2 e 4 æ ö
2
ç
=ç ÷ ç1 – 1÷
÷ (107)
l è 4pe 0 ø 4ph 3 c ç 2 2 ÷
è n f ni ø

Expresión que podemos escribir de forma más compacta como:


æ1 1ö
= R¥ Z 2ç ÷
1
ç – 2 ÷
(108)
l 2
èn f n f ø

en donde:
æ 1 ö2 me 4
R¥ =ç
ç
÷
÷ (109)
è 4pe 0 ø 4ph c
3

Vemos que la predicción del modelo de Bohr sobre las longitudes de onda de la radiación emitida
por el átomo de hidrógeno (108) es similar a la expresión obtenida experimentalmente dada por la fór-
mula de Rydberg (84). Ambas expresiones serán iguales si el valor de R¥ y la constante de Rydberg RH
coinciden y si también lo hacen los números enteros que aparecen en ambas expresiones. Aunque en su
época no se conocían con exactitud los valores de algunas de las constantes que intervienen en la expre-
sión de R¥, Bohr hizo una estimación del valor de esta constante encontrando que coincidía razonable-
mente bien con el valor de la constante de Rydberg. Con los valores aceptados hoy en día para las
constantes e, m, c y h se obtiene que:

R¥ • 109740 cm
–1
(110)

En cuanto a lo que se refiere a la coincidencia de los valores de los enteros que aparecen en las
expresiones (108) y (84), si consideramos las transiciones electrónicas cuyo estado final es el estado
fundamental nf = 1, el estado inicial puede ser cualquier estado excitado; es decir, ni = 2, 3, 4... Estos
valores corresponden a los valores de los enteros que aparecen en la fórmula de Rydberg para la serie
de Lyman. Si el estado final de las transiciones electrónicas es el primer estado excitado nf = 2, el esta-
do inicial puede ser un estado excitado de mayor energía; es decir, ni = 3, 4, 5... Por tanto, estas transi-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 421


Volumen II. Física II

ciones corresponden a los valores obtenidos en la serie de Balmer. Las demás series experimentales
pueden explicarse de forma análoga considerando las transiciones electrónicas cuyos estados finales
son el segundo estado excitado (nf = 3, serie de Paschen), el tercer estado excitado (nf = 4, serie de
Paschen) y el cuarto estado excitado (nf = 5, serie de Pfund). En la figura 12 se muestran, de forma es-
quemática, las transiciones electrónicas que dan lugar a dichas series.

n=¥

n=4
n=3
Paschen Bracket
n=2
Balmer

Figura 12. Transiciones electrónicas


responsables de algunas de las
longitudes de onda en cada una de
n=1 las series espectrales del átomo de
Lyman
hidrógeno.

La teoría atómica de Bohr supuso un gran éxito no sólo por la explicación de las observaciones
experimentales del espectro atómico del hidrógeno conocido hasta el momento, series de Balmer y
Paschen, sino también porque predijo las series de Lyman, Brackett y Pfund no observadas hasta ese
momento y posteriormente descubiertas. Además, la teoría de Bohr resultó exitosa en la explicación
de los átomos de un solo electrón y con un número Z = 2, como el helio ionizado. Experimentalmente
se encontró que el espectro del He+ es similar al espectro del átomo de hidrógeno pero con los valores
de 1/l multiplicados por un factor aproximadamente igual a cuatro. Resultado que, según la expre-
sión (108), es precisamente el predicho por la teoría de Bohr.
La teoría de Bohr también explica el espectro de absorción de los átomos con un electrón. Tal
como hemos visto, la energía de electrón está cuantizada y sólo puede tomar algunos valores determi-
nados dados por (99). Por tanto, electrón sólo puede absorber cantidades discretas de la radiación in-
cidente. Esta radiación puede suponerse compuesta por un haz de fotones de energía E = hv, de los
cuales el electrón sólo absorberá aquellos cuya energía corresponda a una diferencia de energía entre
dos niveles. Puesto que, por regla general, el átomo se encuentra en su estado fundamental (ni = 1),
sólo se observarán líneas en el espectro de absorción correspondientes a la serie de Lyman. A tempe-
raturas muy elevadas, las colisiones atómicas pueden dar lugar a que algunos átomos se encuentren
en el primer estado excitado (ni = 2), por lo que podrán absorber fotones cuya longitud de onda co-
rresponde a las líneas espectrales de la serie de Balmer.
Los valores de la constante de Rydberg RH (85), determinada experimentalmente, y de la cons-
tante teórica R¥ (110) no coinciden exactamente, sino que presentan una diferencia de 60 cm–1 apro-
ximadamente. Esta discrepancia es debida a que en el estudio que hemos realizado anteriormente
hemos supuesto que la masa del núcleo atómico era infinitamente más grande que la masa del elec-
trón, de manera que el núcleo permanece fijo en el espacio. De la mecánica sabemos que un sistema
de dos cuerpos de masa m y M a una distancia r uno del otro, se mueven alrededor del centro de masa
del sistema. Si el centro de masa está en reposo, la energía total del sistema es igual a la de una partí-
cula ficticia que orbita alrededor del centro de masa a la distancia r y que tiene una masa, denominada
masa reducida m, dada por:
mM
m= (111)
m+ M

422 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Por consiguiente, en los cálculos anteriores debemos sustituir la masa del electrón por la masa re-
ducida del sistema núcleo-electrón. Haciendo esto, obtenemos que las longitudes de onda de la
radiación emitida en las transiciones electrónicas, deducida de la teoría de Bohr, vienen dadas
por:
æ1 1ö
= R M Z 2ç – 2÷
1
ç ÷ (112)
l 2
èn f n f ø

en donde:
M
RM = R (113)
m+ M ¥

siendo m y M las masas del electrón y del núcleo, respectivamente.


La cantidad RM es la constante de Rydberg para un núcleo atómico de masa M, mientras que R¥
es la constante para un núcleo de masa infinita. En el caso de hidrógeno, utilizando los resultados de
R¥ dados por (110) y la relación M/m = 1836, se tiene que:

RM • 109680 cm
–1
(114)

Comparando este valor con el obtenido experimentalmente para la constante de Rydberg dado por
(85) vemos que la diferencia es de menos de 3 partes de 100000.

2. MECÁNICA CUÁNTICA
La introducción de los postulados de cuantización permitieron explicar hechos experimen-
tales como la radiación del cuerpo negro, el efecto fotoeléctrico o el átomo de hidrógeno. Todas
estas teorías constituyen lo que hoy llamamos vieja teoría cuántica. No obstante, y a pesar de sus
éxitos innegables, esta teoría presenta ciertas deficiencias en cuanto a su ámbito de aplicabilidad
(sistemas no periódicos o átomos multielectrónicos) y también ciertas limitaciones en lo que se
refiere a la explicación de algunos aspectos parciales de las observaciones (intensidad de las lí-
neas espectrales, etc.). Por otro lado, esta teoría no constituye en sí una teoría unificada o general,
sino que aplica ad hoc ciertas hipótesis que son válidas para la explicación de algunos fenóme-
nos. De esta manera, podemos encontrar ciertas incongruencias, como el asignar a una partícula
una trayectoria bien definida, cuando, por ejemplo, el principio de incertidumbre no permite es-
tas suposiciones. Todas estas cuestiones hacen de la teoría cuántica antigua una teoría intelec-
tualmente insatisfactoria.
Durante el primer tercio del siglo XX, surgieron nuevas ideas que constituyeron la base concep-
tual de una nueva teoría física: la mecánica cuántica. Aunque tremendamente controvertida en cuanto
a sus fundamentos filosóficos, esta teoría se ha revelado como una herramienta tremendamente pode-
rosa para el estudio y la predicción de fenómenos microscópicos. Así, por ejemplo, ha permitido
comprender en detalle las propiedades de los átomos, los cuales, a su vez, son la base de la química y
de la física del estado sólido.
En este apartado, vamos a estudiar los principios fundamentales de la mecánica cuántica,
como son el postulado de De Broglie y el principio de incertidumbre de Heisenberg, y estudiare-
mos las bases de la teoría cuántica moderna en la formulación de la mecánica ondulatoria de
Schrödinger.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 423


Volumen II. Física II

2.1. Principios fundamentales de la mecánica cuántica


El desarrollo de la mecánica cuántica como una teoría física que permitiera entender los fenó-
menos a nivel microscópico se inició con la idea presentada por De Broglie que sugería que la natura-
leza dual onda-partícula de la radiación electromagnética debía tener su homólogo en una naturaleza
dual onda-partícula de la materia. La interpretación probabilística de la función de estas ondas de ma-
teria supuso un ataque a uno de los principios fundamentales de la física clásica, como era el concepto
de determinismo. Esto dio lugar a otro de los principios fundamentales de la mecánica cuántica: el
principio de incertidumbre de Heisenberg.
A continuación, vamos a exponer estos dos principios, los cuales constituyen las piedras angula-
res de la mecánica cuántica.

2.1.1. Hipótesis de De Broglie


Desde el punto de vista de la física clásica, y tal como se vio en el tema 27, en donde estudiamos
los fenómenos de interferencia y difracción de la luz, la radiación electromagnética es un fenómeno
de propagación ondulatoria. Sin embargo, cuando estudiamos la interacción de la radiación con la
materia, como en el efecto fotoeléctrico y el efecto Compton, éstos sólo pueden explicarse si se asu-
me que la radiación electromagnética está compuesta de cuasi-partículas denominadas fotones. Por
consiguiente, debemos considerar que la radiación electromagnética tiene propiedades duales: cuan-
do consideramos la forma en que se propaga, se revela su naturaleza ondulatoria, mientras que, si es-
tudiamos su interacción con la materia, se pone de manifiesto su naturaleza corpuscular.
Este comportamiento observado para la radiación electromagnética llevó a Louis de Broglie a
asumir la existencia de una simetría en la naturaleza y a proponer que el comportamiento dual mostra-
do por la radiación debería aplicarse a cualquier partícula material. En su tesis doctoral presentada en
1924, de Broglie postuló que:
El movimiento de una partícula está regido por la propagación ondulatoria de una onda
piloto u onda de materia cuya longitud de onda l y frecuencia n están relacionadas con el mo-
mento de la partícula p y su energía E de la forma:
h
l= (115)
p
E
v= (116)
h

Sin duda alguna, la hipótesis de De Broglie era una de las ideas más originales introducidas en el cam-
po de la física. No obstante, fue considerada como una idea al margen de la realidad física por la falta
de evidencia experimental. Pocos años después, se produjo la confirmación experimental de la idea
de de Broglie, lo que supuso que éste fuese galardonando con el premio Nobel de Física.

2.1.1.1. Confirmación experimental de la hipótesis de De Broglie


La confirmación experimental de la hipótesis de De Broglie debe consistir en poner de manifies-
to que un haz de partículas presenta propiedades ondulatorias y produce fenómenos típicos de las on-
das como interferencia y difracción. Ahora bien, es bien conocido según la óptica física que, para que
se produzcan este tipo de patrones en un experimento, es necesario que la longitud de onda sea del or-
den de las dimensiones del obstáculo o abertura que produce la difracción o la interferencia. Haga-
mos, a continuación, un cálculo de la posibilidad de hacer tales experimentos. Consideremos una

424 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

pelota de tenis que se desplaza a una velocidad de 30 m/s y de masa 100 g. Según el postulado de de
Broglie, la longitud de onda de la onda de materia asociada será:
h 6.626´10–34 J×s
l= = = 2.2´10–34 m = 2.2´10–24 Å (117)
p 0.1kg ´ 30 m / s

Por tanto, las dimensiones del dispositivo experimental debe ser 24 órdenes de magnitud menor
que el diámetro de un átomo. Por lo que es completamente imposible detectar un comportamiento
ondulatorio en el movimiento de una pelota de tenis. Las separaciones entre objetos más pequeños
que podemos encontrar en la naturaleza y que pueden utilizarse para realizar experimentos de di-
fracción son las distancias de separación entre átomos en las redes de los sólidos cristalinos, las
cuales son del orden de unos pocos angstroms. En consecuencia, si queremos tener éxito con este
tipo de experimentos para detectar la naturaleza ondulatoria de las partículas materiales, debemos
utilizar partículas cuya longitud de onda de De Broglie sea de ese mismo orden. De acuerdo con la
expresión (115), esto será así si el momento de la partícula es pequeño, condición que se puede sa-
tisfacer si la masa de la partícula es pequeña como es el caso de los electrones. Esta idea fue presen-
tada por Elasser en 1926, quien propuso que la naturaleza ondulatoria de la materia podía
comprobarse experimentalmente de la misma forma que se había probado la naturaleza de los rayos
X. Para ello, bastaría hacer incidir un haz de electrones con la energía apropiada sobre un sólido
cristalino. En este caso, los átomos del cristal se comportarían como una red de difracción tridi-
mensional y deberían dispersar los electrones en ciertas direcciones características, de igual forma
que ocurría con los rayos X. Esta idea fue llevada a la práctica por Davisson y Germer, en Estados
Unidos, y por G. P. Thomson, en Escocia.
En 1927, C. J. Davisson y L. H. Germer llevaron a cabo su experimento con una disposición ex-
perimental como la mostrada de forma esquemática en la figura 13. Los electrones producidos por un
filamento caliente eran acelerados por un potencial variable V y salían por un pequeño orificio del
ánodo con energía cinética eV. El haz se hace incidir sobre un cristal de níquel y se mide su intensi-
dad, dispersado éste a diferentes ángulos f respecto del haz incidente y para diferentes valores de V.

Filamento
e q f
V q

Ánodo
f Detector

Cristal

Figura 13. Esquema del montaje utilizado por Davisson y


Germer en su experimento.

Si el haz se comportase como un conjunto de partículas, se esperaría que la intensidad del haz
dispersado mostrase una suave dependencia monótona con V y con f, debido a las colisiones elásti-
cas de los electrones con los átomos del cristal. Los planos del cristal se comportarían como paredes,
de manera que los electrones saldrían con un ángulo de reflexión aproximadamente igual al de inci-
dencia. En consecuencia, para cualquier ángulo de incidencia, se tendría que el número de partículas
que emergen en un ángulo igual al de incidencia sería el mismo y, además, sería independiente de la
velocidad de los electrones y, por tanto, del potencial de aceleración V. Por el contrario, si los electro-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 425


Volumen II. Física II

nes se comportan como una onda, entonces se esperaría un patrón de difracción como el observado
para los rayos X. En este caso, se debería satisfacer la condición de difracción de Bragg:
nl = 2d sen q (118)

La distancia entre los planos atómicos podía calcularse mediante experimentos de difracción de rayos
X y resultaba ser d = 0,91 Å. Por otra parte, de los experimentos con rayos X de longitud de onda l =
1,65 Å se obtenía que el ángulo q = 65º. Por tanto, de la figura, se tiene que el ángulo f = 50º. Davisson
y Germer dispusieron el equipo experimental con el detector situado a ese mismo ángulo y midieron la
intensidad del haz dispersado para distintos valores de V. Encontraron que cuando V= 54 V, se tenía un
máximo en la intensidad (figura 14). A partir de este resultado, calcularon la longitud de onda de los
electrones según la hipótesis de De Broglie. El resultado es el siguiente.

I
f = 50º

Figura 14. Intensidad de los electrones


dispersados en el experimento de
Davisson-Germer, para un ángulo f = 50, en
V = 54 V V función de V.

La energía cinética de los electrones incidente es:


1 p2
K = mu 2 = (119)
2 2m

Por tanto, teniendo en cuenta que K = eV, el momento de los electrones vendrá dado por:
p = 2meV (120)

Sustituyendo esta relación en la expresión (115), se tiene que la longitud de onda de De Broglie de los
electrones es:
h h
l= = (121)
p 2meV

Sustituyendo los valores numéricos de las constantes que aparecen en la expresión y el valor experi-
mental encontrado para el potencial de aceleración de los electrones V = 54 V, se tiene que:
l = 1,67 Å (122)

El acuerdo entre la longitud de onda predicha por De Broglie para los electrones de esta energía
y el valor de la longitud de onda para los rayos X difractados resultó ser excelente. Por consiguiente,
este experimento confirmaba la hipótesis de de Broglie que las partículas tienen propiedades ondula-
torias, siendo la relación entre la longitud de onda y el momento de la partícula la dada por (115).
Después del experimento de Davisson y Germer, otros muchos físicos encontraron evidencias
experimentales del comportamiento ondulatorio de la materia. Así, Estermann, Stern y Frisch reali-

426 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

zaron experimentos sobre la difracción por cristales de litio de haces de átomos de hidrógeno y helio;
y Fermi, Marshall y Zinn realizaron experimentos similares con neutrones lentos. Hoy en día, la exis-
tencia de las ondas de materia descansa en bases experimentales sólidas, siendo, además, la difrac-
ción de electrones y neutrones una de las técnicas más comúnmente utilizadas en el estudio de la
estructura cristalina de los sólidos.

2.1.1.2. La dualidad onda-partícula


La aceptación del postulado de De Broglie de las ondas de materia conlleva algunas cuestiones
controvertidas como el significado de la función de onda de la partícula y la conexión entre el modelo
corpuscular y el modelo ondulatorio. Estas cuestiones quedan más claras si hacemos una interpreta-
ción probabilística de la función de onda. Para entender esta interpretación de la función de onda, co-
menzaremos por considerar el caso de la radiación electromagnética y la interpretación de Einstein de
la función de onda del campo electromagnético.
Desde el punto de vista clásico, la radiación electromagnética consiste en un campo eléctrico y
magnético que se propaga como una onda. Sin embargo, hemos estudiado que esta interpretación es
insuficiente para explicar algunos aspectos de su interacción con la materia (efecto fotoeléctrico y
efecto Compton), que sólo son explicables adoptando un modelo de partícula. Por tanto, surge la
cuestión de cuál es la conexión entre el modelo ondulatorio y el corpuscular. La respuesta es que el
lazo de unión entre ambos modelos es la intensidad de la onda I. En el tema 27, vimos que la intensi-
dad de una onda electromagnética es el promedio del vector de Poynting, y puede escribirse como:
1
I = e0 E 2 (123)
2
en donde E es el campo eléctrico de la onda electromagnética (no confundir con la energía). Por otro
lado, desde el punto de vista del modelo corpuscular, la intensidad puede escribirse como:
I = cNhv (124)
en donde c es la velocidad de propagación de los fotones, hv, la energía de cada fotón y N es la densi-
dad promedio de fotones. Comparando ambas expresiones, se tiene que:
2
N µ áE ñ (125)

Como vemos, hablamos de densidad promedio de fotones. Esto es debido a que los procesos de
emisión de los fotones son de naturaleza aleatoria, pues una fuente emite fotones al azar en todas di-
recciones. Como consecuencia de esta aleatoriedad, no podemos decir con exactitud si dentro de un
determinado volumen pequeño encontraremos o no un fotón. Sin embargo, si podemos hablar de la
probabilidad de encontrar un fotón dentro de un volumen dado, densidad de probabilidad, la cual
será proporcional a la densidad promedio de fotones N. Si ahora tenemos en cuenta que, según
(125), N µ áE2ñ, podemos concluir que la probabilidad de encontrar un fotón dentro de un volumen
dado del haz es proporcional al promedio del cuadrado de la amplitud de la onda asociada al haz.
Por tanto, dentro del modelo corpuscular de la radiación electromagnética, modelo de fotones, la
onda no es un campo electromagnético, sino que es representada por una función matemática que
mide la densidad de probabilidad de los fotones. Esta es la interpretación de Einstein de áE2ñ como
medida probabilística de la densidad de fotones.
En 1926, Max Born (1882-1970), en analogía a la interpretación de Einstein de la radiación, pro-
puso una extensión de la interpretación probabilística a las ondas de materia propuestas por Louis de
Broglie para las partículas materiales. De acuerdo con esta interpretación, aceptada hoy por la mayo-
ría de los físicos, lo que “ondula” no es algo físico como las partículas de una cuerda o las moléculas
de agua en una ola: la onda de materia es representada por una función matemática y(r,t), denomina-
da función de onda, cuya interpretación es la siguiente: si en un instante de tiempo t realizamos una

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 427


Volumen II. Física II

medida para determinar la posición de la partícula asociada a la función de onda y(r,t), la probabili-
dad P(r,t)dV de que la partícula se encuentre dentro de un pequeño volumen dV alrededor de un punto
con vector posición r (respecto de cierto sistema de coordenadas) es igual a |y(r,t)|2dV. Es decir:

2
P(r,t)dV = |y(r,t)| dV (126)

Puesto que la probabilidad de encontrar a la partícula en algún sitio en el espacio ha de ser la unidad,
la función de onda debería estar normalizada. Es decir:

ò
¥ 2
–¥
y( r, t ) dV = 1 (127)

El problema en mecánica cuántica se reduce a encontrar la función de onda de una partícula o sistema
de partícula, a partir de la cual pueden encontrarse todas las propiedades físicas interesantes del mis-
mo.
Es de señalar que esta interpretación probabilística de la función de onda no fue, parece evidente,
bien acogida por parte de la comunidad científica de principios del siglo XX. Entre los críticos a esta
nueva interpretación se encontraban el propio Louis de Broglie y Albert Einstein, quien sentenció que
“Dios no juega a los dados con el Universo”. La razón de estas posiciones científicas e ideológicas es
que la interpretación de Born suponía un ataque demoledor a uno de los principios fundamentales de la
física clásica: el concepto de determinismo. No obstante, en 1927, Heisenberg y Bohr demostraron que
era precisamente el concepto de probabilidad lo que resultaba crucial en la unión de las dos descripcio-
nes, corpuscular y ondulatoria, del comportamiento de la materia y de la radiación.

2.1.2. Principio de incertidumbre de Heisenberg


Aunque en física clásica se utilizan en ocasiones métodos probabilísticos, las leyes clásicas,
como las leyes de Newton, son deterministas. El análisis estadístico de la física clásica no es más que
una herramienta que se utiliza por razones de tipo práctico cuando estudiamos sistemas compuestos
de un gran número de partículas. Esta combinación de las leyes clásicas con los métodos estadísticos
conduce a un cuerpo teórico poderoso, como es la mecánica estadística. Sin embargo, la mecánica
cuántica se caracteriza por su carácter intrínsecamente probabilístico. Es decir, que el punto de vista
probabilístico es fundamental en la física cuántica, en la que el determinismo debe ser descartado. En
lo que sigue, vamos a ver con más detalle la razón de esta diferencia fundamental entre ambas teorías.
De acuerdo con la física clásica, si conocemos las fuerzas que actúan sobre una partícula y sus
condiciones iniciales (es decir, el valor de la posición y de la velocidad en algún instante de tiempo
anterior), la resolución de las ecuaciones del movimiento nos permite predecir o determinar exacta-
mente cuál será su posición y su velocidad en cualquier instante de tiempo posterior. La única asun-
ción que se hace es que la posición y la velocidad iniciales de la partícula pueden ser determinadas
exactamente. Pero ¿es esto posible? ¿Es posible determinar con exactitud y de forma simultánea la
posición y la velocidad en un experimento real? La respuesta de la física clásica es que con los instru-
mentos de medida adecuados es posible. Sin embargo, la respuesta de la mecánica cuántica es otra y
viene dada por el principio de incertidumbre o indeterminación de Heisenberg que establece que:
En un experimento no se puede determinar simultáneamente una componente del momento de
una partícula, por ejemplo px, y el valor exacto de la correspondiente coordenada x. La limitación en
la medida viene expresada por la condición:
Dp x Dx ³ h (128)
en donde D indica la incertidumbre o error en la medida.

428 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

De forma análoga a la expresión (128), se tienen otras dos condiciones iguales para las otras dos
componentes de la posición y el momento:
Dp y Dy ³ h (129)

Dp z Dz ³ h (130)

Sobre esta afirmación, es importante señalar dos aspectos importantes:

– La limitación que impone el principio no tienen nada que ver con los adelantos y mejora en
la instrumentación científica. El principio establece que, aún contando con instrumentos
ideales, los resultados de las medidas vienen limitados por la ecuación (128).
– El principio no establece que no se pueda determinar con completa exactitud la posición o
el momento de la partícula. Puesto que en (128) aparece un producto de incertidumbres, el
principio dice que cuanto más precisa sea la medida de px, mayor será la incertidumbre en x,
y viceversa. Así, si, por ejemplo, diseñamos un experimento de manera que se determina
con exactitud la velocidad de la partícula (Dpx = 0), se ignoraría por completo la posición
(Dx = ¥).

Una segunda parte del principio de incertidumbre de Heisenberg hace referencia a la incerti-
dumbre en la medida de la energía DE del sistema y del intervalo de tiempo Dt característico de cam-
bio del sistema:
DE Dt ³ h (131)

Más tarde, veremos que el principio de incertidumbre de Heisenberg es una consecuencia de la


hipótesis de de Broglie y puede derivarse de las propiedades generales de las ondas. Antes de entrar a
analizar esta relación, veamos que la diferencia entre los resultados clásico y cuántico provienen de
nuevo del valor pequeño pero no nulo de la constante de Planck.
Consideremos, por ejemplo, una pelota de tenis de masa 100 g que es golpeada y se mueve a una
velocidad de 30 m/s la cual es medida con un precisión de 0,1 m/s. La incertidumbre en el momento li-
neal será Dpx = mDux = 10–2 kg · m/s. La expresión (128) establece que la incertidumbre en la posición
será Dx ³ h / Dp x • 10–32 m. Es decir, que no podemos conocer la posición de la pelota con una preci-
sión menor que la calculada anteriormente. Ahora bien, esta distancia es tan pequeña que evidentemen-
te no limita de ninguna manera la posibilidad de conocer la posición de la pelota.
Consideremos ahora un electrón en el átomo de hidrógeno. El radio más pequeño de una órbita de
Bohr es aproximadamente 0,5 ´ 10–10 m. Para calcular con la máxima exactitud el valor de px, vamos a
considerar que la incertidumbre de la posición es máxima y, por tanto, Dx = 10–10 m. La precisión de la
componente px del momento será Dp x ³ h / Dx • 10–24 kg · m/s. Es decir, el momento del electrón no
puede conocerse con una exactitud menor que este valor. Ahora bien, si suponemos que el electrón se
encuentra en el estado de energía más bajo y teniendo en cuenta que la energía cinética es igual en mag-
nitud a la energía total K =13,9 eV = 13,9 eV ´ 1,6 ´ 10–19 J/eV = 2,18 ´ 10–18 J. El momento del elec-
trón será p = 2mK • 2 ´ 10–24 kg · m/s, y por consiguiente, la razón entre la incertidumbre y el
momento es Dpx/p = 50%.
Por tanto, vemos que, en la física clásica, en principio, podemos determinar con exactitud las po-
siciones y velocidades de todas las partículas en un instante dado y calcular dónde estarán y lo que ha-
rán en un instante posterior. Sin embargo, vemos que, en mecánica cuántica, las limitaciones sobre el

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 429


Volumen II. Física II

conocimiento simultáneo de la posición y el momento nos llevan a utilizar el concepto de probabili-


dad de la localización de la partícula y de su momento. Es decir, en mecánica cuántica sólo podemos
predecir aproximadamente dónde estará y qué ocurrirá. El concepto clásico del determinismo debe
ser abandonado.

2.1.2.1. Ondas de materia y principio de incertidumbre


Hemos visto que, según la hipótesis de De Broglie, la propagación de una partícula está regida por
una onda y(r,t). Vamos a analizar con más detalle la forma de esta función de onda y, al mismo tiempo,
veremos que el principio de incertidumbre puede obtenerse de las propiedades generales de una onda.
La forma más sencilla que puede tener la función de onda es la de una onda sinusoidal de la forma:
y(x,t) = y0 sen(kx – wt) (132)

Las características de una onda de este tipo son las siguientes:

– Su amplitud es la misma en todos los puntos del espacio.


– Tiene una longitud de onda bien definida dada por l = 2p/k.
– Tiene una frecuencia bien definida dada por v = w/2p.
– Se propaga a lo largo de la dirección del eje x con una velocidad w = lv = w/k.

Lo que nos preguntamos es si esta función de onda puede ser asociada a una partícula material. Si
la partícula tiene un momento y una energía bien definida, entonces la expresión (132) satisface adecua-
damente los requisitos impuestos por la hipótesis de De Broglie. Sin embargo, observamos que, debido
a que la amplitud de la onda es constante en todo los puntos del espacio, la probabilidad de encontrar a
la partícula es la misma en cualquier región del espacio. Es decir, la partícula está completamente deslo-
calizada Dx = ¥. Este resultado es lógico, pues, para una partícula con un momento bien definido, se
tiene que Dpx = 0 y, de acuerdo con el principio de incertidumbre de Heisenberg, la incertidumbre en la
posición debería ser infinita. Por tanto, la expresión (132) puede describir a una partícula con el mo-
mento y la energía bien definida, pero que, por el contrario, está completamente deslocalizada.
Utilizando las relaciones de la hipótesis de De Broglie, podemos expresar la velocidad de propa-
gación de la onda sinusoidal en función del momento y de la energía de la partícula como:
h E E
w= = (133)
p h p

Si se supone que la partícula se mueve con velocidad u no relativista, la expresión anterior puede es-
cribirse como:
1 2
mu
E 2 u
w= = = (134)
p mu 2

Es decir, que la onda de materia no se propaga a la misma velocidad con la que se mueve la partícula a
la que representa. Este resultado, en apariencia inconsistente, no supone ningún problema en este
caso en el que la amplitud de la onda es la misma en todo el espacio. Más tarde, veremos cómo se in-
terpreta adecuadamente este resultado.
Para describir una partícula localizada parcialmente en el espacio, la función de onda debe tener
una amplitud diferente de cero sólo en una pequeña región del espacio en donde hay posibilidad de

430 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

encontrar a la partícula. Por tanto, es evidente que no podemos uti- y


lizar una función de onda como la dada en (132). Una función de
onda con estas características es lo que se denomina paquete de
ondas (figura 15). Matemáticamente, un paquete de ondas de este
tipo se construye superponiendo un número infinito de ondas sinu-
soidales como la dada por (132) en la que cada una de ellas difiere x
de la anterior en una cantidad infinitesimal en su longitud de onda
y en su frecuencia. Esto se puede escribir como:

y ( x, t ) = ò0 A ( k ) sen ( kx – w( k ) t ) dk
¥
(135)

en donde w es en general una función de k. La función A(k) deter- Figura 15. Una partícula
mina la contribución de cada onda sinusoidal al paquete de ondas y localizada se puede
determina la forma del mismo. En la figura 16 se muestra la forma representar mediante un
del paquete en función de x y en un instante de tiempo dado, para paquete de ondas.
diferentes distribuciones de la función A(k).

A(k) y

k x

A(k) y

k x

A(k) y

k x
Figura 16. Diferentes paquetes de
ondas obtenidaos a partir de distintas
distribuciones A(k).

Como puede observarse, conforme el rango de los valores de k aumenta, más estrecho se hace el
paquete de ondas. De la misma forma, se podría representar la función de onda en un punto del espa-
cio en función del tiempo. Un resultado general que se obtiene para los paquetes de onda, que se co-
noce con el nombre de teorema del ancho de banda, es que la anchura espacial Dx y el intervalo Dk
vienen dados por:
Dk Dx ³ 1 (136)

Ahora bien, si el paquete representa una onda de materia, debe cumplirse que:
h h
l= Þ Dp = Dk = hD k (137)
p 2p

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 431


Volumen II. Física II

Por tanto, multiplicando la expresión (136) por h, se tiene que:


Dp Dx ³ h (138)
que corresponde al principio de incertidumbre de Heisenberg.
Hasta ahora, hemos visto que, para describir una partícula localizada en el espacio, debemos utilizar
un paquete de ondas, pero no hemos dicho nada respecto de la velocidad de propagación del paquete.
Puesto que la función de onda nos proporciona la probabilidad de encontrar a la partícula en un instante
dado, la onda debe acompañar a la partícula, y, por consiguiente, la velocidad de propagación del paquete
debe ser igual a la velocidad de la partícula material. Para comprobar que esto es así, vamos a estudiar, sin
pérdida de generalidad, el caso sencillo de un paquete de ondas formado por dos ondas sinusoidales.
Consideremos la superposición de dos ondas que difieren ligeramente en su longitud de onda y
en su frecuencia expresadas en la forma:
y1 = A sen(kx – wt) (139)
y2 = A sen[(k + Dk)x – (w + Dw)t] (140)
siendo Dk << k y Dw << w. La onda resultante de la superposición de ambas viene dada por:
y = y 1 + y 2 = A sen(kx – wt) + A sen[(k + Dk)x – (w + Dw)t] (141)

Si hacemos uso de la relación trigonométrica:


A–B A+B
sen ( A + B ) = 2cos sen (142)
2 2
el resultado lo podemos escribir de forma más compacta como:
æ Dkx – Dwt ö
y = 2A cosç ÷sen ( kx – wt ) (143)
è 2 ø

en donde hemos utilizado las aproximaciones 2k + Dk • 2k y 2w + Dw • 2w.


En la figura 17 se representa la onda resultante. Como podemos observar, esta onda resultante es
una onda que se propaga en la dirección del eje x, pero cuya amplitud está modulada. El factor de mo-
dulación corresponde a la curva discontinua de la figura y viene dado por:
æ Dkx – Dwt ö
2A cosç ÷
è 2 ø

y
ug u

Figura 17. Onda resultante de la superposición de dos ondas


de frecuencia similares.

432 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Como vemos, el factor de modulación es a su vez una onda que se propaga a la velocidad:
Dw
ug = (144)
Dk
denominada velocidad de grupo.
Si en vez de superponer dos ondas armónicas tuviésemos un paquete de onda compuesto de mu-
chas ondas cuyas longitudes de onda y frecuencias difiriesen muy poco unas de otras, la expresión de
la velocidad de propagación del paquete vendría dada por:
dw
ug = (145)
dk

Si tenemos en cuenta que la frecuencia está relacionada con la velocidad y el número de ondas por w = ku,
la expresión anterior se transforma en:
du du
u g = u+ k = u– l (146)
dk dl

Utilizando las relaciones de de Broglie y la expresión (145), podemos encontrar la relación entre la
velocidad de la onda de materia, velocidad de grupo, y la velocidad de la partícula. De las relaciones
de de Broglie se tiene que:
2p h dp
l= = Þ dk = (147)
k p h
y por otro lado:
w E dE
v= = Þ dw = (148)
2p h h

Sustituyendo estos resultados en (145):


dw dE
ug = = (149)
dk dp

Si ahora tenemos en cuenta que E = mu2/2 = p2/2m y que p = mu, resulta finalmente que:
dw d E p
ug = = = =u (150)
dk dp m

El paquete de ondas se propaga a la misma velocidad que lo hace la partícula. Es decir, la onda de ma-
teria se mueve con la partícula.

2.1.3. Principio de complementariedad


En el marco de la física clásica, la energía puede transportarse bien por partículas o bien median-
te ondas. Desde este punto de vista, y en base a la experiencia, se desarrollaron dos modelos: uno, on-
dulatorio, que explicaba una serie de fenómenos macroscópicos, y otro modelo, corpuscular, que
servía para explicar otra serie de fenómenos. Cualquier fenómeno macroscópico debía ajustarse bien
a un modelo o bien al otro. Esta teoría tuvo grandes éxitos a la hora de explicar fenómenos como el
sonido, siendo su mayor éxito la explicación ondulatoria de la radiación electromagnética. Por otra
parte, el modelo corpuscular se utilizó con éxito para explicar la interacción de las moléculas de un
gas con las paredes del recipiente que lo contiene.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 433


Volumen II. Física II

Con la llegada del siglo XX y el descubrimiento de nuevos fenómenos, como el efecto fotoeléc-
trico y el efecto Compton, se hizo necesario utilizar un modelo corpuscular de la radiación electro-
magnética al mismo tiempo que una serie de fenómenos ponían de manifiesto el carácter ondulatorio
de algunas partículas “clásicas”, como el electrón. Desgraciadamente, ninguno de los dos modelos, el
ondulatorio o el corpuscular, describen completamente el comportamiento de la radiación electro-
magnética y de las partículas microscópicas. Debido a las limitaciones de ambos modelos, Niels Bohr
sumarizó este carácter dual de la materia en su principio de complementariedad que establece que:
El modelo corpuscular y el ondulatorio son complementarios.
Cuando se trata de medir la distribución espacial de la radiación o de las partículas materiales, se
ponen de manifiesto sus propiedades ondulatorias, mientras que si se trata de medir su interacción en-
tre ellas o con la materia, se ponen de manifiesto sus propiedades corpusculares.
Puesto que las predicciones de ambos modelos son incompatibles, ninguna medida puede reve-
lar simultáneamente el aspecto ondulatorio y corpuscular de la materia. Si en un experimento se dise-
ña para mostrar el carácter ondulatorio, se suprime el carácter corpuscular, y viceversa. Es decir, en
cualquier situación, las partículas materiales se comportan como partícula o como onda, pero no
como ambas cosas a la vez. Sin embargo, un entendimiento global de su comportamiento requiere
ambos modelos, que, como hemos visto, están ligados por la hipótesis de De Broglie.

2.2. Teoría de Schrödinger de la mecánica cuántica


La base de la mecánica cuántica moderna es la teoría denominada mecánica ondulatoria, que fue
desarrollada por Erwin Schrödinger (1887-1961). Una teoría alternativa, pero matemáticamente dife-
rente, basada en una formulación matricial fue desarrollada por Werner Heisenberg. En lo que sigue,
nos centraremos en la teoría de Schrödinger.
En 1926, Schrödinger encontró la ecuación diferencial que debían satisfacer las ondas de mate-
ria asociadas con las partículas no relativistas. Como punto de partida, tomó la analogía que Hamilton
había notado entre el movimiento de una partícula en mecánica clásica y el límite de onda corta del
movimiento de la luz en un medio de índice de refracción que es una función de la posición. Por otro
lado, los valores permitidos de la energía en un átomo estaban cuantizados, lo que, de acuerdo con las
relaciones de De Broglie, significaba que las ondas de materia asociadas con el átomo sólo podían os-
cilar a frecuencias discretas. Como uno se encuentra que la solución de una ecuación de ondas con
condiciones de contorno fijas proporciona frecuencias discretas (ondas estacionarias en una cuerda),
Schrödinger pensó que una teoría que proporcionase energías discreta podía estar basada en una
ecuación de ondas.
De acuerdo con las relaciones de de Broglie, una onda con energía E debe oscilar con frecuen-
cias dadas por w = E/h. Así, la función de onda deberá ser de la forma:
–iEt/h
yµe (151)

Por tanto, la función de onda deberá satisfacer la ecuación:


¶y
ih = Ey (152)
¶t
r r r
Si la onda tiene momento p, la relación de De Broglie establece que el número de onda es k = p / h. Esto
significa que la función de onda varía con la posición de la forma:
r r
y µ e – ik×r (153)

434 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Esta ecuación satisface la relación:


r r
–ihÑy = hk y = py (154)

Si aplicamos dos veces esta ecuación y tenemos en cuenta que la energía cinética es E = p2/2m, uno
puede intuir que la ecuación de onda para una partícula libre de energía E podría ser:
p2 h2 2
Ey = y= – Ñ y (155)
2m 2m

Si la partícula está sometida a un potencial, como, por ejemplo, un electrón en un átomo de hidróge-
no, tendrá una energía potencial V(r), además de la energía cinética. La ecuación anterior se puede
generalizar para el caso de una partícula con energía E y energía potencial V(r), añadiendo el término
de energía potencial a la energía cinética en la expresión (155). Haciendo esto, se tiene que:
h2 2
Ey = – Ñ y+V ( r )y (156)
2m

Esta es la ecuación de Schrödinger para una partícula de energía E.


Si eliminamos de esta ecuación E, haciendo uso de la expresión (152), obtenemos la ecuación de
Schrödinger dependiente del tiempo:

é h2 2 r ù ¶y
ê– Ñ +V ( r )úy = ih (157)
ë 2m û ¶t

Conocido el potencial al que se encuentra sometido la partícula, en principio, la ecuación diferencial


puede ser resuelta. Sus soluciones nos proporcionan las diferentes funciones de onda que podemos
asociar a la partícula.
La ecuación de Schrödinger puede obtenerse mediante diversos argumentos de plausibilidad,
pero no puede ser deducida a partir de principios básicos. Ella es en sí un principio básico que no pue-
de derivarse matemáticamente como tampoco lo puede ser la ley de Newton del movimiento. Su jus-
tificación radica en que sus predicciones están de acuerdo con el experimento.

2.3. Base conceptual de la mecánica cuántica


El concepto central de la mecánica cuántica es el de función de onda, la cual describe la evolu-
ción temporal de los procesos físicos a escala microscópica. En esta sección vamos a estudiar las im-
plicaciones físicas de la función de onda. Es decir, vamos a exponer las predicciones sobre los
resultados experimentales que puede hacer la teoría. Para simplificar la notación, y sin pérdida de ge-
neralidad, nos limitaremos a un tratamiento de problemas unidimensionales.

2.3.1. Probabilidad de la posición


Como ya hemos comentado anteriormente, la función de onda tiene un significado probabilísti-
co. La probabilidad P(x,t)dx de encontrar a la partícula en un intervalo dx alrededor de un punto de
coordenada x:
2
P(x,t)dx = |y(x,t)| dx = y*(x,t)y(x,t)dx (158)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 435


Volumen II. Física II

2.3.2. Valores promedio o esperados de una media


Supongamos ahora que estamos interesados en determinar el valor promedio de la posición de la
partícula. Podemos imaginar que disponemos de un número muy grande de sistemas idénticos sobre
los que medimos la posición de la partícula para el mismo instante de tiempo t. Puesto que la probabi-
lidad de encontrar a la partícula en un intervalo x + dx viene dado por (158), es fácil ver que el valor
promedio o valor esperado de x, que se escribe como x o x , viene dado por:

x º x = ò–¥ xP ( x, t ) dx
¥
(159)

Puede observarse que el integrado en la expresión anterior es el valor de la coordenada x multiplicado


por la probabilidad de observar dicho valor. Sustituyendo ahora la probabilidad P(x,t) por su expre-
sión en términos de la función de onda, se tiene que:

x = ò–¥ y * ( x, t )xy ( x, t ) dx
¥
(160)

El valor esperado de cualquier función de la variable x se encuentra evaluando una integral análoga a
la anterior. Así, el valor esperado de una función f(x) viene dado por:

f ( x ) = ò–¥ y * ( x, t ) f ( x )y ( x, t ) dx
¥
(161)

Esta expresión sigue siendo válida para cualquier función que dependa explícitamente del tiempo,
como puede ser la energía potencial V(x,t):

V ( x, t ) = ò–¥ y * ( x, t )V ( x, t )y ( x, t ) dx
¥
(162)

Las expresiones (160) y (162) nos dan los valores esperados de dos variables dinámicas del pro-
blema. Lo que nos interesa ahora es saber cómo podemos determinar el valor esperado de otras canti-
dades dinámicas igualmente importantes para caracterizar el estado del sistema, como son el
momento p y la energía E. En principio, el valor esperado de estas cantidades vienen dados por expre-
siones análogas a la anterior. Por ejemplo, el valor esperado del momento viene dado por:

p = ò–¥ y * ( x, t ) py ( x, t ) dx
¥
(163)

Ahora bien, para evaluar la integral es necesario expresar el integrando como una función de x. En
mecánica clásica, no hay problema alguno en escribir el momento en función de las variables x y t,
puesto que no hay limitación alguna en la precisión con la que se puede conocer el momento para
cualquier valor de la posición x de la partícula. Sin embargo, en mecánica cuántica el principio de in-
certidumbre de Heisenberg establece que no es posible conocer con precisión simultáneamente el va-
lor de la posición y su componente correspondiente del momento. Por tanto, la tarea no es trivial en
principio, y habrá que encontrar la forma de poder hacerlo.
A partir de la función de onda de la partícula libre, podemos encontrar alguna idea útil para el
objetivo propuesto. Expresemos la función de onda de una partícula libre en la forma:
y(x,t) = cos(kx – wt) + i sen(kx – wt) (164)

Derivando esta expresión con respecto a x obtenemos:


¶y p
= – k sen ( kx – wt )+ ik cos( kx – wt ) = ik[cos( kx – wt )+ i sen ( kx – wt )] = i y ( x, t ) (165)
¶x h

436 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

en donde hemos tenido en cuenta la relación de De Broglie entre la longitud de onda y el momento l =
= 2p/k = h/p. Esta expresión puede escribirse como:


py ( x, t ) = – ih y ( x, t ) (166)
¶t

Esta última ecuación expresa una relación entre la cantidad dinámica p y el operador diferencial

– ih .
¶x
De forma análoga, podemos encontrar una relación similar entre la cantidad E y el operador di-

ferencial ih si derivamos respecto al tiempo la función de onda de la partícula libre. Haciendo esto
¶t
se obtiene que:

¶y E
= w sen ( kx – wt ) – iw cos( kx – wt ) = – iw[cos( kx – wt )+ i sen (kx – wt )] = – i y ( x, t ) (167)
¶t h

en donde hemos tenido en cuenta la relación de De Broglie entre la longitud de onda y el momento v =
= w/2p = E/h. Esta expresión puede escribirse como:


Ey ( x, t ) = ih y ( x, t ) (168)
¶t

Puede demostrarse fácilmente que estas relaciones entre las cantidades dinámicas y los operadores
diferenciales son válidas en cualquier caso y no sólo para el caso de la partícula libre. Consideremos,
por ejemplo, la energía total de una partícula cuya energía potencial es V(x,t):

p2
E= +V ( x, t ) (169)
2m

Sustituyendo las cantidades E y p por sus operadores diferenciales se tiene que:

1æ ¶ö
2

ih = ç– ih ÷ +V ( x, t ) (170)
¶t 2mè ¶x ø

Esta ecuación la podemos escribir como:

¶ h2 ¶2
ih =– +V ( x, t ) (171)
¶t 2m ¶x 2

La expresión anterior es una ecuación de operadores matemáticos y tiene significado cuando se apli-
ca a cualquier función, en nuestro caso a una función de onda. Haciendo esto se tiene que:

¶y ( x, t ) h 2 ¶ 2 y ( x, t )
ih =– +V ( x, t )y ( x, t ) (172)
¶t 2m ¶x 2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 437


Volumen II. Física II

El resultado que acabamos de obtener es la ecuación de Schrödinger dependiente del tiempo en


una dimensión. Por consiguiente, podemos concluir postulando la equivalencia o asociación entre las
cantidades p y E con los siguientes operadores diferenciales:

p « – ih (173)
¶x
y

E «+ih (174)
¶t

Como hemos visto, postular estas asociaciones es absolutamente equivalente a postular la ecuación
de Schrödinger.
Volvamos ahora al cálculo del valor esperado del momento. Sustituyendo en la expresión (163)
el valor de p por su operador diferencial equivalente dado por (173) se tiene que:
æ ¶ö
p = ò–¥ y * ( x, t )ç– ih ÷y ( x, t )dx
¥
(175)
è ¶x ø
Por tanto, el valor esperado del momento puede calcularse como:
¶y ( x, t )
p = – ihò–¥ y * ( x, t )
¥
dx (176)
¶x

El valor esperado de la energía, teniendo en cuenta la relación (174), se puede calcular mediante
la integral dada por:
æ ¶ö
E = ò–¥ y * ( x, t )Ey ( x, t ) dx =ò–¥ y * ( x, t )çih ÷y ( x, t ) dx
¥ ¥
(177)
è ¶t ø

Por tanto, el valor esperado de la energía puede calcularse como:


¶y ( x, t )
E = ihò–¥ y * ( x, t )
¥
dx (178)
¶t

Una expresión equivalente a la anterior la podemos obtener sustituyendo el operador derivada


con respecto al tiempo por su equivalente dado por la expresión (171). Haciendo esto obtenemos que:
æ h2 ¶2 ö
E = ò–¥ y * ( x, t )ç
¥
ç– +V ( x, t )÷
÷y ( x, t )dx (179)
è 2m ¶x ø
2

Con lo visto anteriormente podemos discutir el marco conceptual y las reglas computacionales
de la mecánica cuántica. En física clásica se tienen ciertos parámetros mecánicos, como la posición
x(t), el momento p(t), la energía, etc. En mecánica cuántica, a estos parámetros clásicos se les asigna
unos valores esperados, los cuales pueden ser obtenidos de acuerdo con las siguientes reglas:
– A un parámetro clásico se le asigna un operador, que no es más que una serie de reglas de
multiplicación o diferenciación que actúan sobre las funciones de onda.
– A la posición de la partícula se le asocia el operador posición x que no es más que multipli-
car la función de onda y(x,t) por x.
– Al momento se le asigna el operador diferencial – ih(¶ / ¶x ).

438 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría cuántica

Los demás operadores se obtienen sin más que sustituir en la expresión clásica la posición por el
operador posición y el momento por el operador momento. Así, el valor esperado de cierto parámetro
clásico f(x,p,t) viene dado por:
æ ¶ ö
f ( x, p, t) = ò–¥ y * ( x, t ) f$çx,– ih , t ÷y ( x, t ) dx
¥
(180)
è ¶x ø

en donde el operador asociado a f lo designamos por $f.


Así, por ejemplo, para el momento angular L podemos encontrar el operador momento angular L$ de
la siguiente manera: la componente Lz del momento angular clásico viene dada por Lz = xpy – ypx. Apli-
cando las reglas anteriores se tiene que:
æ ¶ ¶ö
L$ z = – ihç
çx – y ÷ ÷ (181)
è ¶y ¶x ø
Haciendo lo mismo para cada componente, se tiene finalmente que el operador momento angu-
lar viene dado por:
r h r
L$ = r ´ Ñ (182)
i

Por tanto, la función de onda y(x,t) contiene más información que la mera densidad de probabi-
lidad. Como hemos visto, mediante dicha función podemos calcular el valor esperado de la posición,
del momento, de la energía, y de cualquier otra magnitud f(x,p,t). Es decir, la función de onda contie-
ne toda la información necesaria para describir un sistema. Por tanto, el objetivo de la mecánica cuán-
tica consistirá en resolver la ecuación de Schrödinger para los sistemas microscópicos y así obtener
las funciones de onda posibles asociadas, las cuales nos proporcionarán la información necesaria para
su descripción.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 439


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Borowitz, S.: Fundamentos de Mecánica Cuántica. Reverté. Barcelona, 1973.
Eisberg, R.M. y Resnick R.: Física Cuántica. Limusa. México, 1978.
Eisberg, R.M.: Fundamentos de la Física Moderna. Limusa. México, 1991.
Fishbane, P.M., Gasiorowicz, S. y Thornton, S.T.: Physics for Scientists and
Engineers. Prentice Hall. Upper Saddle River, New Jersey, 1996.
French, A.P.: Principles of Modern Physics. John Wiley. New York, 1958.
García, N. y Damask, A.C.: Physics for Computer Science Students. John Wi-
ley. New York, 1986.
Gasiorowicz, S.: Quantum Physics. John Wiley. New York, 1974.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D.C.: Física General. Prentice Hall. México, 1988.
Haken, H. y Wolf, H.C.: The Physics of Atoms and Quanta. Springer-Verlag.
Berlin, 1993.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Peebles, P.J.E.: Quantum Mechanics. Princeton University Press. Princeton,
New Jersey, 1992.
Sandin, T.R.: Essential of Modern Physics. Addison-Wesley Publishing Com-
pany. New York, 1989.
Shankar, R.: Principles of Quantum Mechanics. Plenum Press. New York, 1980.
Tipler, P.A.: Física. Editorial Reverté. Barcelona, 1992.

440 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

31
Controversia sobre la
naturaleza de la luz. Dualidad
onda-corpúsculo. Experiencias
que la ponen de manifiesto.
Interacción radiación-materia.
Relaciones de incertidumbre

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. CONTROVERSIA SOBRE LA NATURALEZA DE LA LUZ


1.1. Las teorías de la luz en la antigüedad
1.2. Primeras teorías científicas sobre la luz
1.2.1. Teoría corpuscular de Newton
1.2.2. Teoría ondulatoria de la luz

2. TRIUNFO DE LA TEORÍA ONDULATORIA DE LA LUZ


2.1. Experimento de Young
2.1.1. Explicación del fenómeno de interferencia mediante una teoría
ondulatoria
2.2. Teoría electromagnética de Maxwell
2.2.1. Ondas electromagnéticas

3. INTERACCIÓN RADIACIÓN-MATERIA
3.1. Efecto fotoeléctrico
3.1.1. Resultados experimentales
3.1.2. La teoría clásica del efecto fotoeléctrico
3.1.3. Teoría de Einstein
3.2. Efecto Compton
3.2.1. Predicción de la teoría clásica
3.2.2. Predicción mediante la teoría corpuscular de la radiación

4. DUALIDAD ONDA CORPÚSCULO


4.1. Hipótesis de De Broglie
4.1.1. Confirmación experimental de la hipótesis de De Broglie

5. PRINCIPIO DE INCERTIDUMBRE DE HEISENBERG. RELACIONES DE


INCERTIDUMBRE

BIBLIOGRAFÍA

442 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

1. CONTROVERSIA SOBRE LA NATURALEZA DE LA LUZ


El entendimiento de la naturaleza de la luz ha sido un cuestión que desde la antigüedad ha
despertado la curiosidad del hombre y ha invitado al estudio y a la investigación. La respuesta a la
pregunta de ¿qué es la luz? ha sido muy diferente en las diferentes épocas de la historia: desde la
teorías especulativas de los antiguos griegos, pasando por la teoría corpuscular de Newton y la
teoría ondulatoria de Huygens, hasta las modernas teorías de dualidad onda-corpúsculo. A conti-
nuación vamos a hacer una breve exposición de la evolución de las teorías sobre este fenómeno
de la naturaleza.

1.1. Las teorías de la luz en la antigüedad


Las primeras teorías sobre la naturaleza de la luz las encontramos en los filósofos naturales de la
antigua Grecia. Así, para Empédocles (490-430 a. de C.), según su teoría de los cuatro elementos
(fuego, aire, agua y tierra) que se debatían eternamente entre la unión y escisión a impulsos de dos
fuerzas contrarias, el amor y el odio, la visión tiene lugar, unas veces, en la fase regida por el amor,
por la entrada en el ojo de efluvios irradiados por los objetos; y otras veces, en la fase regida por el
odio, por los efluvios que lanzan los ojos. Para Demócrito (460-370 a. de C.), precursor de la teoría
atomista de la materia, la luz consiste en un chorro sucesivo de partículas, y el color depende de las
determinaciones espaciales de los átomos emitidos por los objetos coloreados. A cada color le corres-
ponde una forma, orientación y agrupación de átomos. Una teoría próxima a la del éter la encontra-
mos en la obra de Aristóteles (384-322 a. de C.), para el cual el papel del medio entre el objeto y el
ojo resultaba esencial en el proceso de visión. Según Aristóteles, cuando el medio estaba en reposo se
producía la oscuridad y cuando se excitaba por el fuego de un objeto el medio se volvía activo y trans-
parente permitiendo que los colores pudieran viajar a nuestros ojos. Los colores transmitidos depen-
dían del estado de actividad del medio. Como vemos, estas teorías son completamente especulativas
y son fruto del intento de los filósofos griegos de explicar la naturaleza sobre la base de razonamien-
tos sin acudir en ningún momento a la experimentación.
Tras la decadencia de Atenas, el centro de la cultura griega se trasladó a Alejandría, iniciándose
la época denominada período helenístico. De esta etapa alejandrina es el trabajo de Herón de Alejan-
dría (20-62 d. de C.), quien en su libro Catóptrica, explicó la propagación rectilínea de la luz y las le-
yes de la reflexión afirmando que la luz viaja entre dos puntos a través del camino más corto, princi-
pio retomado por Fermat en el siglo XVIII. Por su parte, Claudio Ptolomeo (c. 90-c. 168) también
realizó estudios sobre la propagación de la luz y su libro Óptica es considerado como el mejor tratado
de la materia de la antigüedad. Para Ptolomeo el fenómeno de la visión se debía a la emisión de partí-
culas emitidas por los ojos.
El trabajo de Ptolomeo fue posteriormente desarrollado por Abu ali al-Hasan ibn al-Haytham
(965-c.1040), conocido en el mundo occidental por Alhazen. Su Tratado de Óptica es la contribu-
ción más importante realizada en el campo de la óptica hasta el siglo XVII, por lo que su autor
puede ser considerado como uno de los principales representantes de la física del período medie-
val. En su Óptica incluye análisis y explicaciones sobre la luz y la visión. Alhazen considera que
los rayos luminosos se propagan en línea recta desde el objeto hasta los ojos. Además, estudia los
fenómenos de reflexión y refracción e intenta explicar el aumento de las lentes esféricas. Experi-
menta con espejos esféricos y parabólicos y pone de manifiesto el fenómeno de aberración esféri-
ca. Alhazen fue el más conocido de los científicos árabes que preservaron la ciencia griega y cu-
yos trabajos de investigación y traducción fueron la base del florecimiento posterior de la ciencia
cristiana a partir del siglo XIII.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 443


Volumen II. Física II

1.2. Primeras teorías científicas sobre la luz


Los primeros científicos modernos Galileo Galilei (1564-1642), Johannes Kepler (1571-1630) y
René Descartes (1596-1650) realizaron contribuciones importantes al entendimiento de la naturaleza
de la luz. Así, Johannes Kepler (1571-1630) dedicó parte de sus investigaciones a la formación de
imágenes mediante lentes y fruto de su trabajo fue su libro Dioptrice considerado durante muchos años
como texto de referencia para los estudiosos de la óptica. Kepler descubrió la reflexión total y llegó a
una aproximación para ángulos pequeños de la ley de la refracción, en la cual los ángulos incidente y
transmitido son proporcionales.
Aunque la ley correcta de la refracción de la luz se debió a Willebrord van Roijen Snell
(1591-1626), un profesor de matemáticas de la universidad de Leyden que en 1621 descubrió que la
razón entre los senos de los ángulos de incidencia y refracción permanecía siempre constante para
una superficie de separación entre dos medios dados, sin embargo, no se conoció hasta que fue publi-
cada por René Descartes (1596-1650) en 1637. Descartes fue uno de los científicos y filósofos más
destacados de la época y sus ideas dominaron el pensamiento del siglo XVIII hasta la aparición de la
obra de Newton. Una consecuencia de los principios filosóficos de Descartes fue su teoría de la luz. A
partir de la idea de que la materia es esencialmente extensión, y recíprocamente toda extensión es ma-
teria, Descartes concibe el universo como una yuxtaposición de materias más o menos sutiles. Esta
concepción le sirve de base para elaborar su teoría sobre la luz que expone en su libro La Dioptrique
(1637), en el que podemos leer:
...[la luz] no es otra cosa que un cierto movimiento o una acción concebida en una mate-
ria muy sutil, la cual llena los poros de todos los otros cuerpos...

A partir de este modelo Descartes dedujo la ley de la refracción descubierta empíricamente por
Snell. Sin embargo, para su deducción, Descartes tuvo que acudir a la hipótesis de que la luz viajaba
más rápida en los medios más densos, como el agua, que en el aire, lo que fue ampliamente criticado
por ser antinatural. Uno de los detractores de la teoría de Descartes fue Pierre Fermat (1601-1665) el
cual, a partir de su principio extremal o del mínimo tiempo, consiguió demostrar la ley de la refrac-
ción admitiendo que la luz se propaga en los medios densos más lentamente que en el aire. Este resul-
tado se oponía a la teoría corpuscular de la luz mientras que se mostraba de acuerdo con las teorías
que consideraban la luz como una acción transmitida por un medio etéreo, tal como lo proponían Gri-
maldi, Hooke y Huygens.

1.2.1. Teoría corpuscular de Newton


Hacia finales del siglo XVII surgió una importante cuestión: ¿es la luz un conjunto de partículas
o es una onda en un medio extendido en el que la materia ordinaria se mueve libremente?
Si uno observa los rayos que aparecen cuando la luz penetra a través de una pequeña abertura en
una habitación a oscuras en la que hay polvo en el aire, puede estar tentado a concluir que la luz está
compuesta por una corriente de partículas emitidas por la fuente. Uno de los que propusieron una teo-
ría corpuscular de la luz fue el físico inglés Isaac Newton (1642-1727), y mediante esta teoría cor-
puscular, pudo explicar satisfactoriamente fenómenos diversos como: el hecho de que la luz produje-
ra sombras definidas de objetos colocados en un rayo de luz, la reflexión de la luz en espejos, la re-
fracción al pasar de un medio a otro y la dispersión de la luz al pasar por prismas.
Aunque la primera aproximación de Newton al estudio de la óptica estuvo motivado por su em-
peño en solucionar el problema de la distorsión y coloreado de las imágenes producidas en los teles-
copios de refracción, además de estos trabajos sobre óptica instrumental Newton hizo otras aporta-
ciones importantes al desarrollo de la óptica. Sus principales contribuciones fueron su estudio sobre

444 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

los colores y la prueba fundamental de que la luz blanca es una mezcla de diferentes colores. En su li-
bro Óptica o Tratado de las reflexiones, refracciones, inflexiones y colores de la luz declara que:
Mi deseo no es explicar las propiedades de la luz mediante hipótesis, sino exponerlas di-
rectamente para probarlas después por medio del tratamiento y las experiencias.

Al principio de su tratado describe un primer experimento sencillo para demostrar que la luz de
diferentes colores tiene diferente refrangibilidad. El experimento consistía en observar un trozo de
cartón, pintado mitad rojo y mitad azul, con un prisma. Newton escribe que:
Observé que si el ángulo de refracción del prisma se gira hacia arriba, de manera que el
papel parece que se eleva por virtud de la refracción, su mitad azul se elevará por refracción
más que su mitad roja. Pero si se hace girar el ángulo de refracción del prisma, de modo que
el papel parece descender por la refracción, su mitad azul descenderá más que su mitad roja.

De esta experiencia Newton dedujo que la luz azul sufre una refracción mayor que la luz roja y
como consecuencia una lente debería enfocar la luz azul a una distancia diferente de la luz roja. Esto
lo comprobó en otro experimento en el que utilizó un papel pintado de azul y rojo, en el que había si-
tuado varios hilos negros para poder juzgar la claridad, y una lente. Comprobó que la imagen clara de
las dos mitades se obtenía a distancias diferentes.
En otro experimento, Newton estudió lo que ocurría a un rayo de luz del sol, obtenido con un pe-
queño orificio hecho en una superficie, al atravesar un prisma. Observó una banda de colores: rojo,
anaranjado, amarillo, verde, azul y violeta, además de toda la gama de matices intermedios. A partir
de esta experiencia Newton dedujo que la luz blanca está compuesta por rayos de diferentes colores
“puros” con distinta refrangibilidad. En esta conclusión es en la que Newton basa su teoría corpuscu-
lar de la luz, si los colores son cualidades de la luz, ésta no puede ser una cualidad, sino una sustancia,
a la que atribuye una estructura corpuscular:
Estamos seguros de que la luz es una sustancia, pero es más difícil determinar con exac-
titud qué es esa sustancia.

Otro de los descubrimientos de Newton fue el de los denominados anillos de Newton, que surgen al-
rededor del punto de contacto entre una lente convexa y una lámina de cristal. Para explicar este fenóme-
no, típicamente ondulatorio, mediante su teoría corpuscular, Newton tuvo que introducir una compleja
teoría en que suponía que los corpúsculos de la luz tienen “accesos” de fácil transmisión y “accesos” de
fácil reflexión que se suceden de forma periódica, siendo la longitud de acceso constante para un color de-
terminado. Esta longitud de “acceso” corresponde a lo que ahora denominamos longitud de onda.
La dificultad que encontró para poder explicar la propagación rectilínea de la luz mediante una
teoría ondulatoria hizo que Newton se opusiera hasta su muerte a este tipo de teoría, lo que hizo que
durante toda su vida mantuviera una dura pugna con Robert Hooke y Christiaan Huygens, defensores
de la teoría ondulatoria de la luz. Para él, la luz era una corriente de partículas que se precipitan a gran
velocidad a través del espacio, y aunque las ventajas de una teoría ondulatoria eran evidentes, su autori-
dad intelectual hizo que esta teoría no fuera aceptada hasta muchos años después de su muerte, hecho
que ocurrió en 1800, cuando Young explicó el fenómeno de los anillos de Newton, caprichos del desti-
no, mediante una teoría ondulatoria de la luz.

1.2.2. Teoría ondulatoria de la luz


Uno de los primeros en sugerir que la luz era un movimiento ondulatorio fue el jesuita Frances-
co Maria Grimaldi (1618-1665). La idea de Grimaldi se basaba en las observaciones del fenómeno
de difracción de la luz al incidir sobre objetos. Descubrió que los tamaños de las sombras eran dife-
rentes a los que les corresponderían si la luz viajase en línea recta. Esto le llevó a suponer que la luz, al
igual que las olas de agua que rodean los obstáculos con facilidad, era un fluido susceptible de un mo-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 445


Volumen II. Física II

vimiento ondulatorio. Por la misma época, Robert Hooke (1635-1703) estudió los patrones de inter-
ferencia producidos por películas delgadas. De sus observaciones dedujo que estos patrones se de-
bían a la interacción de la luz de la parte anterior y posterior de la película y propuso la idea de que la
luz era un movimiento vibratorio del medio. Estas ideas fueron desarrolladas posteriormente por el
astrónomo, matemático y físico holandés Christiaan Huygens (1629-1695), uno de los científicos
que por sus numerosos y originales descubrimientos tuvo un amplio reconocimiento entre los hom-
bres de ciencia del siglo XVII. Huygens realizó importantes descubrimientos en el campo de la astro-
nomía gracias a las mejoras introducidas por él mismo en la construcción del telescopio y, sobre todo,
debido a un método nuevo para el pulido de las lentes que le permitía obtener unas imágenes mucho
más nítidas. Pero si su aportación a la óptica instrumental fue importante, también lo fue su tratamien-
to mecánico de la luz. En su Traité de la Lumière (Tratado de la luz), completado en años anteriores,
pero publicado en 1690, podemos leer:
La luz consiste en un movimiento de la materia que se encuentra entre nosotros y el cuer-
po luminoso.

Si bien la idea de que la luz era un movimiento ondulatorio ya había sido mantenida por Grimal-
di y Hooke tal como hemos comentado, Huygens hizo una de las más importantes contribuciones a la
óptica ondulatoria: el principio que lleva su nombre y que establece que todo punto de un frente de
ondas inicial se comporta como una nueva fuente de ondas secundarias que se propagan en todas di-
recciones. De esta manera puede encontrarse un nuevo frente de onda que envuelve las ondas secun-
darias, y como la luz avanza perpendicularmente a ese frente, el principio de Huygens permite dedu-
cir los cambios de dirección de la luz. A partir del principio de Huygens se obtiene de forma elegante
las leyes de la reflexión y la refracción. Sin embargo, aunque Huygens fue el primero en descubrir el
fenómeno de polarización por la interposición sucesiva de cristales de espato, no pudo explicar el fe-
nómeno ya que su creencia era que la luz, como el sonido, se trataba de una vibración longitudinal. La
obra de Huygens es sin duda alguna la contribución más importante realizada en el campo de la física
entre Galileo y Newton. Sus resultados fueron importantes y duraderos y su trabajo muestra más que
ningún otro realizado con anterioridad la importancia del planteamiento numérico de los fenómenos
físicos frente al meramente descriptivo.

2. TRIUNFO DE LA TEORÍA ONDULATORIA DE LA LUZ


Durante el siglo XIX la disputa entre una teoría corpuscular y una teoría ondulatoria de la luz pa-
reció zanjarse a favor de esta última. En este apartado vamos a ver dos cuestiones importantes rela-
cionadas con la aceptación de la teoría ondulatoria. En primer lugar, vamos a comentar el experimen-
to de Young que supuso la prueba experimental decisiva a favor de la teoría ondulatoria de la luz.
Posteriormente, comentaremos la evidencia teórica de la existencia de ondas electromagnéticas que
proporcionó la teoría de Maxwell.

2.1. Experimento de Young


Entre los científicos que contribuyeron al establecimiento de una teoría ondulatoria de la luz
se encuentra Thomas Young (1773-1829) quien, con su famoso experimento de la doble rendija,
identificó el fenómeno de difracción que resultó fundamental para la aceptación de la teoría ondu-
latoria de la luz. En su experimento, Young hizo dos agujeros muy próximos en una pantalla y los
iluminó con una fuente de luz. En otra pantalla situada a cierta distancia de la primera observó que
en las zonas en las que se recibía la luz de ambos agujeros aparecían una serie de bandas estrechas
de luz separadas por bandas oscuras. Estos resultados no podían explicarse con una teoría corpus-
cular de la luz y Young señaló que eran consecuencia de la naturaleza ondulatoria de la luz, que se

446 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

comporta de forma similar a como lo hacen las olas en un estanque. En los puntos en que las ondas
llegan en fase, el movimiento de las ondas se suma y se produce un aumento de la iluminación,
mientras que en los puntos en que las ondas llegan fuera de fase se produce un descenso de la ilumi-
nación. A este efecto lo denominó ley general de la interferencia y en palabras del propio Young se
produce de la siguiente manera:
Cuando dos partes de la misma luz alcanza el ojo por dos caminos diferentes de direc-
ciones muy próximas, la intensidad es máxima si la diferencia de los caminos recorridos es un
múltiplo de una cierta cantidad, y mínima en el estado intermedio.

Además, con su nueva teoría, Young también explicó los colores observados en las películas delga-
das y relacionó el color con la longitud de onda. Sin embargo, la teoría ondulatoria de la luz no fue
bien recibida por los científicos debido a que se oponía a la teoría corpuscular de Newton, una autori-
dad intelectual. Es más, la obra de Young se condenó y se ignoró, y uno de sus críticos y adversarios
censuró a la Royal Society que publicara esos “mezquinos e insubstanciales documentos”.

2.1.1. Explicación del fenómeno de interferencia mediante una teoría ondulatoria


Se denomina interferencia al fenómeno de superposición de dos ondas de la misma frecuencia,
pero de fase y amplitud diferentes, en un punto cualquiera del espacio.
Consideremos dos ondas armónicas esféricas cualesquiera, emitidas por dos fuentes S1 y S2, que
coinciden en una determinada región del espacio:

Y1 = Y01sen ( wt – kr1 ) (1)

Y2 = Y02sen ( wt – kr2 ) (2)

en donde r1 y r2 son las distancias a las fuentes. Las amplitudes de las ondas serán distintas aun cuan-
do ambas fuentes sean idénticas, puesto que al tratarse de ondas esféricas, decrecerán con la distancia
en la forma 1/r1 y 1/r2.
Supondremos que la magnitud que se propaga es una magnitud escalar. Si fuese una magnitud
vectorial tendríamos que suponer que ambas tienen la misma dirección, de manera que la suma de
ambas pueda tratarse como una magnitud escalar. En un punto cualquiera del espacio, la composición
de las dos ondas vendrá dada por:

Y = Y01sen ( wt – kr1 )+ Y02sen ( wt – kr2 ) (3)

Si tenemos en cuenta la propiedad trigonométrica sen(a – b) = sen a cos b – cos a sen b, y la aplicamos
a la expresión anterior, agrupando términos tenemos que:

Y = ( Y01cos kr1 + Y02 cos kr2 ) sen wt – ( Y01sen kr1 + Y02sen kr2 ) cos wt (4)

Si ahora hacemos:

Y0 cos a= Y01 cos kr1 + Y02 cos kr2 (5)

Y0sen a= Y01sen kr1 + Y02sen kr2 (6)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 447


Volumen II. Física II

la ecuación (4) la podemos escribir como:


Y = Y0cos a sen wt – Y0sen a cos wt = Y0sen ( wt – a ) (7)
en donde, según las relaciones (5) y (6):

Y0 = Y012 + Y022 + 2Y01 Y02 2cos d (8)

d= k ( r2 – r1 ) (9)
y
Y01sen kr1 + Y02sen kr2
tan a= (10)
Y01cos kr1 + Y02cos kr2

De la expresión (8) vemos que la amplitud de la onda resultante está comprendida entre un valor
máximo Y01 + Y02 que corresponde a cos d = 1, y un valor mínimo Y01 – Y02, que corresponde a
cos d = –1:
Y01 + Y02 < Y0 < Y01 – Y02 (11)

Si Y0 = Y01 + Y02 las dos ondas se refuerzan, y decimos que hay interferencia constructiva, mientras que
si Y0 = Y01 – Y02 las ondas se atenúan y decimos que hay interferencia destructiva. Es decir:
ì2np interferencia constructiva
ï
d= í (12)
ï
î( 2n+1)p interferencia destructiva

Las condiciones anteriores de interferencia constructiva y destructiva se pueden escribir de otra ma-
nera si tenemos en cuenta la relación (9):
2p
d = 2np Þ ( r – r ) = 2np Þ r2 – r1 = nl (13)
l 2 1

Y de la misma manera, se obtiene que:


2p l
d = ( 2n+1)p Þ ( r – r ) = ( 2n+1)p Þ r2 – r1 = ( 2n+1) (14)
l 2 1 2

Por tanto, las condiciones de interferencia constructiva y destructiva son:


ì
ïnl interferencia constructiva
ï
r2 – r1 = í (15)
ï l
ï( 2n+1) interferencia destructiva
î 2

Ahora bien, r2 – r1 = Cte define un hiperboloide de revolución en cuyos focos se encuentran las fuen-
tes S1 y S2 (figura 1). Los hiperboloides de amplitud máxima corresponden a r2 – r1 = nl y los de míni-
ma amplitud a r2 – r1 = (2n + 1) l/2. Un aspecto fundamental del fenómeno de interferencia es que

448 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

para que se produzca debe ocurrir que en cualquier pun-


to del espacio, la diferencia de fase entre las ondas que
se superponen ha de ser constante en el tiempo. Esta
condición, junto con la condición de que la frecuencia
sea igual, se denominan condiciones de coherencia. Es
decir, que para que se produzca el fenómeno de interfe- S S´
rencia, las fuentes emisoras de ondas han de ser cohe-
rentes. Si las fuentes no emiten ondas de la misma fre-
cuencia, o si sus desfasajes cambian aleatoriamente en
el tiempo, no se produce el fenómeno de interferencia, y Figura 1. Hiperboloides de interferencia
se dice que las fuentes son incoherentes. constructiva y destructiva.

Franjas de interferencias. Consideremos el caso


particular de dos fuentes puntuales, S1 y S2, de la misma amplitud, y estudiemos la amplitud de la
onda resultante en un plano paralelo a la línea que une las fuentes y situado a gran distancia de las
fuentes en relación a la longitud de onda l (figura 2).

S2

D
d
R r2
Figura 2. Esquema para S1 X
encontrar la franjas de
interferencia producidas por r1
dos fuentes puntuales. P

De la expresión (3), haciendo Y0 = Y01 = Y02 , obtenemos que:

æk ö æ k ö
Y = 2Y0 cosç ( r2 – r1 )÷ sençwt – ( r1 + r2 )÷ (16)
è2 ø è 2 ø

De la figura, encontramos que:

æ d ö2
r12 =çx – ÷ + D 2 (17)
è 2ø

æ d ö2
r22 =çx+ ÷ + D 2 (18)
è 2ø

Restando ambas expresiones:

2xd
r22 – r12 = 2xd Þ r2 – r1 = (19)
r1 + r2

Si el punto P se encuentra suficientemente alejado de las fuentes (D >> d), entonces:

r1 + r2 • 2R (20)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 449


Volumen II. Física II

Y por lo tanto:

xd
r2 – r1 = = d sen q (21)
R

De la expresión anterior y de (15) se tiene que la condición para que exista un máximo de amplitud en
el punto P, es:

l
sen q = n ( n = 0,1,2... ) (22)
d

Si el ángulo q no es muy grande, esta condición se escribe como:

x l lD
sen q • = n Þ x= n (23)
D d d

Es decir, que los puntos de máxima amplitud son equidistantes, siendo la distancia entre dos máximos
consecutivos:

lD
Dx = (24)
d

Análogamente, de (15) y (21) se tiene que la condición para que exista un mínimo de amplitud
en el punto P, es:

l
sen q = ( 2n+1) ( n = 0,1,2... ) (25)
2d

Si el ángulo q no es muy grande, esta condición se escribe como:

x l lD
sen q • = ( 2n+1) Þ x = ( 2n+1) (26)
D 2d 2d

Es decir, que los puntos de mínima amplitud son equidistantes, siendo la distancia entre dos mínimos
consecutivos:

lD
Dx = (27)
d

La intensidad es proporcional a la amplitud al cuadrado, por lo que de (16) y (21) se tiene que:

ék ù æ pd sen q ö
I = I 0 cos 2ê ( r2 – r1 )ú= I 0 cos 2ç ÷ (28)
ë2 û è l ø

450 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

En la figura 3 se muestra la distribución de la intensidad dada por la expresión anterior. Vemos


que hay regiones de intensidad alta y regiones de baja intensidad, que corresponden a las zonas bri-
llantes y oscuras de la fotografía, la cual corresponde a un experimento real de interferencia.

-3 -2 -1 0 1 2 3
(d/l) send q

Figura 3. Patrón de interferencia de las ondas


emitidas por dos fuentes puntuales.

Sólo después de los trabajos de Augustin-Jean Fresnel (1788-1827) y de François Arago


(1786-1853) la teoría ondulatoria fue aceptada por la comunidad científica europea. Fresnel demos-
tró que dos rayos de luz polarizada en diferentes planos no producían interferencia alguna, de lo que
dedujo que el movimiento ondulatorio de la luz no era longitudinal (como el del sonido), como se había
considerado hasta entonces, sino transversal. Además, Fresnel calculó los patrones de difracción produci-
dos por varios objetos y aberturas y explicó satisfactoriamente la propagación rectilínea de la luz en me-
dios isótropos y homogéneos, eliminando así la objeción principal de Newton a una teoría ondulatoria.
Arago fue también un firme defensor de la teoría ondulatoria frente a los partidarios de la teoría corpuscu-
lar como Laplace, Biot y Poisson. Ideó una experiencia para demostrar que la luz viajaba a menor veloci-
dad en un medio denso como el agua que lo hacía en el aire, tal y como predecía la teoría ondulatoria y en
contra de la teoría corpuscular que mantenía que se soportaba en la hipótesis contraria. Pero al parecer,
Arago no dispuso de los medios para realizar estas medidas. En 1849 Armand-Hippolyte-Louis Fizeau
(1819-1896) realizó la primera medida de la velocidad de la luz en el aire, que estimó en 315300 km/h; y
en 1850 Jean Bernard Leon Foucault (1819-1868) demostró que la velocidad de la luz en agua es me-
nor que en el aire, con lo que asestó un duro golpe a los defensores de la teoría corpuscular.

2.2. Teoría electromagnética de Maxwell


La base teórica del comportamiento ondulatorio de la luz la constituye el trabajo realizado por
Maxwell, que sintetizó en cuatro ecuaciones los fenómenos eléctricos y magnéticos.
En su forma más general, las ecuaciones de Maxwell se escriben como:

– Ley de Gauss para el campo eléctrico


r r
Ñ×D = r (29)
en donde r es la densidad de carga eléctrica.

– Ley de Gauss para el campo magnético


r r
Ñ×B = 0 (30)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 451


Volumen II. Física II

– Ley de Ampère-Maxwell
r
r r r ¶D
Ñ´ H = J + (31)
¶t
– Ley de Faraday-Henry
r
r r ¶B
Ñ´ E = – (32)
¶t
r
Las ecuaciones anteriores
r se completan conrotras dos que relacionan el vector desplazamiento D
r E, y el campo magnético B (denominado también inducción magnética) con el
con el campo eléctrico
campo magnético H. Además de estas dos ecuaciones, hay una tercera que relaciona la densidad de
corriente con el campo eléctrico, la ley de Ohm. Estas tres ecuaciones se denominan ecuaciones cons-
titutivas del medio donde aparecen los parámetros que caracterizan los medios materiales: la permiti-
vidad o constante dieléctrica, la permeabilidad magnética y la conductividad eléctrica. Para un medio
isótropo, homogéneo y lineal (ni ferroeléctrico ni ferromagnético) caracterizado por una permitivi-
dad 0, una permeabilidad m, y una conductividad s estas ecuaciones son:
r r
D = eE (33)
r 1 r
H= B (34)
m
r r
J = sE (35)

Haciendo uso de estas


r ecuaciones
r constitutivas, las ecuaciones de Maxwell pueden escribirse en fun-
ción de los campos E y B como:
r r r
Ñ×E = (36)
e
r r
Ñ×B = 0 (37)
r
r r r ¶E
Ñ´ B = msE + me (38)
¶t
r
r r ¶B
Ñ´ E = – (39)
¶t

2.2.1. Ondas electromagnéticas


Las ecuaciones de Maxwell pueden
r combinarse de manera que se obtiene
r una ecuación de onda
tanto para la componente eléctrica E como para la componente magnética B. Para obtener estas ecua-
ciones tengamos en cuenta que la ecuación de onda es una ecuación diferencial que relaciona las deri-
vadas segundas respecto al espacio y al tiempo de la magnitud física que se propaga. Por consiguien-
te, apliquemos en primer lugar el operador rotacional a la ecuación (38). Haciendo esto, se tiene que:
r
r r r r æ r ¶E ö
Ñ´ ( Ñ´ B ) = Ñ´ç msE + me ÷
ç (40)
è ¶t ÷
ø

452 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

Intercambiando el orden de las derivadas espaciales y temporales en el segundo miembro de la ecua-


ción anterior, resulta:
r r r r r ¶ r r
Ñ´ ( Ñ´ B ) = msÑ´ E + me
¶t
Ñ´ E( ) (41)

Sustituyendo en esta expresión la ecuación (39) del rotacional del campo eléctrico, se tiene que:
r r
r r r ¶B ¶2B
Ñ´ ( Ñ´ B ) = – ms – me 2 (42)
¶t ¶t

El primer miembro de la ecuación anterior se puede simplificar haciendo uso de la relación vectorial:
r r r r r r r
Ñ´Ñ´ B = Ñ ( Ñ×B ) – Ñ 2 B (43)

en donde, en coordenadas cartesianas, el operador Ñ2 viene dado por:


r r ¶2 ¶2 ¶2
Ñ 2 = ( Ñ×Ñ ) = 2 + 2 + 2 (44)
¶x ¶y ¶z

Sustituyendo la expresión (43) en (42) y teniendo en cuenta que, según (37), la divergencia del campo
magnético es cero, obtenemos que:
r r
r ¶B ¶2B
Ñ B – ms
2
– me 2 = 0 (45)
¶t ¶t

Para el campo eléctrico podemos encontrar una ecuación similar a la anterior. Aplicando el ope-
rador rotacional a la ecuación (39) obtenemos que:
r
r r r r æ ¶B ö
Ñ´ ( Ñ´ E ) = – Ñ´ç ÷
ç
÷ (46)
è ¶t ø

Intercambiando en el segundo miembro el orden de las derivadas temporales y espaciales del campo
magnético, la ecuación anterior la podemos escribir como:
r r r ¶ r r
Ñ´ ( Ñ´ E ) = – Ñ´ B (47)
¶t

Sustituyendo en esta expresión la ecuación (38) del rotacional del campo magnético, se tiene que:
r r
r r r ¶E ¶2E
Ñ´ ( Ñ´ E ) = – ms – me 2 (48)
¶t ¶t

Al igual que antes, el primer miembro de la ecuación anterior se puede simplificar haciendo uso de la
relación vectorial:
r r r r r r r
Ñ´Ñ´ E = Ñ ( Ñ×E ) – Ñ 2 E (49)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 453


Volumen II. Física II

Sustituyendo la expresión (49) en (48) y teniendo en cuenta que la divergencia del campo eléctrico
viene dada por (36) obtenemos finalmente que:
r r
r ¶E ¶ 2 E ræ r ö
Ñ E – ms
2
– me 2 = Ñç ÷ (50)
¶t ¶t èeø

En una zona del espacio libre de carga, r = 0, la ecuación anterior se transforma en:
r r
r ¶E ¶2E
Ñ E – ms
2
– me 2 = 0 (51)
¶t ¶t

Las ecuaciones (45) y (51) relacionan las derivadas espaciales de las componentes magnética y
eléctrica del campo electromagnético con las derivadas primera y segunda respecto al tiempo. Estas
ecuaciones se denominan ecuaciones del telegrafista o ecuaciones de telegrafía. En el caso de un me-
dio no conductor s = 0, las ecuaciones (45) y (51) se simplifican y quedan en la forma:
r
r ¶2B
Ñ B – me 2 = 0
2
(52)
¶t

r
r ¶2E
Ñ E – me 2 = 0
2
(53)
¶t

Si comparamos estas expresiones con la ecuación de onda tridimensional dada por:


1 ¶2F
Ñ 2F – =0 (54)
u 2 ¶t 2
vemos que las componentes del campo electromagnético satisfacen una ecuación diferencial de onda.
Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio como una onda,
siendo su velocidad de propagación u:

1
u= (55)
me

Las dos ecuaciones vectoriales (52) y (53) proporcionan seis ecuaciones de onda una para cada com-
ponente del campo eléctrico (Ex, Ey, y Ez) y del campo magnético (Bx, By, y Bz).
En el vacío, las ecuaciones anteriores se transforman en:
r
r ¶2B
Ñ B – m0e0 2 = 0
2
(56)
¶t

r
r ¶2E
Ñ E – m0e0 2 = 0
2
(57)
¶t

454 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio vacío como
una onda. Su velocidad de propagación se designa normalmente como c, y viene dada por:

1
c= (58)
m0e0

Haciendo uso de los valores encontrados en su época para la permitividad de vacío y la permeabi-
lidad, Maxwell encontró que la velocidad de propagación de las ondas electromagnéticas en el
vacío era:
1
c= » 3´108 m s (59)
m0e0

Este valor teórico deducido para la velocidad de propagación de las ondas electromagnéticas estaba de
acuerdo con el valor experimental encontrado por Fizeau para la velocidad de la luz, 315000 km/s, y esta
coincidencia llevó a Maxwell a escribir:
Esta velocidad es tan cercana a la de la luz que parece haber fuertes razones para concluir
que la propia luz (incluyendo el calor radiante y otras radiaciones si las hay) es una perturba-
ción electromagnética en forma de ondas que se propagan a través del campo electromagnético
de acuerdo con las leyes electromagnéticas.

Por consiguiente, la teoría de Maxwell constituía no sólo la unificación de la electricidad y el magne-


tismo, sino también la unificación de la óptica. De ahí que esta teoría sea considerada como uno de los
grandes logros de la física y del intelecto humano.

3. INTERACCIÓN RADIACIÓN-MATERIA
A finales del siglo XIX la naturaleza ondulatoria de la luz parecía definitivamente establecida.
Pero a principios del siglo XX tuvieron lugar algunos descubrimientos sobre la interacción de la ra-
diación electromagnética con la materia que no podían ser explicados mediante una teoría ondulato-
ria de la luz: el efecto fotoeléctrico y el efecto Compton.

3.1. Efecto fotoeléctrico


El efecto fotoeléctrico consiste en la emisión de electrones por parte de una material cuando in-
cide luz sobre su superficie. Este efecto fue detectado por primera vez en 1887 por Heinrich Hertz
cuando estaba trabajando en la confirmación experimental de la radiación electromagnética por car-
gas aceleradas predicha por Maxwell en 1864. En el transcurso de sus experimentos Hertz observó
que una descarga eléctrica entre dos electrodos ocurría más fácilmente si sobre uno de los electrodos
se hacía incidir luz ultravioleta.
En 1888, Hallwachs encontró que una superficie de zinc muy pulida iluminada por luz ultravio-
leta perdía su carga si ésta era inicialmente negativa y retenía la carga positiva. Además encontró que
una placa neutra se cargaba positivamente si se le iluminaba. Por consiguiente, la luz producía la ex-
pulsión de la electricidad negativa de una placa neutra. Posteriormente, en 1890, Stoletow demostró
el paso de una corriente continua entre una placa y una rejilla si se iluminaba la placa. Puesto que la
corriente se observaba en las condiciones de vacío más alto que podía alcanzarse en la época, se con-
cluía que el flujo de corriente se debía al movimiento de portadores de carga negativa.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 455


Volumen II. Física II

3.1.1. Resultados experimentales


En la figura 4 se muestra el esquema de un montaje experimental para el estudio del efecto fo-
toeléctrico. El aparato está formado por un tubo de vacío en el que se colocan dos placas metálicas,
el cátodo C y el ánodo A. Una luz monocromática (de una sola frecuencia) se hace incidir sobre el
cátodo a través de una ventana de cuarzo, lo que produce la emisión de electrones. Estos electrones
son emitidos con cierta energía cinética y pueden alcanzar el ánodo, lo que produce una corriente
que puede medirse mediante una galvanómetro. Mediante una batería de tensión variable se cambia
la diferencia de tensión entre el ánodo y el cátodo. Otros parámetros tales como la intensidad I de la
luz incidente y su frecuencia n pueden variarse con el objeto de estudiar la dependencia de la co-
rriente con ellos.

Ventana de
cuarzo Luz

e
C A
G
i
Figura 4. Esquema del montaje
experimental utilizado para el estudio
V del efecto fotoeléctrico.

Los resultados más importantes que se obtienen del experimento son los siguientes: si la tensión
V es positiva y suficientemente elevada, todos los electrones emitidos por el cátodo llegan al ánodo y
por tanto se alcanza una corriente de saturación. Si se disminuye el valor de V la corriente disminuye
y cuando se invierte (valores de V negativos) se observa que la corriente no se hace cero inmediata-
mente, lo que indica que los electrones son emitidos con cierta energía cinética. Conforme este poten-
cial de retardo se va haciendo mayor, menor es el número de electrones que tienen energía suficiente
para llegar al ánodo y por consiguiente la corriente fotoeléctrica disminuye. Para un valor suficiente-
mente grande y negativo de esta diferencia de potencial, la corriente se hace cero. Al valor absoluto
V0 de esta diferencia de potencial se le denomina potencial de frenado, y es una medida de la energía
cinética máxima con la que son emitidos los electrones por el cátodo:
K máx = eV0 (60)

Experimentalmente se observa que


el potencial de frenado es independiente
de la intensidad de la luz que incide sobre
i i V = cte V0
el cátodo. En la figura 5a se muestran los
v = cte resultados experimentales de la corriente
2I en función del potencial V para dos inten-
sidades diferentes de la radiación inciden-
I te I y 2I y de la misma frecuencia n. Se ob-
serva que la corriente fotoeléctrica es en
V0 V I vc vc v un caso el doble que en el otro, pero que el
a) b) c) potencial de frenado es independiente de
la intensidad de la radiación incidente.
Figura 5. Resultados experimentales del efecto Además, para una frecuencia n y un po-
fotoeléctrico. tencial V dados, la corriente fotoeléctrica
es directamente proporcional a la intensi-
dad de la radiación incidente (fig. 5b).

456 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

Por otro lado, se observa que el potencial de frenado es una función lineal de la frecuencia n. Es
decir, que:
V 0 = an (61)
en donde el valor de a es igual a 4,1 ´ 10 J · s/C. Esta dependencia lineal y el valor de la pendiente
–15

a es la misma para diferentes materiales utilizados como cátodo. Además, se observa que para fre-
cuencias menores que un determinado valor nc el potencial de frenado V0 es cero (fig. 5c). Por tanto, si
no es necesario aplicar ningún voltaje entre el cátodo y el ánodo para frenar a los electrones más ener-
géticos es por que no se emiten electrones. Como se indica en la figura, esta frecuencia de corte de-
pende del material utilizado para el cátodo.
Un último hecho experimental que resulta de gran importancia es que cuando las condiciones
para la fotoemisión son favorables, ésta es casi instantánea. Se observa que la corriente fotoeléctrica
se produce dentro de los 10–9 segundos desde el comienzo de la iluminación. Esta emisión instantá-
nea de electrones se produce hasta cuando se ilumina el cátodo con radiación de intensidades tan ba-
jas como 10–10 W/m2.

3.1.2. La teoría clásica del efecto fotoeléctrico


Vamos a ver ahora las predicciones que la física clásica hace sobre el efecto fotoeléctrico y sus
limitaciones para explicar algunos de los fenómenos observados en el experimento.
En primer lugar hemos de tener en cuenta que, desde el punto de vista clásico, la luz es una onda
electromagnética y, como tal, la energía transportada se encuentra uniformemente distribuida por todo
el espacio por el que se extiende en un momento determinado. Por otro lado, la intensidad de una
onda electromagnética es proporcional al cuadrado de la amplitud del campo eléctrico I = 12 e 0 cE 02 ,
siendo e0 la permitividad del vacío, c la velocidad de la luz y E 0 la amplitud del campo eléctrico.
La emisión de electrones debida a la absorción de la radiación incidente debe ser consecuencia de la
interacción del campo eléctrico de la onda de luz incidente con los electrones del cátodo. Consideremos
un electrón que se encuentra ligado con cierta energía de enlace W al metal. El campo eléctrico de la onda
electromagnética incidente ejercerá una fuerza F sobre el electrón F = eE. De esta manera, cuanto mayor
sea el campo eléctrico mayor será la fuerza ejercida sobre el electrón y mayor la energía cinética que este
puede adquirir. Puesto que la amplitud del campo eléctrico es proporcional a la raíz cuadrada de la intensi-
dad resultará que conforme sea mayor la intensidad de la onda mayor será la energía cinética que pueden
adquirir los electrones. Esto explicaría el hecho mencionado anteriormente, que fijado una frecuencia y
una tensión V la corriente fotoeléctrica aumenta con la intensidad de la onda incidente. Sin embargo, no
puede explicar el hecho de que el potencial de frenado, que es proporcional a la energía cinética máxima
de los electrones, sea independiente de la intensidad de la onda de la radiación incidente.
Otro hecho experimental que la teoría clásica no puede explicar es la dependencia del potencial
de frenado V0, o lo que es lo mismo de Kmáx, con la frecuencia n. Desde el punto de vista clásico la
energía transportada por la onda electromagnética depende de su amplitud (o intensidad) pero no de
su frecuencia, por lo que la energía que puede ser absorbida por el electrón sería independiente de la
frecuencia y por consiguiente también lo sería la energía cinética que este pudiera adquirir. Por tanto,
la teoría clásica no puede dar una respuesta al hecho experimental observado. Igual que tampoco pue-
de explicar el que haya una frecuencia de corte nc, propia de cada material, por debajo de la cual no se
observa el efecto fotoeléctrico.
Una última limitación de la teoría clásica en la explicación del efecto fotoeléctrico, y que desempeñó
un papel crucial en el rechazo a las ideas clásicas de la radiación electromagnética, es su imposibilidad de
explicar el hecho de que la emisión fotoeléctrica sea prácticamente instantánea. Según la teoría ondulato-
ria clásica de la luz es necesario un tiempo bastante grande para que un electrón absorba la energía sufi-
ciente para abandonar una superficie metálica. Para analizar esto realicemos el siguiente cálculo. Supon-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 457


Volumen II. Física II

gamos una fuente que emite energía en forma de luz ultravioleta con una potencia de P = 1 W y suponga-
mos que se encuentra a una distancia R = 1 m del cátodo. Por otro lado vamos a suponer, de forma bastante
generosa, que toda la radiación que incide sobre un átomo es absorbida por un solo electrón, el que se en-
cuentra menos ligado al átomo. Vamos a suponer que el radio del átomo es del orden de r = 10–10 m. Por
tanto la sección expuesta a la onda incidente será A = pr2 = p10–20 m2. Puesto que la energía de una onda
electromagnética se encuentra uniformemente distribuida sobre todo el frente de onda, suponiendo un
frente de onda esférico la intensidad de la onda, es decir, la energía por unidad de tiempo y de superficie en
la placa metálica será I = P/S = P/(4pR2) = 1/4p W/m2. Por tanto, la cantidad de energía absorbida por se-
gundo por un electrón en el cátodo es Pa = IA = 2,5 ´ 10–21 W. Por otro lado se sabe que la energía mínima
de enlace de un electrón con un átomo es del orden de unos pocos eV. Si tomamos como valor para esta
energía Eb = 1 eV = 1,6 ´ 10–19 J, entonces el tiempo necesario para absorber dicha energía será:
E b 1,6´10–19
t= = = 0,64´102 s = 64 s • 1 minuto (62)
Pa 2,5´10–21

Es decir, que debería observarse la corriente fotoeléctrica un minuto después de que la luz ultraviole-
ta incidiera sobre el cátodo. Sin embargo, experimentalmente no se observa ningún retraso (al menos
superior a 10–9 s).

3.1.3. Teoría de Einstein


En 1905 Albert Einstein (1879-1955) propuso una nueva teoría sobre la naturaleza de la radia-
ción electromagnética que era capaz de explicar el efecto fotoeléctrico, pero que que suponía un cam-
bio radical en las ideas de la teoría del electromagnetismo clásico.
La explicación dada por Planck sobre el espectro de la radiación del cuerpo negro asumía que los
osciladores electromagnéticos tenían niveles de energía cuantizados. Sin embargo, Planck restringía
la cuantización de la energía a los electrones oscilantes en la cavidad y suponía que la energía electro-
magnética, una vez radiada, se esparcía por todo el espacio, como lo hacen las olas en el agua. En su
teoría, Einstein argumentó que la restricción impuesta por Planck de que la energía de una onda elec-
tromagnética de frecuencia n en una fuente tuviera los valores n, 2n, 3n... implicaba a su vez que al pa-
sar de un estado de más energía a otro de energía inmediatamente inferior la fuente emitía paquetes o
cuantos de energía electromagnética de valor hn. De acuerdo con la hipótesis de Einstein, estos cuan-
tos de energía están localizados inicialmente en un volumen del espacio pequeño y se mantienen lo-
calizados mientras se mueven apartándose de la fuente con velocidad c. Estos cuantos de energía
electromagnética se denominan fotones y su energía es:
E = hn (63)

Según la teoría de Einstein, un haz de radiación electromagnética transporta energía como lo hace un
haz de partículas y no como una onda en donde la energía está uniformemente distribuida sobre el frente
de onda. Con esta hipótesis, la intensidad del haz es una medida de la densidad de fotones del haz. Por eso,
al aumentar la intensidad sin modificar la frecuencia no se modifica la energía de cada fotón sino que lo
que se modifica es la densidad de fotones del haz y por consiguiente la densidad de energía del haz.
Einstein supuso que el efecto fotoeléctrico se trata de una colisión entre partículas en la que un
fotón de energía hn choca con un electrón en el metal y le transfiere toda su energía. Por consiguiente,
del principio de conservación de la energía se tiene que:
hn = K +W (64)
en donde W es la energía necesaria para arrancar al electrón del metal y K es la energía cinética con la
que es emitido el electrón. La energía W incluye la energía para vencer las fuerzas atractivas de los

458 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

átomos de la superficie así como las pérdidas de energía cinética producidas en las colisiones internas
del electrón. Es evidente que algunos electrones estarán más fuertemente ligados al átomo y otros
perderán energía en el trayecto debido a las colisiones. En el caso de que el electrón sea el que más dé-
bilmente se encuentra ligado al átomo y suponiendo que no se producen pérdidas de energía por coli-
siones, los electrones emergerán del cátodo con la máxima energía cinética:
K máx = hn – f (65)
en donde f es un parámetro característico de cada metal que se denomina función trabajo y corres-
ponde a la mínima energía necesaria para liberar un electrón de la superficie del metal.
La máxima energía cinética con la que son emitidos los electrones puede determinarse experimen-
talmente midiendo el potencial de frenado V0. Sustituyendo el valor de la energía cinética máxima en
función del potencial de frenado, dado por (60), en la expresión anterior obtenemos que:
h f
V0 = n– (66)
e e

Veamos a continuación cómo podemos explicar con la teoría de Einstein los resultados experi-
mentales del efecto fotoeléctrico presentados al comienzo de esta sección.
Al aumentar la intensidad de la radiación se aumenta la densidad de fotones del haz, por lo que
será mayor el número de fotones que colisionan con el cátodo cada segundo. Esto significa que habrá
un mayor número de colisiones fotón-electrón y en consecuencia se producirá un aumento de los
electrones emitidos por el cátodo con el consiguiente aumento de la corriente fotoeléctrica. De esta
manera podemos entender el resultado experimental representado en la figura 5b, en el que se mues-
tra que la corriente es proporcional a la intensidad de la radiación incidente.
Por otro lado, aumentar la intensidad significa aumentar el número de fotones del haz pero no la
energía de cada uno de ellos. Así, la máxima energía cinética Kmáx que puede adquirir un electrón, y
por tanto el potencial de frenado V0, deberá ser independiente de la intensidad I (como se muestra en
la figura 5a) y ser sólo función de la energía del fotón incidente, es decir, de la frecuencia de la radia-
ción incidente. Esto es lo que indican las expresiones (65) y (66). Además, en la ecuación (66) pode-
mos observar que el potencial de frenado aumenta linealmente con la frecuencia n, tal como se obser-
va experimentalmente y se muestra en la figura 5c, y que la pendiente de la recta es la misma para to-
dos los metales. De esta misma ecuación se ve que si la energía del fotón es menor que la función
trabajo del metal el cátodo no emite electrones. Es decir, no se produce el efecto fotoeléctrico si hn <
f. Es decir, que existe una frecuencia de corte nc dada por:
f
nc = (67)
h
por debajo de la cual no tiene lugar el efecto fotoeléctrico.
Esta predicción del aumento lineal de la energía cinética máxima de los electrones con la fre-
cuencia de la radiación incidente fue chequeada por Millikan en 1916 en una serie de experimentos
que corroboraron la teoría de Einstein. Además, esto permitió encontrar el valor de la constante de
Planck, el cual se ajustaba con un error menor del 0,5% con el obtenido por el método de ajustar la
teoría de Planck al espectro experimental del cuerpo negro. Esta perfecta concordancia del valor de la
constante de Planck supuso un gran éxito de las teorías cuánticas.
Por último, según la teoría de Einstein, la emisión electrónica debería ser instantánea ya que en
el proceso no tiene lugar una absorción gradual de energía por parte del electrón hasta que alcanza la
energía suficiente para abandonar el metal. Este proceso es una colisión fotón-electrón, por lo que si
algún fotón de energía mayor que la función trabajo alcanza la superficie del cátodo, éste será absor-
bido inmediatamente por un átomo y se producirá la emisión inmediata de un electrón.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 459


Volumen II. Física II

Un aspecto interesante que merece la pena resaltar es que en el proceso fotoeléctrico los fotones
son absorbidos, lo que exige que los electrones estén ligados a átomos o a un sólido, ya que un elec-
trón libre no podría absorber un fotón y conservar en el proceso tanto su energía relativista como su
momento. Por consiguiente, el electrón deberá estar ligado de manera que las fuerzas de ligadura
transmitan el momento al átomo o al sólido. Puesto que la masa de un átomo o de un sólido son mu-
cho mayores que la del electrón, aquellos pueden absorber una gran cantidad de momento sin que se
produzca una variación apreciable en la energía.

3.2. Efecto Compton


En 1923 Arthur Holly Compton (1892-1962) realizó una serie de experimentos que confirmaron
de forma inequívoca la naturaleza corpuscular de la radiación electromagnética. El esquema del mon-
taje experimental utilizado se muestra en la figura 6.

Colimador
Fuente de
rayos X
Detector

Blanco
q

Figura 6. Montaje experimental para estudiar el


efecto Compton.

Un haz de rayos X de una longitud de onda l bien definida se hace incidir sobre un blanco de gra-
fito. Compton estudió la radiación dispersada para determinar las longitudes de onda presentes en
ella, para diferentes ángulos q entre la radiación incidente y la dispersada. Mientras que la radiación
incidente tenía una longitud de onda l = 0,709 Å, observó que la radiación dispersada presentaba dos
máximos bien definidos: uno con longitud de onda l igual a la longitud de la radiación incidente y
otro máximo con longitud de onda l´, mayor que la longitud de onda incidente, cuyo valor dependía
del ángulo q y alcanzaba su máximo valor para un ángulo q = 180º. Este fenómeno se denomina efec-
to Compton y se muestra en la figura 7.

I I

00 450

I l I l

900 135
0
Figura 7. Intensidad de los rayos
X dispersados en el experimento
de Compton, en función de la
longitud de onda y para diversos
l l ángulos q.

460 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

3.2.1. Predicción de la teoría clásica


Veamos lo que predice la teoría electromagnética clásica sobre la dispersión de la radiación
electromagnética. Si una onda electromagnética de frecuencia
r r n incide sobre una partícula cargada,
como el electrón, ésta experimenta una fuerza dada por F = qE. Como consecuencia, el electrón osci-
lará a la misma frecuencia que la fuerza aplicada y por consiguiente a la misma frecuencia que la onda
electromagnética incidente.
Por otra parte, de acuerdo con la teoría de la radiación electromagnética clásica, una partícula
cargada que se mueve en un movimiento armónico simple radia energía electromagnética de la mis-
ma frecuencia que la de la oscilación de la partícula en todas las direcciones del espacio, excepto la
dirección de oscilación. Por tanto, el electrón (o la partícula cargada) absorbe energía de la radiación
incidente y la vuelve a emitir a la misma frecuencia. Por consiguiente, la teoría clásica del electro-
magnetismo no puede explicar la existencia de una longitud de onda mayor (frecuencia más pequeña)
en la radiación dispersada.

3.2.2. Predicción mediante la teoría corpuscular de la radiación


A. H. Compton dio una explicación de este efecto postulando que los rayos X incidentes de fre-
cuencia n se comportaban como un haz de fotones cada uno con energía E = hn. Puesto que se obser-
vaba que la longitud de onda de la radiación dispersada era independiente del material utilizado en el
blanco supuso que en el fenómeno de dispersión no participaban los átomos completos del material,
sino que era debida a las colisiones de los fotones con los electrones libres y casi estacionarios del
blanco. De esta manera se tendría que los fotones chocaban con los electrones del blanco de la misma
manera que lo hacen las bolas de billar. La radiación dispersada correspondería a los fotones desvia-
dos después de la colisión.
En principio vamos a considerar que el fotón se comporta como una partícula que se mueve a la
velocidad c caracterizado por una energía E y un momento p. Ahora bien, esta partícula relativista tie-
ne unas características muy especiales. Puesto que el fotón se mueve a la velocidad de la luz c, se tie-
ne que la masa en reposo del electrón m0 es cero:

u2
m0 = m 1– =0 (68)
c2

Por otro lado, la energía en reposo del fotón también ha de ser cero:
E 0 = m0 c 2 = 0 (69)

Es decir, el fotón es una partícula relativista masa en reposo cero y energía en reposo cero. Por tanto,
el fotón no puede existir en reposo y sólo existe cuando se mueve a la velocidad de la luz c. El mo-
mento del fotón puede calcularse a partir de la relación general entre la energía relativista, el momen-
to y la energía en reposo:
E 2 = E 02 + p 2 c 2 (70)

Por tanto, el momento del fotón vendrá dado por:


E hn h
p= = = (71)
c c l
en donde hemos tenido en cuenta la relación entre la frecuencia y la longitud de onda dada por l = c/n.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 461


Volumen II. Física II

Analicemos a continuación la colisión de un fotón con un electrón del blanco que considerare-
mos estacionario. En la figura 8 se muestra un fotón de energía relativista total E y momento p que in-
cide sobre un electrón de masa en reposo m0 y energía en reposo m0c2. Después de la colisión el fotón
resulta dispersado y se mueve en una dirección que forma un ángulo q con la dirección incidente,
siendo su energía E´ y su momento p´. Por su parte el electrón se moverá en una dirección f con una
energía cinética K y un momento pe.

y y

hv´
hv
q
e x f x
l
e

Figura 8. Dispersión de los rayos X en el experimento de


Compton. Un fotón colisiona con un electrón
estacionario del blanco.

Del principio de conservación del momento se tiene que:


p = p'cos q + p e cos f (72)
y
0= p' sen q – p e sen f (73)

Elevando al cuadrado ambas expresiones se tiene que:


( p – p'cos q ) 2 = p e2 cos 2 f (74)
y
p' 2 sen 2 q = p e2 sen 2 f (75)

Sumando ambas expresiones obtenemos que:


p 2 + p' 2 –2 pp'cos q = p e2 (76)

La conservación de la energía total relativista implica que:


E + m0 c 2 = E '+ K + m0 c 2 (77)
de modo que:
E – E '= K (78)

Si tenemos en cuenta ahora la relación (71) entre la energía del fotón y el momento, la expresión ante-
rior se puede escribir como:
c(p – p´) = K (79)

462 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

Para encontrar una relación entre la energía cinética del electrón y el momento del electrón utilizare-
mos la ecuación (70):
( K + m0 c 2 ) 2 = p e2 c 2 + m02 c 4 (80)
en donde el primer miembro corresponde a la energía total relativista del electrón que es la suma de la
energía cinética y la energía en reposo. Desarrollando el cuadrado y despejando nos queda que:
K2
+ 2Km0 = p e2 (81)
c2

Sustituyendo ahora en esta expresión los resultados encontrados en (76) y (79) obtenemos que:
( p – p' ) 2 + 2m0 c( p – p' ) = p 2 + p' 2 –2 pp'cos q (82)
que se reduce a:
m0 c( p – p' ) = pp' (1– cos q ) (83)
o lo que es lo mismo:
1 1 1
– = (1– cos q ) (84)
p' p m0 c

Si multiplicamos ambos miembros por h y teniendo en cuenta de nueva lo ecuación (71) se tiene fi-
nalmente que:

h
l '– l = (1– cos q ) (85)
m0 c

A la cantidad:
h
lC = (86)
m0 c

se le denomina longitud de onda de Compton del electrón, pues la partícula dispersora de la radiación
es el electrón.
La ecuación (85) se denominada ecuación de Compton y predice que el aumento de la longitud
de onda de la radiación electromagnética dispersada Dl = l´ – l, denominado corrimiento Compton,
depende exclusivamente del ángulo de dispersión q y de la constante universal denominada longitud
de onda de Compton, y no de la longitud de onda incidente. El valor de este corrimiento Compton va
desde cero, para q = 0 hasta el valor máximo para q = 180º:
2h
Dl máx = = 0,049 Å (87)
m0 c

Este resultado explica el valor de la longitud de onda correspondiente al pico observado por Compton
en el experimento.
Por último, queda explicar el pico de intensidad de la radiación dispersada que corresponde a
una longitud de onda igual a la de la radiación incidente. En el estudio realizado anteriormente hemos
considerado que el fotón colisiona con un electrón libre. Esta suposición es válida incluso si el elec-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 463


Volumen II. Física II

trón está ligado pero la energía cinética que adquiere es mucho mayor que su energía de enlace. Pero
si el electrón está fuertemente ligado a un átomo del blanco, o si la energía del fotón incidente es muy
pequeña, existe una posibilidad de que el electrón no sea expulsado del átomo y en este caso podemos
suponer que la colisión tiene lugar entre el fotón y el átomo completo. Entonces el único cambio que
hay que hacer en el estudio anterior es sustituir en la ecuación de Compton la masa m0 en reposo del
electrón por la masa de todo el átomo M0. Puesto que la masa de los átomos es mucho mayor que la
masa del electrón, por lo general del orden de 104, esto implica que el corrimiento Compton debido a la
dispersión por los electrones fuertemente enlazados es despreciable y la longitud de onda del pico de in-
tensidad corresponde a la longitud de onda de la radiación incidente. Por ejemplo, si el blanco es grafito
se tiene que M0 • 24000 m0, por lo que de la expresión (87) se tiene que, sustituyendo m0 por M0 que:
2h 2h 0,049 –6
Dl máx = = = • 2 ´ 10 Å (88)
M 0 c 24000m0 c 24000

Este corrimiento de la longitud de onda del fotón incidente es prácticamente inapreciable, por lo
que el fotón dispersado tiene la misma longitud de onda que el incidente. A este fenómeno de disper-
sión en el que no se modifica la longitud de onda de la radiación incidente se le denomina dispersión
de Thomson.
En resumen, cuando sobre el blanco inciden rayos X se tiene que:

– Algunos de los fotones son dispersados por electrones libres o débilmente ligados a los áto-
mos del blanco, que a su vez son liberados por la colisión. Estos fotones modifican su lon-
gitud de onda y su valor viene dado por la ecuación de Compton.
– Otros fotones son dispersados por electrones fuertemente ligados a los átomos del blanco los
cuales permanecen ligados durante la colisión. Estos fotones no cambian su longitud de onda.

Es importante señalar que cuando la radiación incidente corresponde a la zona del espectro del
visible, las microondas o las ondas de radio, la longitud de onda es mucho más grande que el corri-
miento Compton. Por lo tanto la longitud de onda de la radiación dispersada es la misma que la de la
radiación incidente dentro de los límites de la precisión experimental. Es decir, cuando la longitud de
onda es grande, los resultados de la teoría clásica y la teoría cuántica coinciden. Sin embargo, confor-
me la longitud de onda se hace más pequeña el efecto Compton se hace patente siendo cada vez más
importante. Así, en la región de los rayos g la dispersión de Compton es la dispersión dominante. En
este caso, la física clásica no puede explicar los resultados experimentales.

4. DUALIDAD ONDA CORPÚSCULO


Desde el punto de vista de la física clásica, tal como hemos visto, la radiación electromagnética
es un fenómeno de propagación ondulatoria. Sin embargo, cuando estudiamos la interacción de la ra-
diación con la materia, como en el efecto fotoeléctrico y el efecto Compton, estos sólo pueden expli-
carse si se asume que la radiación electromagnética está compuesta de cuasi-partículas denominadas
fotones. Por consiguiente debemos considerar que la radiación electromagnética tiene propiedades
duales: cuando consideramos la forma en que se propaga se revela su naturaleza ondulatoria, mien-
tras que si estudiamos su interacción con la materia se pone de manifiesto su naturaleza corpuscular.
Como hemos comentado anteriormente, Albert Einstein fue el primero en concluir que la luz al-
gunas veces se comporta como una partícula. Esta conclusión la obtuvo mediante un análisis estadís-
tico de la fórmula de Wien para la distribución de la longitud de onda de la radiación calorífica. Poste-
riormente, Einstein repitió su cálculo estadístico utilizando la fórmula de Planck y llegó a la conclu-
sión de que para explicar la radiación de cuerpos calientes eran necesario utilizar el concepto de onda

464 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

y de partícula de la luz. Por otra parte, la explicación del efecto fotoeléctrico sólo puede hacerse en
base a considerar la luz incidente como una corriente de partículas denominadas fotones.
El doble aspecto de la naturaleza de la luz también se encuentra en la teoría desarrollada por Paul
Dirac para la interacción de la radiación electromagnética con partículas cargadas. No obstante, la teo-
ría de Dirac proporciona buenos resultados en algunos casos, mientras que en otros da lugar a resultados
inadecuados y sin sentido. Estos problemas fueron solucionados a mediados de los años cuarenta con
los trabajos de Sin-Itiro Tamonaga, Julian Schwinger y Richard Feynman que dieron lugar a la elec-
trodinámica cuántica. En esta teoría, el fotón es la partícula que actúa como comunicadora de la fuer-
za entre partículas cargadas. Sobre la base de esta dualidad on-
da-partícula, podemos considerar que la fuerza electromagnética
que experimenta una partícula es debido al campo electromagnéti-
co creado por la otra, o bien, a un intercambio de fotones entre am- e
-

-
bas. Este es el punto de vista de la electrodinámica cuántica, y el e g
diagrama que describe la fuerza electromagnética como conse-
cuencia del intercambio de fotones entre las partículas cargadas se
-
denomina diagrama de Feynman. e
-
e
En la figura 9 se muestra el diagrama correspondiente al
caso más sencillo en el que una de las partículas emite un fotón y
retrocede, y la segunda partícula absorbe el fotón. En una inte-
racción así, se transfiere energía y momento de una partícula a la
otra siendo el fotón el que transporta esa energía y momento.
Puesto que el fotón emitido por una de las partículas es absorbi- Figura 9. Diagrama de
do muy poco tiempo después por la otra partícula, no se observa. Feynman que muestra cómo
Por esta razón se le denomina fotón virtual, en contraposición a actúa un fotón como portador
los fotones libres que sí pueden detectarse con los instrumentos de la fuerza electromagnética
de medida adecuados. entre dos electrones.

4.1. Hipótesis de De Broglie


El comportamiento observado para la radiación electromagnética llevó a Louis de Broglie a asu-
mir la existencia de una simetría en la naturaleza y a proponer que el comportamiento dual mostrado
por la radiación debería aplicarse a cualquier partícula material. En su tesis doctoral, presentada en
1924, de Broglie postuló que:
El movimiento de una partícula esta regido por la propagación ondulatoria de una onda
piloto u onda de materia cuya longitud de onda l y frecuencia n están relacionadas con el mo-
mento de la partícula p y su energía E de la forma:

h
l= (89)
p

E
n= (90)
h

Sin duda alguna, la hipótesis de De Broglie era una de las ideas más originales introducidas en el cam-
po de la física. No obstante, fue considerada como una idea al margen de la realidad física por la falta
de evidencia experimental. Pocos años después se produjo la confirmación experimental de la idea de
De Broglie, lo que supuso que éste fuese galardonando con el premio Nobel de Física.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 465


Volumen II. Física II

4.1.1. Confirmación experimental de la hipótesis de De Broglie


La confirmación experimental de la hipótesis de De Broglie debe consistir en poner de manifies-
to que un haz de partículas presenta propiedades ondulatorias y produce fenómenos típicos de las on-
das como interferencia y difracción. Por otro lado, es bien conocido, según la óptica física, que para
que se produzcan este tipo de patrones en un experimento es necesario que la longitud de onda sea del
orden de las dimensiones del obstáculo o abertura que produce la difracción o la interferencia. Haga-
mos a continuación un cálculo de la posibilidad de hacer tales experimentos. Consideremos una pelo-
ta de tenis que se desplaza a una velocidad de 30 m/s y de masa 100 g. Según el postulado de De Bro-
glie la longitud de onda de la onda de materia asociada será:
h 6,626´10–34 J×s
l= = = 2,2´10–34 m = 2,2´10–24 Å (91)
p 0,1kg ´ 30 m / s

Por tanto, las dimensiones del dispositivo experimental debe ser 24 órdenes de magnitud más peque-
ño que el diámetro de un átomo. Por lo que es completamente imposible detectar un comportamiento
ondulatorio en el movimiento de una pelota de tenis. Las separaciones entre objetos más pequeñas
que podemos encontrar en la naturaleza y que pueden utilizarse para realizar experimentos de difrac-
ción son las distancias de separación entre átomos en las redes de los sólidos cristalinos, las cuales
son del orden de unos pocos ángstroms. Por tanto, si queremos tener éxito con este tipo de experimen-
tos para detectar la naturaleza ondulatoria de las partículas materiales debemos utilizar partículas
cuya longitud de onda de De Broglie sea de ese mismo orden. De acuerdo con la expresión (89) esto
será así si el momento de la partícula es pequeño, condición que se puede satisfacer si la masa de la
partícula es pequeña como es el caso de los electrones. Esta idea fue presentada por Elasser en 1926,
quien propuso que la naturaleza ondulatoria de la materia podía comprobarse experimentalmente de
la misma forma que se había probado la naturaleza de los rayos X. Para ello bastaría hacer incidir un
haz de electrones con la energía apropiada sobre un sólido cristalino. En este caso, los átomos del cristal
se comportarían como una red de difracción tridimensional y deberían dispersar a los electrones en cier-
tas direcciones características, de igual forma a como ocurría con los rayos X. Esta idea fue llevada a la
práctica por Davisson y Germer en Estados Unidos y por G. P. Thomson en Escocia.
En 1927 C. J. Davisson y L. H. Germer llevaron a cabo su experimento con una disposición ex-
perimental como la mostrada de forma esquemática en la figura 10. Los electrones producidos por un
filamento caliente eran acelerados por un potencial variable V y salen por un pequeño orificio del
ánodo con energía cinética eV. El haz se hace incidir sobre un cristal de níquel y se mide la intensidad
del haz dispersado a diferentes ángulos f respecto del haz incidente y para diferentes valores de V.

Filamento
e q f
V q

Ánodo
f Detector
Figura 10. Esquema del
montaje utilizado por
Cristal
Davisson y Germer en su
experimento.

Si el haz se comportase como un conjunto de partículas se esperaría que la intensidad del haz
dispersado mostrase una suave dependencia monótona con V y con f debido a las colisiones elásticas
de los electrones con los átomos del cristal. Los planos del cristal se comportarían como paredes, de
manera que los electrones saldrían con un ángulo de reflexión aproximadamente igual al de inciden-

466 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

cia. En consecuencia, para cualquier ángulo de incidencia se tendría que el número de partículas que
emergen en un ángulo igual al de incidencia sería el mismo y además sería independiente de la veloci-
dad de los electrones y por tanto del potencial de aceleración V. Por el contrario, si los electrones se
comportan como una onda entonces se esperaría un patrón de difracción como el observado para los
rayos X. En este caso se debería satisfacer la condición de difracción de Bragg:
nl = 2d sen q (92)

I
f = 50º

Figura 11. Intensidad de los


electrones dispersados en el
experimento de Davisson y
Germer, para un ángulo f = 50º, V = 54 V V
en función de V.

La distancia entre los planos atómicos podía calcularse mediante experimentos de difracción de
rayos X y resultaba ser d = 0,91 Å. Por otra parte, de los experimentos con rayos X de longitud de
onda l = 1,65 Å se obtenía que el ángulo q = 65º. Por tanto, de la figura, se tiene que el ángulo f = 50º.
Davisson y Germer dispusieron el equipo experimental con el detector situado a ese mismo ángulo y
midieron la intensidad del haz dispersado para distintos valores de V. Encontraron que cuando V = 54
V se tenía un máximo en la intensidad (figura 11). A partir de este resultado calcularon la longitud de
onda de los electrones según la hipótesis de De Broglie. El resultado es el siguiente. La energía cinéti-
ca de los electrones incidente es:
1 p2
K = mu 2 = (93)
2 2m

Por tanto, teniendo en cuenta que K = eV, el momento de los electrones vendrá dado por:
p = 2meV (94)

Sustituyendo esta relación en la expresión (89) se tiene que la longitud de onda de De Broglie de los
electrones es:
h h
l= = (95)
p 2meV

Sustituyendo los valores numéricos de las constantes que aparecen en la expresión y el valor experi-
mental encontrado para el potencial de aceleración de los electrones V = 54 V, se tiene que:
l = 1,67 Å (96)

El acuerdo entre la longitud de onda predicha por De Broglie para los electrones de esta energía
y el valor de la longitud de onda para los rayos X difractados resultó ser excelente. Por consiguiente,
este experimento confirmaba la hipótesis de De Broglie de que las partículas tienen propiedades on-
dulatorias, siendo la relación entre la longitud de onda y el momento de la partícula la dada por (89).

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 467


Volumen II. Física II

Después del experimento de Davisson y Germer otros muchos físicos encontraron evidencias
experimentales del comportamiento ondulatorio de la materia. Así, Estermann, Stern y Frisch reali-
zaron experimentos sobre la difracción por cristales de litio de haces de átomos de hidrógeno y helio;
y Fermi, Marshall y Zinn realizaron experimentos similares con neutrones lentos. Hoy en día, la exis-
tencia de las ondas de materia descansa en bases experimentales sólidas, siendo además la difracción
de electrones y neutrones una de las técnicas más comúnmente utilizadas en el estudio de la estructura
cristalina de los sólidos.
La dualidad onda-partícula y la función de onda. La aceptación del postulado de De Broglie
de las ondas de materia conlleva algunas cuestiones controvertidas como el significado de la función
de onda de la partícula y la conexión entre el modelo corpuscular y el modelo ondulatorio. Estas cues-
tiones quedan más claras si hacemos una interpretación probabilística de la función de onda. Para en-
tender esta interpretación de la función de onda comenzaremos por considerar el caso de la radiación
electromagnética y la interpretación de Einstein de la función de onda del campo electromagnético.
Desde el punto de vista clásico, la radiación electromagnética consiste en un campo eléctrico y
magnético que se propaga como una onda. Sin embargo, hemos estudiado que esta interpretación es in-
suficiente para explicar algunos aspectos de su interacción con la materia (efecto fotoeléctrico y efecto
Compton), que sólo son explicables adoptando un modelo de partícula. Por tanto, surge la cuestión de
cuál es la conexión entre el modelo ondulatorio y el corpuscular. La respuesta es que el lazo de unión
entre ambos modelos es la intensidad de la onda I. En el tema 27 vimos que la intensidad de una onda
electromagnética es el promedio del vector de Poynting, y puede escribirse como:
1
I = e0 E 2 (97)
2
en donde E es el campo eléctrico de la onda electromagnética (no confundir con la energía). Por otro
lado, desde el punto de vista del modelo corpuscular la intensidad puede escribirse como:
I = cNhn (98)
en donde c es la velocidad de propagación de los fotones, hn la energía de cada fotón y N es la densi-
dad promedio de fotones. Comparando ambas expresiones se tiene que:
N µ E2 (99)

Como vemos, hablamos de densidad promedio de fotones. Esto es debido a que los procesos de
emisión de los fotones son de naturaleza aleatoria, pues una fuente emite fotones al azar en todas di-
recciones. Como consecuencia de esta aleatoriedad no podemos decir con exactitud si dentro de un
determinado volumen pequeño encontraremos o no un fotón. Sin embargo, sí podemos hablar de la
probabilidad de encontrar un fotón dentro de un volumen dado, densidad de probabilidad, la cual
será proporcional a la densidad promedio de fotones N. Si ahora tenemos en cuenta que según (99)
N µ E 2 podemos concluir que la probabilidad de encontrar un fotón dentro de un volumen dado
del haz es proporcional al promedio del cuadrado de la amplitud de la onda asociada al haz. Por tan-
to, dentro del modelo corpuscular de la radiación electromagnética, modelo de fotones, la onda no
es un campo electromagnético, sino que es representada por una función matemática que mide la
densidad de probabilidad de los fotones. Esta es la interpretación de Einstein de áE2ñ como medida
probabilística de la densidad de fotones.
En 1926, Max Born (1882-1970), en analogía a la interpretación de Einstein de la radiación, pro-
puso una extensión de la interpretación probabilística a las ondas de materia propuestas por Louis de
Broglie para las partículas materiales. De acuerdo con esta interpretación, aceptada hoy por la mayo-
ría de los físicos, lo que “ondula” no es algo físico como las partículas de una cuerda o las moléculas
de agua en una ola: la onda de materia es representada por una función matemática y (r, t), denomina-
da función de onda, cuya interpretación es la siguiente: si en un instante de tiempo t realizamos una

468 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

medida para determinar la posición de la partícula asociada a la función de onda y (r, t), la probabili-
dad P(r, t)dV de que larpartícula se encuentre dentro de un pequeño volumen dV alrededor de un pun-
to con vector posición r (respecto de cierto sistema de coordenadas) es igual a |y (r, t)|2 dV. Es decir:
2
P(r, t)dV = |y (r, t)| dV (100)

Puesto que la probabilidad de encontrar a la partícula en algún sitio en el espacio ha de ser la unidad,
la función de onda debería estar normalizada. Es decir:

ò
¥

–¥
| y ( r, t )|2 dV = 1 (101)

El problema en mecánica cuántica se reduce a encontrar la función de onda de una partícula o sistema
de partícula, a partir de la cual pueden encontrarse todas las propiedades físicas interesantes del mismo.
Es de señalar que esta interpretación probabilística de la función de onda no fue, parece eviden-
te, bien acogida por parte de la comunidad científica de principios del siglo XX. Entre los críticos a
esta nueva interpretación se encontraban el propio Louis de Broglie y Albert Einstein quien sentenció
que “Dios no juega a los dados con el Universo”. La razón de estas posiciones científicas e ideológi-
cas es que la interpretación de Born suponía un ataque demoledor a uno de los principios fundamenta-
les de la física clásica: el concepto de determinismo. No obstante, en 1927 Heisenberg y Bohr demos-
traron que era precisamente el concepto de probabilidad lo que resultaba crucial en la unión de las dos
descripciones, corpuscular y ondulatoria, del comportamiento de la materia y de la radiación.

5. PRINCIPIO DE INCERTIDUMBRE DE HEISENBERG.


RELACIONES DE INCERTIDUMBRE
Aunque en física clásica se utilizan en ocasiones métodos probabilísticos, las leyes clásicas,
como las leyes de Newton, son deterministas. El análisis estadístico de la física clásica no es más que
una herramienta que se utiliza por razones de tipo práctico cuando estudiamos sistemas compuestos
de un gran número de partículas. Esta combinación de las leyes clásicas con los métodos estadísticos
conduce a un cuerpo teórico poderoso como es la mecánica estadística. Sin embargo, la mecánica
cuántica se caracteriza por su carácter intrínsecamente probabilístico. Es decir, que el punto de vista
probabilístico es fundamental en la física cuántica, en la que el determinismo debe ser descartado. En
lo que sigue vamos a ver con más detalle la razón de esta diferencia fundamental entre ambas teorías.
De acuerdo con la física clásica, si conocemos las fuerzas que actúan sobre una partícula y sus
condiciones iniciales (es decir, el valor de la posición y de la velocidad en algún instante de tiempo
anterior), la resolución de las ecuaciones del movimiento nos permite predecir o determinar exacta-
mente cuál será su posición y su velocidad en cualquier instante de tiempo posterior. La única asun-
ción que se hace es que la posición y la velocidad iniciales de la partícula pueden ser determinadas
exactamente. Pero ¿es esto posible? ¿es posible determinar con exactitud y de forma simultánea la
posición y la velocidad en un experimento real? La respuesta de la física clásica es que con los instru-
mentos de medida adecuados es posible. Sin embargo, la respuesta de la mecánica cuántica es otra y
viene dada por el principio de incertidumbre o indeterminación de Heisenberg que establece que:
En un experimento no se puede determinar simultáneamente una componente del mo-
mento de una partícula, por ejemplo px, y el valor exacto de la correspondiente coordenada x.
La limitación en la medida viene expresada por la condición:
Dp x Dx ³ h (102)

en donde D indica la incertidumbre o error en la medida.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 469


Volumen II. Física II

De forma análoga a la expresión (102) se tienen otras dos condiciones iguales para las otras dos
componentes de la posición y el momento:

Dp y Dy ³ h (103)

Dp z Dz ³ h (104)

Sobre esta afirmación es importante señalar dos aspectos importantes:

– La limitación que impone el principio no tiene nada que ver con los adelantos y mejora en
la instrumentación científica. El principio establece que aun contando con instrumentos
ideales los resultados de las medidas vienen limitados por la ecuación (102).
– El principio no establece que no se pueda determinar con completa exactitud la posición o el
momento de la partícula. Puesto que en (102) aparece un producto de incertidumbres, el princi-
pio dice que cuanto más precisa sea la medida de px mayor será la incertidumbre en x y vicever-
sa. Así, si por ejemplo diseñamos un experimento de manera que se determina con exactitud la
velocidad de la partícula (Dpx = 0), se ignoraría por completo la posición (Dx = ¥).

Una segunda parte del principio de incertidumbre de Heisenberg hace referencia a la incerti-
dumbre en la medida de la energía DE del sistema y del intervalo de tiempo Dt característico de cam-
bio del sistema:

DE Dt ³ h (105)

Más tarde veremos que el principio de incertidumbre de Heisenberg es una consecuencia de la


hipótesis de De Broglie y puede derivarse de las propiedades generales de las ondas. Antes de entrar a
analizar esta relación veamos que la diferencia entre los resultados clásico y cuántico provienen de
nuevo del valor pequeño pero no nulo de la constante de Planck.
Consideremos por ejemplo una pelota de tenis de masa 100 g que es golpeada y se mueve a una ve-
locidad de 30 m/s la cual es medida con un precisión de 0,1 m/s. La incertidumbre en el momento lineal
será Dpx = mDux = 10–2 kg · m/s. La expresión (102) establece que la incertidumbre en la posición será
Dx ³ h/Dpx • 10–32 m. Es decir, que no podemos conocer la posición de la pelota con una precisión me-
nor que la calculada anteriormente. Ahora bien, esta distancia es tan sumamente pequeña que evidente-
mente no limita de ninguna manera la posibilidad de conocer la posición de la pelota.
Consideremos ahora un electrón en el átomo de hidrógeno. El radio más pequeño de una órbita
de Bohr es aproximadamente 0,5 ´ 10–10 m. Para calcular con la máxima exactitud el valor de px va-
mos a considerar que la incertidumbre de la posición es máxima y por tanto Dx = 10–10 m. La preci-
sión de la componente px del momento será Dpx ³ h/Dx • 10–24 kg · m/s. Es decir, el momento del elec-
trón no puede conocerse con una exactitud menor que este valor. Ahora bien, si suponemos que el elec-
trón se encuentra en el estado de energía más bajo y teniendo en cuenta que la energía cinética es igual
en magnitud a la energía total K = 13,9 eV = 13,9eV ´ 1,6 ´ 10–19 J/eV = 2,18 ´ 10–18 J. El momento
del electrón será p = 2mK • 2 ´ 10–24 kg · m/s, y por consiguiente la razón entre la incertidumbre y el
momento es Dpx/p = 50%.
Por tanto, vemos que en la física clásica en principio podemos determinar con exactitud las posicio-
nes y velocidades de todas las partículas en un instante dado y calcular dónde estarán y lo que harán en un
instante posterior. Sin embargo, vemos que en mecánica cuántica las limitaciones sobre el conocimiento
simultáneo de la posición y el momento nos llevan a utilizar el concepto de probabilidad de la localización

470 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

de la partícula y de su momento. Es decir, en mecánica cuántica sólo podemos predecir aproximadamente


dónde estará y qué ocurrirá. El concepto clásico del determinismo debe ser abandonado.
Ondas de materia y principio de incertidumbre. Hemos visto que, según la hipótesis de De Bro-
glie, la propagación de una partícula está regida por una onda y(r, t). Vamos a analizar con más detalle la
forma de esta función de onda y al mismo tiempo veremos que el principio de incertidumbre puede obte-
nerse de las propiedades generales de una onda.
La forma más sencilla que puede tener la función de onda es la de una onda sinusoidal de la forma:
y ( x, t ) = y 0 sen ( kx – wt ) (106)

Las características de una onda de este tipo son las siguientes:


– Su amplitud es la misma en todos los puntos del espacio.
– Tiene una longitud de onda bien definida dada por l = 2p/k.
– Tiene una frecuencia bien definida dada por n = w/2p.
– Se propaga a lo largo de la dirección del eje x con una velocidad w = ln = w/k.

Lo que nos preguntamos es si esta función de onda puede ser asociada a una partícula material. Si
la partícula tiene un momento y una energía bien definida, entonces la expresión (106) satisface adecua-
damente los requisitos impuestos por la hipótesis de De Broglie. Sin embargo, observamos que debido
a que la amplitud de la onda es constante en todos los puntos del espacio, la probabilidad de encontrar a
la partícula es la misma en cualquier región del espacio. Es decir, la partícula está completamente deslo-
calizada Dx = ¥. Este resultado es lógico, pues para una partícula con un momento bien definido se tie-
ne que Dpx = 0 y de acuerdo con el principio de incertidumbre de Heisenberg la incertidumbre en la po-
sición debería ser infinita. Por tanto, la expresión (106) puede describir a una partícula con el momento
y la energía bien definida, pero que por el contrario está completamente deslocalizada.
Utilizando las relaciones de la hipótesis de De Broglie, podemos expresar la velocidad de propa-
gación de la onda sinusoidal en función del momento y de la energía de la partícula como:
h E E
w= = (107)
p h p

Si se supone que la partícula se mueve con velocidad u no relativista la expresión anterior puede es-
cribirse como:
E 12 mu u
2

w= = = (108)
p mu 2

Es decir, que la onda de materia no se propaga a la misma veloci-


dad con la que se mueve la partícula a la que representa. Este resultado,
en apariencia inconsistente, no supone ningún problema en este caso
en el que la amplitud de la onda es la misma en todo el espacio. Más x
tarde veremos cómo se interpreta adecuadamente este resultado.
Para describir una partícula localizada parcialmente en el espacio
la función de onda debe tener una amplitud diferente de cero sólo en
una pequeña región del espacio en donde hay posibilidad de encontrar
a la partícula. Por tanto, es evidente que no podemos utilizar una fun- Figura 12. Una partícula
ción de onda como la dada en (106). Una función de onda con estas ca- localizada se puede
racterísticas es lo que se denomina paquete de ondas (figura 12). Mate- representar mediante un
máticamente, un paquete de ondas de este tipo se construye superpo- paquete de ondas.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 471


Volumen II. Física II

niendo un número infinito de ondas sinusoidales como la dada por (106) en la que cada una de ellas
difiere de la anterior en una cantidad infinitesimal en su longitud de onda y en su frecuencia. Esto se
puede escribir como:

y ( x, t ) = ò0 A ( k ) sen ( kx – w( k )t ) dk
¥
(109)

en donde w es en general una función de k. La función A(k) determina la contribución de cada onda sinu-
soidal al paquete de ondas y determina la forma del mismo. En la figura 13 se muestra la forma del paque-
te en función de x y en un instante de tiempo dado, para diferentes distribuciones de la función A(k).

A(k) y

k x

A(k) y

k x

A(k) y

k x
Figura 13. Diferentes paquetes de
ondas obtenidos a partir de
distintas distribuciones A(k).

Como puede observarse, conforme el rango de los valores de k aumenta más estrecho se hace el
paquete de ondas. De la misma forma se podría representar la función de onda en un punto del espacio
en función del tiempo. Un resultado general que se obtiene para los paquetes de onda, que se conoce
con el nombre de teorema del ancho de banda, es que la anchura espacial Dx y el intervalo Dk viene
dada por:
Dk Dx³1 (110)

Ahora bien, si el paquete representa una onda de materia debe cumplirse que:
h h
l= Þ Dp = Dk = hD k (111)
p 2p

Por tanto, multiplicando la expresión (110) por h se tiene que:


DpDx³ h (112)
que corresponde al principio de incertidumbre de Heisenberg.
Hasta ahora hemos visto que para describir una partícula localizada en el espacio debemos utili-
zar un paquete de ondas, pero no hemos dicho nada respecto de la velocidad de propagación del pa-
quete. Puesto que la función de onda nos proporciona la probabilidad de encontrar a la partícula en un
instante dado, la onda debe acompañar a la partícula, y por consiguiente, la velocidad de propagación

472 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

del paquete debe ser igual a la velocidad de la partícula material. Para comprobar que esto es así va-
mos a estudiar, sin pérdida de generalidad, el caso sencillo de un paquete de ondas formado por dos
ondas sinusoidales.
Consideremos la superposición de dos ondas que difieren ligeramente en su longitud de onda y
en su frecuencia expresadas en la forma:
y 1 = A sen ( kx – wt ) (113)

y 2 = A sen[( k + Dk ) x – ( w+ Dw )t ] (114)

siendo Dk << k y Dw << w. La onda resultante de la superposición de ambas viene dada por:
y = y 1 + y 2 = Asen ( kx – wt ) A sen[ ( k + Dk ) x – ( w+ Dw )t ] (115)

Si hacemos uso de la relación trigonométrica:


A–B A+B
sen ( A + B ) = 2cos sen (116)
2 2
el resultado lo podemos escribir de forma más compacta como:
æ Dkx – Dwt ö
y = 2A cosç ÷sen ( kx – wt ) (117)
è 2 ø

en donde hemos utilizado las aproximaciones 2k + Dk • 2k y 2w + Dw • 2w.


En la figura 14 se representa la onda resultante. Como podemos observar, esta onda resultante es
una onda que se propaga en la dirección del eje x pero cuya amplitud está modulada. El factor de mo-
dulación corresponde a la curva discontinua de la figura y viene dado por:
æ Dkx – Dwt ö
2A cosç ÷ (118)
è 2 ø
ug
u

x
Figura 14. Onda resultante de la
superposición de dos ondas de
frecuencia similares.

Como vemos, el factor de modulación es a su vez una onda que se propaga a la velocidad:
Dw
ug = (119)
Dk
denominada velocidad de grupo.
Si en vez de superponer dos ondas armónicas tuviésemos un paquete de onda compuesto de mu-
chas ondas cuyas longitudes de onda y frecuencias difiriesen muy poco unas de otras, la expresión de
la velocidad de propagación del paquete vendría dada por:

dw
ug = (120)
dk

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 473


Volumen II. Física II

Si tenemos en cuenta que la frecuencia está relacionada con la velocidad y el número de ondas por
w = ku, la expresión anterior se transforma en:

du du
u g = u+ k = u– l (121)
dk dl

Utilizando las relaciones de De Broglie y la expresión (120) podemos encontrar la relación entre la
velocidad de la onda de materia, velocidad de grupo, y la velocidad de la partícula. De las relaciones
de De Broglie se tiene que:
2p h dp
l= = Þ dk = (122)
k p h

y por otro lado:


w E dE
n= = Þ dw = (123)
2p h h

Sustituyendo estos resultados en (120):


dw dE
ug = = (124)
dk dp

Si ahora tenemos en cuenta que E = mu2/2 = p2/2m y que p = mu, resulta finalmente que:
dw d E p
ug = = = =u (125)
dk dp m

El paquete de ondas se propaga a la misma velocidad que lo hace la partícula. Es decir, la onda de ma-
teria se mueve con la partícula.

474 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Controversia sobre la naturaleza de la luz

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano, Bogotá, 1971.


Borowitz, S.: Fundamentos de Mecánica Cuántica. Reverté, Barcelona, 1973.
Eisberg, R. M.: Fundamentos de Física Moderna. Limusa, México, 1991.
Eisberg, R. y Resnick, R.: Física Cuántica. Limusa, México, 1978.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall, Upper Saddle River, New Jersey, 1996.
French, A. P.: Principles of Modern Physics. John Wiley, New York, 1958.
García, N. y Damask, A. C.: Physics for Computer Science Students. John Wiley,
New York, 1986.
Gasiorowicz, S.: Quantum Physics. John Wiley, New York, 1974.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill,
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall, México, 1988.
Haken, H. y Wolf, H.C.: The Physics of Atoms and Quanta. Springer-Verlag,
Berlin, 1993.
Holliday, D. y Resnick, R.: Física. CECSA, México, 1983.
Peebles, P. J. E.: Quantum Mechanics. Princeton University Press, Princeton,
New Jersey, 1992.
Sandin, T. R.: Essential of Modern Phisics. Addison-Wesley Publissing Com-
pany, New York, 1989.
Shankar, R.: Principles of Quantum Mechanics. Plenun Press, New York, 1980.
Tipler, P. A.: Física. Editorial Reverté, Barcelona, 1992.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 475


TEMA

32 Sistemas materiales. Mezclas,


sustancias puras y elementos.
Transformaciones físicas
y químicas. Procedimientos
de separación de los
componentes de una mezcla
y de un compuesto.
Lenguaje químico: normas IUPAC

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. NOCIONES DE SISTEMAS MATERIALES

2. MEZCLAS, SUSTANCIAS PURAS Y ELEMENTOS


2.1. Mezclas, por oposición a sustancias puras
2.2. Mezclas homogéneas: disoluciones
2.3. El límite de la homogeneidad: dispersiones coloidales
2.4. Sustancias puras: elementos y compuestos

3. TRANSFORMACIONES FÍSICAS Y QUÍMICAS


3.1. Transformaciones físicas
3.2. Transformaciones químicas
3.3. Transformaciones fisicoquímicas
3.4. Transformaciones nucleares

4. SEPARACIÓN DE LOS COMPONENTES DE UNA MEZCLA


4.1. Generalidades
4.2. Filtración y sedimentación
4.3. Cristalización y sublimación
4.4. Destilación
4.5. Extracción con disolventes
4.6. Cambio iónico
4.7. Cromatografía
4.7.1. Introducción
4.7.2. Cromatografía en columna
4.7.3. Cromatografía en capa fina
4.7.4. Cromatografía en papel
4.7.5. Cromatografía de gases
4.7.6. Cromatografía líquida de alta resolución (HPLC)

5. SEPARACIÓN DE ELEMENTOS DE SUS COMPUESTOS


5.1. Generalidades
5.2. Obtención de un metal: el hierro
5.3. Obtención de un no metal: el cloro

6. LENGUAJE QUÍMICO: NORMAS IUPAC


6.1. Introducción
6.2. Elementos y compuestos binarios
6.3. Compuestos ternarios
6.3.1. Hidróxidos
6.3.2. Oxiácidos
6.3.3. Sales neutras
6.3.4. Sales ácidas
6.3.5. Sales básicas
6.4. Cationes y aniones

BIBLIOGRAFÍA

478 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

1. NOCIONES DE SISTEMAS MATERIALES


Consideraremos aquí como sistema material a una parte del universo físico que se describe en
términos atómico-moleculares, es decir, en el lenguaje de la química.
La primera distinción entre unos sistemas y otros procede de la observación macroscópica y los
clasifica en homogéneos y heterogéneos. Los sistemas homogéneos ofrecen el mismo aspecto y las
mismas propiedades en todos sus puntos. Los sistemas heterogéneos no ofrecen el mismo aspecto y
propiedades en todos sus puntos sino que muestran diferencias que se concretan en fases distintas, es
decir, en partes, en sí mismas homogéneas, pero físicamente diferenciadas de otras partes circundan-
tes y separadas de ellas por superficies definidas.
Póngase atención al hecho de que hemos basado, de momento, la homogeneidad o heterogenei-
dad en criterios de simple observación macroscópica que nada prejuzgan sobre la composición de
cada fase. Es, por lo tanto, una visión preatómica de la realidad.
Un clásico ejemplo de sistema heterogéneo es el granito, una roca en la que se aprecian puntos
negros, otros que son grises y translúcidos, y otros que se presentan blancos y opacos. Pero también
se puede catalogar de sistema heterogéneo, según el criterio dado, el contenido en un vaso donde re-
posan cristales de hielo junto al agua que van produciendo por fusión.
Sistemas homogéneos son, por ejemplo, un bloque de hielo a temperatura inferior a 0 ºC, el agua
de mar o un trozo de latón.
Pero mas allá de estas apreciaciones sencillas, el avance de las ciencias físicas y químicas en los
dos últimos siglos ha permitido bucear en la constitución de los cuerpos, para mostrarnos paulatina-
mente la complejidad que se oculta bajo la aparente sencillez de los materiales y descubrir nuevos cri-
terios de homogeneidad o heterogeneidad.

2. MEZCLAS, SUSTANCIAS PURAS Y ELEMENTOS

2.1. Mezclas, por oposición a sustancias puras


Si consideramos los sistemas materiales, no simplemente por observación directa, sino a través
del cristal intelectual que la ciencia ha ido elaborando a lo largo de los dos últimos siglos, podemos
clasificar la variedad de la materia ordinaria de acuerdo con el siguiente esquema:

HETEROGÉNEAS

MEZCLAS DISPERSIONES
COLOIDALES
SISTEMAS HOMOGÉNEAS
MATERIALES (DISOLUCIONES)

COMPUESTOS
SUSTANCIAS
PURAS
ELEMENTOS

El objeto central de la química es el estudio de las sustancias puras: su aislamiento, propieda-


des y transformaciones. Pero las sustancias puras son prácticamente inexistentes en la naturaleza; lo
que de hecho encontramos por todas partes son mezclas, sistemas que contienen varias sustancias pu-
ras conjuntadas en un grado mayor o menor de división.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 479


Volumen II. Física II

Si nos consta que algún sistema tiene dos o más componentes químicos y resulta evidente su he-
terogeneidad, estamos ante una mezcla heterogénea. El granito, cuyo análisis revela que incorpora,
como mínimo, tres minerales distintos: cuarzo, ortosa y mica, sería un ejemplo de mezcla heterogé-
nea. En cambio, los cristales de hielo en contacto con el agua líquida, es un material heterogéneo pero
no es una mezcla, puesto que no hay en presencia más que una sola sustancia pura: el agua.
Por el contrario, si un sistema, del que nos consta, por evidencias experimentales propias o aje-
nas, que tiene varios componentes químicos, presenta un aspecto uniforme en toda su extensión, de-
cimos que es una mezcla homogénea. Un ejemplo de mezcla homogénea es el aire, donde hay nitró-
geno, oxígeno y otras sustancias. Las mezclas homogéneas se llaman también –sin enredarnos en bi-
zantinismos– disoluciones.

2.2. Mezclas homogéneas: disoluciones


Como hemos dicho, las sustancias puras son el objeto de las investigaciones químicas, pero el
camino práctico por el que discurren esas investigaciones es, casi siempre, la manipulación de disolu-
ciones, hasta el punto de que cuando se quiere transmitir la imagen convencional de un laboratorio de
química, pura o aplicada, se presenta un local lleno de recipientes de vidrio que contiene disoluciones
y algún profesional que transvasa líquidos de unas a otras.
Las disoluciones, cuya importancia en química es indiscutible, se pueden presentar en los tres
estados físicos: sólido, líquido y gaseoso. Pero las más importantes, con mucha diferencia, son las di-
soluciones líquidas.
Puesto que es una mezcla, la disolución debe contener al menos dos componentes. Es lo más co-
rriente que se llame disolvente al que se encuentre en mayor proporción y soluto al de menor. El disol-
vente más importante, tanto desde el punto de vista ambiental como industrial y científico, es el agua.
Hay sustancias que pueden mezclarse en cualquier proporción y siempre dan mezclas homogé-
neas, o sea, disoluciones. Tal es el caso del agua con el alcohol etílico. Las sustancias que gozan de
ilimitada solubilidad recíproca se denominan miscibles entre sí.
Pero en otros casos no ocurre lo mismo. Si añadimos poco a poco sal común al agua pura, observa-
remos que al principio la sal se disuelve en el agua pero a partir de una cierta cantidad se deposita en el
fondo del recipiente sin poder disolverse. La disolución que queda en contacto equilibrado con la sal só-
lida recibe el nombre de disolución saturada, y su concentración es la máxima posible para una disolu-
ción acuosa de cloruro sódico a la temperatura ambiente. La concentración de la disolución saturada es,
por definición, la solubilidad de un soluto en un disolvente a una temperatura dada. La solubilidad pue-
de variar mucho de unos solutos a otros, y también varía, en general, con la temperatura.
El soluto, en el seno del disolvente, se encuentra dividido al grado máximo compatible con su
identidad química. Las partículas mínimas de soluto que se mueven entre el disolvente pueden ser io-
nes o moléculas. En el primer caso, el soluto –y por extensión, la disolución– se denomina electrólito,
mientras en el segundo se habla de soluto – o disolución– molecular. Un ejemplo clásico de electróli-
to es una disolución acuosa de NaCl, en tanto que el alcohol etílico forma con el agua una disolución
molecular. En cualquier caso, la extrema pequeñez de los iones o de las moléculas explica la homoge-
neidad aparente de la disolución.

2.3. El límite de la homogeneidad: dispersiones coloidales


Si trituramos un sólido insoluble (por ej, carbón) y lo dispersamos en el agua, se obtiene un líqui-
do turbio cuya heterogeneidad queda patente cuando lo examinamos al microscopio. Además, con el
paso del tiempo, las partículas van sedimentando y separándose del líquido. Estos sistemas se llaman
suspensiones groseras o, simplemente, suspensiones, y está claro que son mezclas heterogéneas.

480 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

Entre las disoluciones propiamente dichas y las suspensiones


hay un terreno intermedio que es el de las dispersiones coloidales,
donde las partículas dispersas tienen unas dimensiones cuyos lími-
tes, que no son muy exactos, se pueden situar entre el nanómetro Microscopio
(nm) y el micrómetro (mm) que, más o menos, representan el poder
resolutivo del ultramicroscopio de Zsigmondy y del microscopio de
luz azul, respectivamente.
Por su naturaleza química, las partículas coloidales dispersas
Dispersión Sistema
pueden ser de dos tipos. Micelas, que son agregados de átomos, io- de
coloidal
nes o micromoléculas, como es el caso de las dispersiones acuosas Iluminación
de oro coloidal, que están constituidas por ultramicrocristales de
este metal. Y macromoléculas, que son moléculas químicas indivi- Esquema del ultramicroscopio
duales pero de enorme tamaño, como pueden ser las proteínas. de Zsigmondy.

Se denomina sol a toda dispersión coloidal, en general, si bien


pueden darse denominaciones específicas según el medio de dispersión: hidrosoles, en el agua; aero-
soles, en el aire; etc. Destacamos como sistemas coloidales más importantes:
– Suspensión coloidal o sol: fase sólida dispersa en medio líquido. Ej., disolución de almi-
dón en agua.
– Emulsión: líquido en líquido. Ej., mayonesa.
– Espuma: gas en líquido. Ej., nata batida.
– Niebla: líquido en gas. Ej., nebulizaciones (spray).
– Humo: sólido en gas. Ej., humo de cigarrillo.
– Gel: líquido en sólido: Ej., queso.

2.4. Sustancias puras: elementos y compuestos


Las sustancias puras, a diferencia de las mezclas y disoluciones, tienen una composición deter-
minada y constante, y están bien caracterizadas mediante sus propiedades en condiciones fijadas.
La inmensa mayoría de las sustancias puras existentes son compuestos, es decir, cuerpos que
pueden descomponerse en otros más sencillos llamados elementos.
El siglo XVII marca, con las ideas e investigaciones del químico irlandés Robert Boyle
(1627-91), la crisis de la Alquimia y el principio de la nueva ciencia química. En su obra El químico
escéptico (1661), define elemento químico como toda aquella sustancia que no puede descomponerse
en otras mediante operaciones experimentales. Como se ve, es una definición que se puede aplicar
sólo de modo provisional, mientras un experimento no demuestre lo contrario. De hecho, varios cuer-
pos considerados entonces e incluso hasta fines del siglo XVIII como “elementos” vinieron después a
ser resueltos en otros cuerpos más simples mediantes nuevas técnicas químicas.
Como botón de muestra de lo dificultoso del avance científico y la profusión de errores que lo
acompañan, podemos señalar que en 1789 Lavoisier publicó la primera lista de “elementos quími-
cos”, 33 en total, donde se consideraban como tales la cal, la sílice, la sosa...
Con el progreso en el conocimiento del núcleo del átomo y la fijación del número atómico o lu-
gar de un elemento en la tabla periódica, se pudo formular una definición conceptual de elemento quí-
mico como aquella sustancia cuyos átomos tienen todos el mismo número de protones, o sea, el
mismo número atómico.
Se conocen en la naturaleza 90 elementos químicos, a los que hay que añadir, hasta la fecha,
poco más de una veintena de elementos artificiales producidos por la tecnología nuclear. El resto de

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 481


Volumen II. Física II

las sustancias son compuestos o combinaciones de estos elementos; su número alcanza a varios mi-
llones y crece cada vez más rápidamente, bien porque se encuentran en la naturaleza, especialmente
en los seres vivos, o porque se sintetizan en los cada vez más numerosos laboratorios de química ex-
tendidos por todo el mundo.
Desde cierto punto de vista, se podría hacer la paradójica afirmación de que los elementos no
son sustancias puras sino mezclas. Porque, en general, los átomos de un elemento no son todos igua-
les, ya que existen los llamados átomos isótopos, que, teniendo el mismo número de protones, difie-
ren en el número de neutrones. No obstante, los químicos no consideran de ordinario esto como una
objeción a su concepto de elemento porque:
a) Las propiedades químicas de los isótopos son prácticamente idénticas;
b) Los isótopos de cada elemento están mezclados de modo que la proporción de cada uno se man-
tiene constante, no importa cuál sea la fuente de la que se ha extraído elemento, de donde resulta
que el peso atómico –que es la media ponderada de los pesos de los isótopos– es el mismo en
cualquier parte de la Tierra y los cálculos estequiométricos pueden hacerse como si se tratara de
una especie atómica única.

3. TRANSFORMACIONES FÍSICAS Y QUÍMICAS


3.1. Transformaciones físicas
Las transformaciones o cambios que experimenta la materia se consideran físicos cuando las
sustancias que sufren el cambio son las mismas antes que después del mismo, por oposición a los
cambios químicos, en los que sí se transforman unas sustancias en otras. Otra característica distintiva
de los cambios físicos es que la energía absorbida o liberada en ellos es relativamente pequeña, si se la
compara con la que acompaña a las transformaciones químicas.
Los cambios físicos que sufren los sistemas materiales son muy variados. Puede ser una dilata-
ción por efecto del calentamiento, la conducción de la corriente eléctrica a través de una sustancia
metálica, la trituración de un sólido para reducirlo a pequeñas partículas, etc. Pero hay un tipo de
transformaciones físicas que aquí nos interesan de modo especial: los cambios de estado.
Dentro de las condiciones de presión y temperatura en que se desenvuelven, de ordinario, las ac-
tividades humanas, la materia puede adoptar, en general, tres estados: sólido, líquido y gaseoso. No
obstante, hay muchas sustancias que no pueden existir en los tres estados porque se descomponen a
temperatura elevada, como ocurre a menudo con los compuestos orgánicos.
El paso de un estado a otro viene determinado por variaciones de la temperatura, y durante el cam-
bio mismo se producen absorciones o desprendimientos de calor, junto con variaciones de volumen.
Estudiemos lo que ocurre cuando calentamos un sólido. Tomemos como ejemplo agua en estado
sólido, es decir, hielo. Supongamos que inicialmente está a –25 ºC y que empezamos a calentar de una
manera uniforme en el tiempo y en el espacio (para esto habrá que agitar sin interrupción la muestra, a
fin de evitar diferencias de temperatura dentro de su masa). La temperatura de la muestra evoluciona se-
gún la figura 1.
Se observa que, a medida que pasa el tiempo, la temperatura del hielo se va elevando (tramo a-b)
hasta que al llegar a la temperatura de 0 ºC ésta permanece invariable (tramo b-c) a pesar de que segui-
mos suministrando calor. ¿A dónde va a parar esta energía térmica que el sistema sigue absorbiendo?
Si observamos la muestra, notaremos que ha empezado a derretirse, que está pasando del estado
sólido al líquido en un fenómeno llamado fusión. El calor que un cuerpo absorbe durante su fusión,
por unidad de masa, se llama calor latente de fusión y se emplea en vencer las fuerzas intermolecula-
res de atracción, con lo que las moléculas quedan más libres y pueden desplazarse unas con respecto a
otras, como es propio del estado líquido. Para el H2O, el calor de fusión, a 0 ºC, vale 80 cal/g.

482 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

Temperatura
f

d Ebullición
T.E e

Líquido
y Gas
gas

b Fusión
T.F c
Sólido
y Líquido
Sólido líquido

a Tiempo de
Curva de calentamiento calentamiento

Figura 1. Evolución de la temperatura con el tiempo durante la


calefacción de una muestra de agua.

Se llama punto de fusión de una sustancia pura a la temperatura que funde cuando la presión am-
biental es de 1 atm. En ocasiones, la determinación experimental del punto de fusión de una sustancia
desconocida se utiliza para identificarla, como una técnica más del análisis químico.
Volviendo a nuestro experimento, si al llegar al punto c , donde todo el hielo se ha fundido, se-
guimos calentando, la temperatura del agua empieza a subir, aunque a menor velocidad que lo hacía
en el hielo porque el calor específico del agua es mayor. Así llegaremos hasta los 100 ºC, donde la
temperatura se estabilizará de nuevo porque ha empezado la ebullición, que se prolonga a lo largo del
tramo d-e. La muestra absorbe ahora calor para separar entre sí las moléculas y alcanzar el estado ga-
seoso. El calor correspondiente, por unidad de masa, se llama calor latente de vaporización, y en el
caso del agua vale 539 cal/g, cuando se mide a 100 ºC. También la temperatura o punto de ebullición
es un parámetro característico de cada sustancia; para el agua es, obviamente, 100 ºC, a la presión at-
mosférica ordinaria.
En cuanto toda el agua se ha convertido en vapor, si se sigue calentando, la temperatura aumenta
de nuevo (tramo e-f).
Todos los pasos mencionados son reversibles, de forma que enfriando un vapor éste experi-
menta la licuación o condensación a la misma temperatura del punto de ebullición, sólo que ahora
se desprende calor, el mismo que se absorbió en la ebullición, y otro tanto ocurre con la solidifica-
ción de un líquido.
Bajo ciertas condiciones de presión y temperatura, los cuerpos sólidos pueden pasar directa-
mente al estado gaseoso, transformación denominada sublimación. El proceso opuesto, el paso di-
recto de gas a sólido también se llama sublimación o bien condensación. Ejemplos de sustancias
que subliman fácilmente a la presión atmosférica y a temperaturas moderadas son el CO2 , el yodo y
el naftaleno.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 483


Volumen II. Física II

3.2. Transformaciones químicas


En los fenómenos químicos la materia experimenta cambios más profundos que en los físicos. Unas
sustancias desaparecen y otras se forman. Por ejemplo, consideremos la combustión del alcohol etílico. El
etanol reacciona con el oxígeno del aire y desaparece para dar dióxido de carbono y agua; las sustancias
que desaparecen se llaman reactivos o reaccionantes y las que se originan en el cambio, productos:
Etanol + oxígeno ® dióxido de carbono + agua

Y según el lenguaje específico de la química:


CH3 -CH2OH + 2O2 ® 2CO2 + 3H2O

Se puede observar que en un cambio químico los átomos no se alteran, el número de átomos de
cada elemento permanece constante, pero se unen entre sí de un modo diferente y dan lugar a nuevas
estructuras que, lógicamente, tienen propiedades nuevas.
Por otra parte, la energía liberada en los procesos químicos es muy superior a la correspondiente
a los cambios físicos. Podemos escoger como término de comparación el agua como objeto de un
cambio físico y de un cambio químico. El paso de gas a líquido de un gramo de agua vapor a 100 ºC
desprende (recuérdese lo dicho en la ebullición del agua) 539 calorías; en cambio, cuando se forma
un gramo de agua por reacción entre el oxígeno y el hidrógeno –en el soplete oxhídrico, por ejemplo–
se desprenden 3811 calorías.

3.3. Transformaciones fisicoquímicas


La frontera de separación entre fenómeno físico y fenómeno químico no siempre es tan nítida
como aparece en los ejemplos que llevamos reflejados. Hay muchos casos en que la realidad se resis-
te a ser encasillada en los conceptos anteriores, y se puede proponer entonces la calificación de cam-
bios o fenómenos fisicoquímicos.
Para concretar, consideremos el caso de la disolución de un soluto en un disolvente. En principio
parece que toda disolución no es más que un fenómeno físico. Si disolvemos NaCl en agua, obtene-
mos un sistema donde sigue estando presente el cloruro sódico con sus propiedades. Y basta que deje-
mos evaporar –que es un proceso físico sencillo– la disolución para que recuperemos tanto el agua
pura como la sal tal cual estaban al principio.
Sin embargo, si examinamos otros casos de disoluciones acuosas nos encontraremos con he-
chos más problemáticos. Cuando se disuelve ácido clorhídrico, HCl, en agua se forma una nueva
especie química, el ion hidronio, H3O+, y se ha roto el enlace que unía cloro e hidrógeno, H – Cl. Y
la ruptura y formación de enlace es uno de los signos más indiscutibles de que ha tenido lugar una
reacción química.
Todavía resulta más sensible la naturaleza química del proceso en el caso de la disolución del
ácido sulfúrico en agua. Cuando se mezclan agua y sulfúrico se desprende una gran cantidad de ca-
lor, hasta el punto de que hay que actuar con mucho cuidado si queremos evitar un peligroso acci-
dente. Hay que añadir el ácido sobre el agua, en pequeñas cantidades, por la pared inclinada del
recipiente, y removiendo la mezcla para repartir y disipar el calor liberado, no sea que en el punto
de contacto se produzca una ebullición súbita que salpique al operador con sulfúrico concentrado y
caliente, es decir, en sus condiciones más agresivas. Por lo tanto, no podemos decir que la disolu-
ción de sulfúrico en agua sea un sencillo fenómeno físico. Ha sido en realidad una reacción áci-
do-base, o sea, una transferencia protónica desde la molécula de H2SO4 a la de H2O, con la lógica
ruptura y formación de enlaces químicos.

484 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

Las disoluciones pueden ser muy variadas, según de qué soluto y de qué disolvente se trate.
Puede darse una gama muy amplia de casos en los que se va desde la transformación principalmen-
te física hasta la predominantemente química. Puede ser razonable llamarlas, pues, transformacio-
nes fisicoquímicas.

3.4. Transformaciones nucleares


En las reacciones químicas ordinarias los átomos rompen y forman enlaces entre ellos, pero per-
manecen idénticos a sí mismos, como descubrió Dalton en su teoría atómica, que ha sido la base de la
ciencia química en los dos últimos siglos. Pero se conocen transformaciones, unas naturales y otras
de factura humana, en la que los átomos cambian de identidad. Son las transformaciones nucleares.
En los cambios nucleares, los átomos, o con más precisión, los núcleos atómicos se transforman
unos en otros, con lo que unos elementos desaparecen en el proceso mientras otros nuevos son gene-
rados, en un tipo de alteración de la materia tan profundo que podría ser calificado de cambio hiper-
químico. La energía puesta en juego en las reacciones nucleares es enorme, muy superior a la de las
reacciones químicas ordinarias.
Los primeros fenómenos nucleares fueron descubiertos –aunque en ese momento no se conocie-
ra su naturaleza profunda– por el francés Becquerel a finales del siglo XIX, y posteriormente desarro-
llados por los esposos Curie. Se trataba de desintegraciones espontáneas o radiactividad natural, en
las que el radio y otros elementos pesados emitían partículas nucleares y se transformaban en otros
elementos. El cambio de un elemento en otro se llama transmutación.
Los elementos pesados, con masas atómicas superiores a 200, pueden experimentar la llamada
desintegración alfa cuando emiten desde su núcleo una partícula a, un corpúsculo constituido por la
unión de dos protones y dos neutrones, es decir, un núcleo atómico de helio. Al emitir esta partícula,
el núcleo emisor pierde dos protones y se convierte en un elemento con dos unidades menos de núme-
ro atómico o, lo que es lo mismo, dos puestos más atrás en la tabla periódica. Por ejemplo, el radio, un
metal alcalinotérreo, se convierte, por desintegración a, en radón, un gas noble.
Otra forma corriente de desintegración radiactiva es la desintegración beta, que consiste en la
emisión de un electrón desde el núcleo. Este electrón procede de la descomposición intranuclear de
un neutrón en un protón y un electrón. Como el protón así producido sigue estando en el núcleo, el
nuevo elemento generado en la transmutación tiene un número atómico superior en una unidad a su
progenitor. Es lo que ocurre cuando el carbono-14, que por esto es radiactivo, emite un electrón y se
convierte en nitrógeno-14. Los electrones emitidos en este tipo de desintegración radiactiva constitu-
yen la llamada radiación b.
Existen otros tipos menos corrientes de desintegración radiactiva que no es necesario detallar
aquí. Generalmente, las desintegraciones radiactivas van acompañadas de emisión de radiación g,
que está constituida por ondas electromagnéticas de frecuencia extremadamente alta y que es una for-
ma de disipar la energía en exceso después de un cambio nuclear. La radiación g, por su extraordina-
ria energía y su capacidad de penetración de la materia, es el principal peligro que comportan las
sustancias radiactivas.
También sería desproporcionado, en el presente contexto, detenernos a explicar otros tipos de
procesos nucleares como la fisión o la fusión termonuclear.
La energía que se libera en las transformaciones nucleares, ya lo hemos dicho, es enorme, muy
superior a la de las transformaciones químicas ordinarias, como se pone de manifiesto en el estallido
de las armas nucleares y en los reactores, donde se produce una fracción importante de la energía que
consume hoy la humanidad.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 485


Volumen II. Física II

Podemos hacernos una idea calculando, en términos comparables a los ejemplos energéticos
que hemos dado para cambios físicos y químicos, la energía liberada en una transformación nuclear
“suave”, la desintegración b del carbono-14:
14
6 C ® 14
7 N + 0
-1 e + 0,156MeV

Convertimos los MeV en calorías, pasamos del átomo al mol, y de éste al gramo de carbono-14,
para llegar al resultado de que en la transmutación de un gramo de carbono-14 a nitrógeno-14 se libe-
ran casi ¡258 millones de calorías! (compárese con las 539 cal/g de la ebullición del agua, o con las
3811 cal/g de la síntesis química del agua).

4. SEPARACIÓN DE LOS COMPONENTES DE UNA MEZCLA

4.1. Generalidades
La separación de componentes de mezclas es, sin duda, la tarea práctica más importante de la
química. Mediante operaciones de separación se obtienen unos productos, se purifican otros y se in-
vestiga la presencia de muchos otros en los más variados escenarios de los intereses humanos.
Las técnicas de separación son extraordinariamente variadas y abarcan tecnologías tan dispares
como la separación de los isótopos de un elemento, la purificación de proteínas o la obtención de una
fracción de los componentes del petróleo.
Los métodos de separación están determinados, entre otros muchos factores, por la escala del
proceso. A grandes rasgos, unos métodos son válidos para la escala industrial mientras otros son más
convenientes para la escala de laboratorio.
Aquí vamos a examinar un catálogo muy resumido de técnicas de naturaleza física, que son las
más comprensivas y generales. Porque también existen técnicas químicas de separación, pero su
campo de aplicación resulta muy especializado en relación con el componente a separar, por lo que su
descripción hay que buscarla en las monografías científicas y tecnológicas que tratan de las sustan-
cias que sean de interés en cada caso.

4.2. Filtración y sedimentación


La filtración es una operación conducente a la separación de los sólidos finamente divididos
que forman una suspensión en el seno de un líquido, mediante una superficie que permite el paso del
líquido pero no el de las partículas suspendidas. Esta operación también puede efectuarse cuando, en
lugar de un líquido, el medio de dispersión es un gas.
Los manuales elementales de prácticas de laboratorio muestran cómo se monta y realiza una ope-
ración sencilla de filtración empleando papel de filtro y embudo. La filtración puede hacerse más rápida
creando un vacío, por medio de una trompa de agua, en el recipiente donde se recoge el filtrado; en este
caso, el embudo debe ser de tipo especial, de porcelana, con superficie de filtración perforada que se cu-
bre con un disco de papel de filtro, y se ajusta mediante un tapón de goma horadado. El matraz apropia-
do para la filtración en vacío es el llamado matraz Kitasato, y el embudo descrito es el embudo Büchner.
Las partículas sólidas suspendidas en un líquido, con el paso del tiempo, van cayendo por atrac-
ción gravitatoria en el fondo del recipiente en un movimiento que se llama sedimentación. Es una
operación lenta que, a escala industrial, se facilita con aparatos como el decantador o espesador Dorr,
que trabaja en régimen continuo y va eliminando el lodo concentrado que se va formando en el fondo
de un gran tanque, mientras el líquido claro desborda por la parte superior.

486 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

En ciertos casos se emplea la sedimentación centrífuga, donde la sedimentación se combina con


la aplicación de una fuerza inercial centrífuga que viene a producir una especie de gravedad intensifi-
cada, de modo que la velocidad de sedimentación se hace mucho mayor.
En bioquímica ha resultado muy útil el empleo de la ultracentrífuga, diseñada en 1925 por T.
Svedberg, que permite alcanzar aceleraciones inerciales equivalentes a 250.000 veces la aceleración
de la gravedad. Estas aceleraciones hacen posible la sedimentación fraccionada de agregados supra-
moleculares e incluso de moléculas de proteínas procedentes de muestras biológicas.

4.3. Cristalización y sublimación


Para purificar, desde una mezcla, un cuerpo que es sólido a la temperatura ordinaria, el método
más practicado es la cristalización. Para efectuarla, se prepara una disolución saturada de la muestra,
es decir, se añade a la mezcla sólida la mínima cantidad de disolvente que se necesite para disolverla.
Después se lleva la disolución a condiciones de sobresaturación, bien por evaporación de parte del di-
solvente, bien por enfriamiento de la disolución, ya que generalmente la solubilidad de las sustancias
disminuye al disminuir la temperatura. Tras la aparición de los cristales, se filtra para separarlos del lí-
quido (“aguas madres”), se lavan los cristales con disolvente puro y se espera a que se sequen.
Un ejemplo de cristalización por evaporación de disolvente lo tenemos en las salinas, estanques
muy amplios y poco profundos, que se disponen en las inmediaciones de litorales cálidos, como los
existentes en Torrevieja (Alicante), y que se llenan con agua de mar. La fuerte insolación ambiental
produce una relativamente rápida evaporación del agua, hasta que se alcanza la saturación y a conti-
nuación la cristalización de la sal.
Ya hemos dicho en el apartado de transformaciones físicas que el paso de una sustancia directa-
mente del estado sólido al estado gaseoso se llama sublimación. Como los diferentes sólidos tienen
distintas presiones de vapor, o sea, distinta facilidad para pasar al estado de vapor, este fenómeno per-
mite separar unas sustancias de otras. El procedimiento puede realizarse a la presión atmosférica o al
vacío, aunque sería mejor decir a presión reducida.
Una aplicación concreta de este método de separación es la técnica de la liofilización, mediante la
cual se puede eliminar el agua de una mezcla. La mezcla se enfría primero hasta una temperatura lo bas-
tante baja para que este líquido se convierta en cristales de hielo, después se hace el vacío y a continua-
ción se eleva lentamente la temperatura de modo que el hielo sublima y el producto queda desecado.
La liofilización respeta la estructura y composición del producto mejor que otras técnicas por
efectuarse la operación en fase sólida (con las restricciones que puedan ponerse al término “fase sóli-
da” en ciertos sistemas fisicoquímicos), pero tiene el inconveniente de resultar económicamente cos-
toso. Por ello sus aplicaciones se reducen a productos de alto valor comercial, como alimentos
selectos, productos farmacéuticos y otros similares.

4.4. Destilación
Cada líquido tiene un punto ebullición característico a una presión determinada. Este hecho fun-
damenta el método de separación por destilación de una mezcla líquida, siempre que los componen-
tes de la mezcla tengan puntos de ebullición diferentes. Para ello, se calienta la mezcla, se recoge el
vapor producido y se condensa a líquido por enfriamiento. En la figura 2 se representan dos aparatos
de destilación: uno para destilación sencilla y otro para destilación fraccionada.
En la forma más simple de destilación o destilación sencilla, se puede recoger las primeras can-
tidades de vapor, que contiene el componente más volátil en alto grado de pureza, mientras las últi-
mas contienen el menos volátil también muy puro. Pero el método resulta muy poco eficiente porque
entre esos dos extremos hay una gran cantidad de vapor que es todavía una mezcla de ambos.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 487


Volumen II. Física II

termómetro
Termómetro

Refrigerante

al refrigerante
Matraz de
destilación
Salida de agua
matraz
Entrada de agua de destilación

Destilado

(a) (b)

Figura 2. Aparatos de destilación: a) Destilación sencilla. b) Columna de destilación fraccionada.

Por eso, cuando los puntos de ebullición de los componentes son parecidos es necesario recurrir
a una modificación de la técnica que se llama destilación fraccionada. Consiste en colocar una co-
lumna de fraccionamiento entre el matraz de destilación y el condensador. En los montajes de labora-
torio, suele ser un tubo largo de vidrio relleno de algún material inerte que presente mucha superficie
al contacto con los vapores. A lo largo de la columna, los vapores del componente menos volátil con-
densan y resbalan por gravedad hacia el matraz mientras los del más volátil ascienden hasta que salen
hacia el condensador.
La destilación fraccionada permite, con un tubo de longitud suficiente y una manipulación co-
rrecta de la temperatura, separar mezclas de líquidos de puntos de ebullición próximos. Una aplica-
ción de extraordinaria importancia industrial y económica es la que utilizan las refinerías de
petróleos, donde el petróleo crudo es sometido a una destilación fraccionada en grandes torres que
hacen las veces de los tubos antes mencionados, y se descompone en una serie de fracciones, que no
son sustancias puras sino mezclas de hidrocarburos, que el mercado demanda como productos espe-
cíficos de gran consumo: gasolina, gasóleo, queroseno, aceites lubricantes, etc.
Dependiendo del tipo de sustancia que se trata de separar, existen otras técnicas especializa-
das de destilación como la destilación a vacío y la destilación en corriente de vapor. La primera
se realiza por extracción del aire del aparato de destilación para conseguir la vaporización a una
temperatura inferior y evitar así la descomposición de sustancias sensibles a la temperatura. La
segunda se aplica a la separación de compuestos inmiscibles en agua, y consiste en pasar una co-
rriente de vapor de agua a través de la mezcla. Pero no podemos desorbitar aquí la explicación de-
tallada de estos procesos.

4.5. Extracción con disolventes


Esta técnica, o grupo de técnicas, consiste en la separación de un componente de una mezcla
gracias a la disolución selectiva del mismo en un disolvente apropiado. Tras la pertinente filtración,
para desechar residuos sólidos, se procede a la evaporación del disolvente y se obtiene el compo-
nente puro.

488 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

Es práctica corriente a fin de separar compuestos orgánicos que


se encuentran en suspensiones o disoluciones acuosas mezclados con
otros componentes, por ejemplo, de tipo inorgánico. Se trata la fase
acuosa con un disolvente orgánico inmiscible y se agita la mezcla en
un embudo de separación o decantación, se dejan sedimentar las dos Refrigerante
capas líquidas, y con la llave del embudo se separa una de otra. Final-
mente, se evapora el disolvente para obtener el componente deseado.
Pero de lo dicho puede sacarse la engañosa impresión de que la ta-
rea es fácil. En realidad, la eficiencia del proceso aumenta cuanto mayor
sea el número de extracciones sucesivas, con un volumen total siempre
el mismo, claro. Es decir, si disponemos de 50 mL de disolvente, es me-
jor emplearlo en dos operaciones de 25 mL cada una que hacerlo de una Dedal
sola vez con los 50 mL. Extrapolando hasta una situación ideal, haría
falta aplicar un número infinito de extracciones, cada una de ellas con
un volumen muy pequeño de disolvente. Y hay que tener en cuenta que
sería un proceso de duración infinita y de manipulación muy difícil…
Para superar de modo práctico esta dificultad, se recurre a un mé-
todo de extracción continua con aparatos que efectúan el tratamiento
automático de dispersiones acuosas. Entre ellos es de uso muy co-
rriente el aparato de Soxhlet, que permite la extracción repetida y ex-
haustiva de un sólido mediante un disolvente adecuado. La muestra se
deposita en un cartucho o “dedal” dentro del aparato. El disolvente
hierve en un matraz y sube como vapor por un tubo lateral, condensa y
gotea sobre la muestra; la disolución formada atraviesa el cartucho y
cae por gravedad al matraz, en un ciclo continuo, de modo que el ex-
tracto se va concentrando en el matraz de ebullición. Esta técnica es
Aparato de Soxhlet.
muy útil para aislar productos naturales en muestras de origen animal,
vegetal o alimentario, fuertemente hidratadas.

4.6. Cambio iónico


Los iones de sales inorgánicas presentes en una disolución acuosa pueden ser selectivamente ex-
traídos de la misma mediante resinas de intercambio iónico, materiales poliméricos de alto peso
molecular, insolubles en agua, que tienen en su estructura grupos iónicos o ionizables.
Cuando la disolución acuosa atraviesa un relleno de partículas de estas resinas, éstas ceden sus
iones hidrógeno a cambio de los cationes de la disolución y sus iones hidróxido a cambio de los anio-
nes. Por este procedimiento se pueden eliminar los electrólitos del agua y obtener agua “desminerali-
zada”, prácticamente pura en muchos casos. También el método permite separar las sales inorgánicas
de los compuestos orgánicos que pueden acompañarlas, como sería el caso de una mezcla de sacarosa
y NaCl en disolución acuosa, que, al pasar por una columna de intercambio iónico, dejaría la sal adhe-
rida a la columna mientras la sacarosa seguiría disuelta en el agua.
Entre las múltiples aplicaciones de la técnica de intercambio iónico, se puede citar la separación
de los elementos lantánidos o la de los productos de la fisión del uranio y del plutonio.
Las resinas permutadoras de cationes tienen grupos funcionales de tipo ácido como carboxilo
–COOH, ácido sulfónico –SO3H o fenol –OH. Las permutadoras de aniones pueden tener un hidróxi-
do disponible en forma de hidróxido de amonio cuaternario [R-N(CH3)3]OH.
Durante la fabricación de estos polímeros se controlan las condiciones de reacción a fin de obte-
ner un producto de la reticulación adecuada, de estructura abierta que facilite la entrada de los iones
desde la disolución, insoluble y con estructura general resistente.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 489


Volumen II. Física II

4.7. Cromatografía
4.7.1. Introducción
En 1906 el químico biológico ruso Tswett publicó un experimento que es considerado como el
punto de partida de las técnicas de separación cromatográficas. Montó una columna larga de vidrio,
rellena de sulfato de calcio pulverizado, que tenía una llave en la salida inferior, puso en su parte su-
perior una mezcla de pigmentos vegetales y a continuación agregó éter de petróleo. Observó entonces
que aparecían varias bandas horizontales de diferentes colores, correspondientes a los diferentes pig-
mentos de la mezcla, que se habían separado a lo largo de la columna. Esta separación está condicio-
nada por la diferente afinidad de adsorción de los pigmentos sobre el yeso, de modo que los que se
adsorben más débilmente son arrastrados por el disolvente y se depositan en último lugar.
El término “cromatografía” se construyó a partir del griego y significa literalmente “escritura
coloreada”. Las distintas técnicas cromatográficas han contribuido enormemente a resolver numero-
sos problemas de separación de sustancias en propósitos de preparación, purificación y análisis, espe-
cialmente en muestras de origen biológico, aunque también en muchos otros campos como, por
ejemplo, la separación de los productos de la fisión nuclear cuando aún no se disponía de las resinas
intercambiadoras de iones.
En esencia, las técnicas cromatográficas se basan en la separación de especies químicas provo-
cada por el flujo de un líquido (o un gas, en la cromatografía gaseosa) a través de una fase estaciona-
ria, sólida o líquida, debidamente anclada en un soporte instrumental, cuando existen afinidades
diferenciadas de dichas especies con respecto tanto a la fase fluyente cuanto a la estacionaria.
Comentaremos de forma sumaria algunas de las técnicas cromatográficas más representativas.

4.7.2. Cromatografía en columna


Como adsorbentes se emplean sólidos caracterizados por su inercia química (sílice, alúmina,
carbón, etc.) y con un alto grado de división. Debido a su gran superficie específica, son capaces de fi-
jar por adsorción diferentes sustancias si bien con distinta intensidad. Si una mezcla de dos sustan-
cias, un suponer, se coloca en la parte superior de una columna de vidrio (Figura 3) rellena con un
adsorbente como los mencionados y se vierte por el extremo superior de la columna un disolvente
adecuado, éste disolverá ambas sustancias y las arrastrará a lo largo de la columna por gravedad.

mezcla
componentes
separados
relleno

Figura 3. Separación por cromotografía en columna.

490 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

Por su parte, el adsorbente tenderá a captar por adsorción ambos cuerpos, aunque con distinta
intensidad, lo que determinará que uno de ellos quede retenido con preferencia en el primer tramo
de la columna, mientras el otro se fije en ella más adelante, cuando ha desaparecido la competencia
del primero.
Como el disolvente sigue entrando por el extremo superior de la columna, se produce el fenóme-
no denominado elución, es decir, la desorción o desprendimiento de los solutos de la superficie del
adsorbente. Manejando la llave de salida de la columna, podemos separar las distintas fracciones que
van saliendo; primero, la que contiene el soluto más débilmente retenido, luego, la del otro. Una pos-
terior evaporación del disolvente permitirá obtener las dos sustancias por separado.

4.7.3. Cromatografía en capa fina


Se basa también en el principio de la adsorción sobre un sólido, pero aquí éste se encuentra ex-
tendido sobre una placa o lámina de vidrio o plástico, sujeto por un aglutinante cuando sea necesario.
La solución con la mezcla a separar se coloca en forma de una pequeña mancha en la proximidad
del borde de la placa, y con este borde hacia abajo, colocamos la lámina en contacto con el disolvente
aunque evitando el contacto directo inicial de la mancha con el disolvente.
El disolvente asciende poco a poco por capilaridad y provoca el desdoblamiento de la mezcla. Al
llegar el frente del disolvente casi al borde superior, se saca la placa, se evapora el disolvente y se ne-
buliza sobre la placa con un reactivo específico que produce un color donde esté cada componente de
la mezcla; esta operación se llama revelado.
Un parámetro que permite identificar cada componente cromatografiado es el R¦, que es el co-
ciente entre la distancia del componente al punto de salida y la distancia del frente del disolvente al
mismo punto.

4.7.4. Cromatografía en papel


Es una técnica muy antigua y muy sencilla y ha tenido una enorme importancia en investigacio-
nes bioquímicas. Como adsorbente se emplea una hoja de papel de filtro de un tipo especializado lla-
mado Whatman, del que existen varias clases según los distintos fines perseguidos. El desarrollo es
semejante al de la cromatografía en capa fina.

Corcho con
hendidura

Tira de
papel

Mancha de
la muestra
Disolvente

Cromatografía de papel en un tubo de ensayo.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 491


Volumen II. Física II

Un perfeccionamiento de esta técnica, que permite resolver mezclas difíciles, consiste en la llama-
da cromatografía bidimensional. En este caso, después de obtenido el cromatograma normal, se deja
que se seque y se gira 90 º, para aplicarle una segunda pasada, pero ahora con un disolvente distinto. Así
se consigue una separación de componentes, que no pudieron ser resueltos en el primer cromatograma,
y que sí se separan en este segundo paso, en dirección perpendicular al primero (Figura 4).

separación incompleta separación completa

mezcla inicial

desarrollo con el desarrollo tras girar 90º


primer disolvente con segundo disolvente

Figura 4. Cromatografía bidimensional en papel.

4.7.5. Cromatografía de gases


Esta técnica de separación tiene una gran importancia y se emplea para separar gases o bien
cuerpos que, siendo líquidos o sólidos, son muy volátiles. Puede emplearse para preparaciones a pe-
queña escala y, con las debidas modificaciones, a escalas mayores.
En un tubo se coloca un relleno consistente en algún material no reactivo, finamente dividido y
poroso, que se impregna con aceites minerales o con siliconas (Figura 5). La muestra a analizar o se-
parar se inyecta en una corriente de un gas portador cuya elección está determinada por el tipo de
muestra y el sistema de detección aplicado.
muestra problema
n-butano

cámara de inyección señal propano


gas isobutano
inerte columna
amplificador
etano
aire
registrador
cámara
termoestática al colector
detector tiempo

(a) (b)

Figura 5. Cromatografía de gases: a) Esquema del montaje. b) Cromatografía de una mezcla


de hidrocarburos.

Algunos de los gases portadores empleados son el helio, el nitrógeno o el hidrógeno. Los vapo-
res de la muestra son arrastrados a través de la columna y tienden a disolverse parcialmente en la fase
líquida aceitosa, pero dadas las diferentes solubilidades, se forman “bandas” en los distintos tramos
de la columna. Estas fracciones van pasando luego por el detector el cual envía su información a un
registro que permite identificar los distintos componentes de la mezcla.

492 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

Los detectores empleados dependen de la naturaleza de las sustancias presentes en la mezcla.


Pueden ser de conductividad térmica, termoiónicos, ionización de llama, etc.
Los diseñadores de esta técnica fueron los investigadores ingleses Martin y Singe y fueron ga-
lardonados por su trabajo con el premio Nobel de 1952.

4.7.6. Cromatografía líquida de alta resolución (HPLC)


En torno a 1960 la cromatografía de gases asume un cierto protagonismo en el abanico de las técni-
cas cromatográficas y se inician investigaciones tanto de índole teórica como instrumental que desembo-
can en la cromatografía líquida de alta resolución, en inglés, High Performance Liquid Chromatography
(HPLC).
En una visión global de este campo instrumental, se describe el proceso cromatográfico como
una variedad de fuerzas que compiten de manera diferenciada por cada especie química, bien ten-
diendo a fijarla en la fase estacionaria (relleno de la columna), bien a arrastrarla con la fase móvil
mientras atraviesa la columna.
Estas fuerzas aparecen en función de la naturaleza tanto del componente a separar cuanto de las
dos fases en litigio. Vamos a mencionar las más importantes entre ellas.
Fuerzas de adsorción entre la fase estacionaria y el soluto, en competencia con las fuerzas diso-
lutivas que ejerce la fase móvil sobre el mismo.
Tendencia al reparto o partición del soluto entre dos fases inmiscibles, en general líquidas las dos.
Fuerzas iónicas, mediante las cuales el soluto se fija en ciertos puntos dotados de carga eléctrica
situados en el material de relleno.
Y finalmente, una separación de componentes basada en el tamaño molecular. Un relleno de
textura porosa adecuada permite excluir las moléculas grandes, que no pueden atravesar los poros y
son arrastradas más fácilmente por la corriente de fluido, mientras las moléculas pequeñas se “pier-
den” en el laberinto poroso y tardan más en salir de la columna. Es la llamada cromatografía de exclu-
sión molecular.
La expansión de la HPLC ha sido enorme en los últimos años: bioquímica clínica, análisis de
sueros, análisis metabólico, alimentos, bebidas, etc. Por mencionar un campo analítico de gran actua-
lidad como es el de la contaminación ambiental, esta técnica ha contribuido eficazmente en la deter-
minación de hidrocarburos aromáticos policíclicos, con poder cancerígeno, en aerosoles, polvo,
gases de escape, aguas, etc.; del mismo modo, ha tenido una importancia crucial en el análisis de pes-
ticidas, nitrosaminas, fenoles, etc.

5. SEPARACIÓN DE ELEMENTOS DE SUS COMPUESTOS


5.1. Generalidades
La extracción de un elemento de los compuestos a los que se encuentra incorporado es un proce-
so completamente distinto al de la separación de los componentes de una mezcla. Mientras que el
desdoblamiento de una mezcla en sus componentes se realiza, en general, a través de procesos físi-
cos, que suelen requerir poca energía, la liberación de un elemento a partir de uno de sus compuestos
es un proceso químico, que exige una aportación notable de energía.
En el estado actual de la tecnología química, cualquier elemento puede ser extraído de cualquie-
ra de sus compuestos. Pero es evidente que la extracción de unos elementos tiene mucha más trascen-
dencia industrial y económica que la de otros.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 493


Volumen II. Física II

Una de las clasificaciones más antiguas de los elementos es la de metales y no metales. En nues-
tro planeta, salvo algunos pocos (cobre, plata, oro, mercurio y platino), los metales se encuentran
combinados en minerales en forma de óxidos, hidróxidos, haluros, carbonatos, etc.
En esos minerales, los metales se encuentran en estado químico oxidado. Para obtenerlos en su
estado metálico, es necesario proceder a su reducción. El conjunto de operaciones necesarias para ob-
tener un metal se conoce con el nombre de metalurgia.
El cambio químico esencial de toda metalurgia es, por lo dicho:
Men+ + n e- ® Me

Cuanto más reductor, o dicho de otro modo, más electropositivo, sea un metal más difícil resulta
efectuar esa reacción, porque en ella el ion metálico actúa como oxidante. Los metales alcalinos, los
alcalinotérreos y el aluminio, son tan electropositivos que su reducción no la pueden efectuar, de
modo ordinario, otras sustancias y hay que recurrir a la reducción catódica, es decir, sus metalurgias
se llevan a cabo por electrólisis.
Sin duda, la metalurgia más importante es la del hierro, hasta el punto de que recibe un nombre
particular, siderurgia. De ella tratamos, con la brevedad que exige el contexto, a continuación.
Por otro lado, entre los no metales más importantes, algunos como el oxígeno, el nitrógeno, el
azufre o el carbono, se encuentran en la naturaleza libres en grandes cantidades, por lo que su extrac-
ción a partir de sus compuestos no es una tarea prioritaria. Otros por el contrario, sólo se encuentran
combinados, por lo que es preciso su extracción química.
Escogeremos la producción de cloro, importante materia prima de la industria química, como un
ejemplo significativo de la obtención de un elemento no metálico a partir de su compuesto más abun-
dante, la sal común.

5.2. Obtención de un metal: el hierro


La materia prima para la siderurgia son los minerales más corrientes de hierro: hematites u oli-
gisto, Fe2O3; limonita, Fe2O3 · H2O(óxido hidratado); y siderita, FeCO3.
El proceso siderúrgico tiene lugar en una instalación industrial llamada alto horno u horno alto,
una torre de unos 30 m, configurada como dos troncos de cono, de distinta altura, unidos por sus bases.
Por la parte alta de la torre se descarga el mineral de hierro, junto con carbón de coque y piedra
caliza. Cerca de la base, se insufla aire caliente a presión. En una primera reacción, el oxígeno del aire
quema el carbón para dar dióxido de carbono:
C + O2 ® CO2

Este gas sube por el interior de la torre para encontrarse con carbono sin quemar que lo reduce a
monóxido:
CO2 + C ® 2CO

Las altas temperaturas generadas por la combustión del carbón descomponen el mineral de hie-
rro (óxido hidratado o carbonato) para dejar sólo óxido férrico, el cual es reducido por el CO en una
sucesión de reacciones de reducción cuyo resultado final es:
Fe2O3 + 3CO ® 2Fe + 3CO2

494 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

La caliza agregada al principio tiene como objetivo reaccionar con la arena (SiO2), que impurifi-
ca el mineral, y convertirla en silicatos (escoria), los cuales, por tener un punto de fusión relativa-
mente bajo forman un líquido que sobrenada la fundición, hierro líquido, a la temperatura de unos
2000 ºC. Así puede ser separado el metal fundido fácilmente. La caliza, en esta operación, recibe el
nombre técnico de fundente.
El hierro líquido sale del horno conteniendo entre un 3 y un 4% de carbono, junto con otras im-
purezas, por lo que tiene que ser después refinado. Si el refinado deja al hierro con un porcentaje de
carbono entre 0,5 y 1,5%, tenemos el producto llamado acero, al que se incorporan otros diversos
componentes, según el uso al que se le destine. La variedad comercial más pura de hierro es el llama-
do hierro dulce, que presenta una pureza del 99,8 %.

5.3. Obtención de un no metal: el cloro


La materia prima para la obtención del cloro es la sal común, el cloruro de sodio. El NaCl no es
sólo el más paradigmático de los compuestos iónicos, sino uno de los minerales más diseminados y
abundantes de la Tierra, y uno de los compuestos más útiles en la vida del hombre.
Se presenta en dos formas geológicas. Por un lado, la sal marina, disuelta en el agua del mar en
una proporción alrededor del 2,8%; también son ricas en este compuesto las aguas de ciertos lagos y
manantiales. La sal marina se extrae en unas explotaciones llamadas salinas, extensiones llanas a la
orilla del mar donde se efectúa la evaporación del agua salada por acción del calor solar y del viento, y
la consiguiente precipitación de la sal. El clima de las costas orientales y meridionales españolas fa-
vorece este tipo de explotaciones y así tenemos salinas importantes en San Fernando (Cádiz), Torre-
vieja (Alicante) y San Carlos de la Rápita (Tarragona).
Por otro, está la sal gema, que se presenta en yacimientos minerales, asociada a otras sales sódi-
cas, potásicas y magnésicas. Todo apunta a que estos depósitos se formaron en el pasado remoto por
evaporación de volúmenes marinos bloqueados en el curso de accidentes geológicos. En Europa pue-
den servir de muestra los yacimientos polacos de Wieliczka y los alemanes de Stassfurt, estos últimos
contienen, además, cloruro potásico mezclado en una proporción superior al 50%. En Estados Unidos
hay grandes depósitos de sal gema bajo la superficie de Kansas, Oklahoma y Texas. En España, el
principal yacimiento está en Cardona (Barcelona).
En el NaCl, el cloro se encuentra con un número de oxidación (1-), por lo que habrá que oxidarlo
si queremos obtenerlo libre. Esta acción se lleva a cabo por electrólisis del cloruro sódico en disolu-
ciones acuosas concentradas llamadas salmueras.
La electrólisis de las salmueras, llamada también industria cloro-álcali, es uno de los procesos
de mayor interés de la industria química; permite la obtención a gran escala de NaOH, un producto de
alto consumo en las sociedades industriales, junto con el cloro libre, Cl2, cuya demanda se ha elevado
de forma considerable en los últimos años para la obtención de polímeros clorados. Además, como
producto secundario, también se obtiene hidrógeno.
La electrólisis se puede llevar a cabo mediante dos técnicas diferentes: el método de Cast-
ner-Kellner o de célula de mercurio y el método de Nelson o de célula de diafragma. Ambos métodos
se esquematizan en la Figura 6.
En el método de Nelson, el cloro se desprende en un ánodo de carbón (reacción: Cl- ® ½ Cl2 + e-)
y en un cátodo metálico se desprende el hidrógeno. El contacto entre estos dos elementos gaseosos, que
puede provocar una reacción explosiva, es evitado por medio de un diafragma poroso de asbesto, que
separa los compartimentos anódico y catódico, aunque permite el paso de la disolución. La progresiva
eliminación del ion hidronio del compartimento catódico, por su transformación en hidrógeno libre, va
aumentando paralelamente la concentración de ion hidróxido (recuérdese el producto iónico del agua.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 495


Volumen II. Física II

Kw = [H3O+][OH-]), que, junto con el ion Na+, forma una disolución de NaOH, concentrada poste-
riormente por evaporación, al tiempo que el NaCl sobrante cristaliza y se separa de la disolución.

+ ánodos de grafito
salmuera Cl2
Cátodo H2
de acero Cl2 Cl2
perforado + +

H2
diafragma
de
asbesto agua
pura
Salmuera Salmuera

cátodo de
mercurio
disolución formación
de Movimiento de NaOH
NaOH de balanceo
Método de Nelson Método de Castner-Kellner

Figura 6. Obtención del elemento cloro a partir de un compuesto, el cloruro de sodio.

El método de Castner-Kellner se basa en la circunstancia de que el sodio incorporado en una


amalgama no reacciona con el agua de la salmuera. Una capa de mercurio que cubre el fondo de la
cuba actúa de cátodo, en tanto que barras de grafito funcionan de ánodo. El cloro se desprende en el
ánodo y se separa del sistema, mientras que en el cátodo de mercurio tiene lugar la reacción
Na+ + e- + Hg ® Na(Hg) (amalgama)
Un movimiento oscilante de la cuba traslada el sodio amalgamado por el fondo de la cuba hasta
otro compartimento de sólo agua, donde el sodio reacciona libremente con el agua para formar hi-
drógeno e hidróxido sódico:
Na(Hg) + H2O ® NaOH + ½ H2 + Hg
Este método tiene la ventaja sobre el de Nelson de que hidróxido de sodio es de mayor pureza.
Por el contrario, el manejo de mercurio conlleva inevitables emisiones que dañan el medio ambiente.
De otro lado, también hay que señalar que en el método de Nelson se emplea otro material que está
marcado por la contraindicación ecológica: el asbesto.
Para conseguir un hidróxido de sodio de pureza conveniente y, al mismo tiempo, proteger el me-
dio ambiente de materiales como el asbesto y el mercurio, se están desarrollando y extendiendo nue-
vas instalaciones electrolíticas que emplean células de membrana, las cuales aprovechan los nuevos
materiales derivados de polímeros fluorados.

6. LENGUAJE QUÍMICO: NORMAS IUPAC


6.1. Introducción
Para poner orden y precisión en los nombres del enorme número de sustancias que conoce hoy la quí-
mica, existe una sociedad científica especializada en formulación y nomenclatura que es la International
Union of Pure and Applied Chemistry (IUPAC). Vamos a hacer una exposición resumida de sus normas
para los compuestos inorgánicos; los orgánicos serán estudiados en el tema nº 59 (Química del carbono).

496 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

Aunque no tenemos espacio para tratar aquí de la nomenclatura tradicional, no es ocioso recor-
dar que tiene una gran importancia, ya que está muy extendida en la literatura científica y en las co-
municaciones prácticas y comerciales. Un buen profesor de química no puede despreciar este hecho.

Número Carga
másico iónica
6.2. Elementos y compuestos binarios
Los elementos químicos se representan por símbolos,
mientras que los compuestos se significan por fórmulas. Los
símbolos de los elementos constan de una o dos letras, la pri-
mera es mayúscula y la segunda, si la hay, minúscula.
Los isótopos de un elemento se representan añadiendo al
símbolo de dicho elemento un superíndice izquierdo que indi-
ca su número másico. Por ejemplo, el carbono-12 y el carbo-
no-14 quedan significados como 12C y 14C. Los isótopos no
tienen nombres propios sino que toman el del elemento, como
acabamos de ver. Sin embargo, en el caso de los isótopos del
hidrógeno las masas atómicas relativas son tan dispares (los
Número Multiplicidad
pesos atómicos están en la proporción 1:2:3) que se estimó atómico atómica
conveniente asignarles nombres propios: protio, para el hi-
drógeno ordinario o ligero (1H); deuterio, para el hidrógeno Los cuatro índices del símbolo de un
pesado (2H); y tritio, para el superpesado (3H). elemento.
Las distintas moléculas formadas por átomos de un
mismo elemento se nombran con prefijos griegos. Así: el hidrógeno atómico, H, se nombra como mo-
nohidrógeno; el oxígeno ordinario, O2, dioxígeno; el ozono, O3, trioxígeno; el fósforo blanco, P4, te-
trafósforo; etc.
Las fórmulas de los compuestos binarios se escriben poniendo en primer lugar el elemento más
electropositivo (o, dicho de otro modo, el menos electronegativo) y después el más electronegativo.
Ejemplos: NaCl, KBr, CaO.
Los nombres de estos compuestos empiezan con el relativo al componente más electronegativo, pre-
cedido, cuando sea necesario, de un prefijo numérico indicativo del número de átomos, y terminado en
–uro (salvo en el caso del oxígeno, que se nombra óxido); siguen con la preposición de, y terminan con el
nombre del elemento más electropositivo tal cual, precedido por el prefijo numérico cuando sea necesario.
Ejemplos: cloruro de sodio, óxido de calcio, disulfuro de carbono, pentaóxido de dinitrógeno.
La IUPAC admite también el llamado sistema de Stock, que consiste en indicar el número de
oxidación o la valencia estequiométrica del elemento más electropositivo con cifras romanas y entre
paréntesis. Ej.: MnO2, óxido de manganeso (IV); FeCl3, cloruro de hierro(III). Se prefiere no utilizar
este sistema cuando el compuesto está formado exclusivamente por elementos no metálicos.
Se admiten los nombres usuales no sistemáticos de algunos compuestos binarios de hidrógeno
notables: SiH4, silano; PH3, fosfina; AsH3, arsina; SbH3, estibina; etc. Por supuesto, se admiten los
nombres agua y amoniaco.

6.3. Compuestos ternarios


6.3.1. Hidróxidos
Hay dos posibilidades de nomenclatura: la sistemática y la de Stock. Con la primera, se escribe
un prefijo numérico con la palabra hidróxido y luego el nombre del metal sin más; con la segunda, la

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 497


Volumen II. Física II

misma palabra pero sin prefijo y luego el metal indicando, cuando es necesario, su número de oxida-
ción por el sistema de Stock.

Ejemplo N. Sistemática N. de Stock


NaOH Hidróxido de sodio Hidróxido de sodio
Cr(OH)3 Trihidróxido de cromo Hidróxido de cromo (III)
HgOH Monohidróxido de mercurio Hidróxido de mercurio (I)
Hg(OH)2 Dihidróxido de mercurio Hidróxico de mercurio (II)

6.3.2. Oxiácidos
Estas moléculas tienen un átomo central y, además, oxígeno e hidrógeno, y se pueden nombrar
de dos formas:

– N. Sistemática: se empieza con un prefijo, que indica el número de oxígenos, seguido de la


partícula oxo y del átomo central terminado en –ato, seguido del número de oxidación de
este átomo entre paréntesis y en cifras romanas; después la preposición de y finalmente la
palabra hidrógeno. Si hay más de un átomo central se introduce la partícula griega numéri-
ca correspondiente.
– N. Funcional: consta de dos palabras, la primera es ácido, y la segunda se construye como
en la sistemática pero cambiando la terminación –ato por –ico.

Ejemplo N. sistemática N. funcional


H2 SO4 Tetraoxosulfato (VI) de hidrógeno Ácido tetraoxosulfúrico (VI)
H2 SO3 Trioxosulfato (IV) hidrógeno Ácido trioxosulfúrico (IV)
H 4 P 2 O7 Heptaoxodifosfato (V) de hidrógeno Ácido heptaoxodifosfórico (V)

La IUPAC admite los nombres tradicionales de los oxiácidos más corrientes: carbónico, nítrico,
nitroso, sulfúrico, sulfuroso, hipocloroso, etc.

6.3.3. Sales neutras


Son los derivados que se generan, al menos formalmente, por sustitución de los hidrógenos ioni-
zables de los ácidos por metales. Se nombran de forma semejante a la nomenclatura sistemática de
oxiácidos, sustituyendo la palabra “hidrógeno” por la del ion metálico correspondiente. Si el anión
lleva subíndice, se puede indicar con los prefijos griegos tris-, tetrakis-, pentakis-, etc.; aunque, en
realidad, si se indica el número de oxidación del metal, estos prefijos no son estrictamente necesarios.
Así, Al(BrO3)3 se puede nombrar tris[trioxobromato(V)] de aluminio, pero también queda claro si se
dice simplemente trioxobromato(V) de aluminio.

Ejemplo Nombres
KNO2 Dioxonitrato (III) de potasio
Pt(CO3)2 Carbonato de platino (IV)
Cu2 P2 O7 Heptaoxodifosfato (V) de cobre (II)

498 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistemas materiales

6.3.4. Sales ácidas


Son aquellas que, procedentes de ácidos polipróticos, no han sustituido por metales todos sus hi-
drógenos. Se nombran como las anteriores pero anteponiendo la partícula “hidrógeno”, con un prefi-
jo numérico si son varios, al nombre del anión.

Ejemplo Nombre

Cr(HSO3)3 Hidrógenotrioxosulfato (IV) de cromo (III)

Ca(H2 PO4)2 Dihidrógenotetraoxofosfato (V) de calcio

6.3.5. Sales básicas


Son las que tienen uno o varios grupos hidróxido OH-. Se pueden considerar como el resultado
de una neutralización incompleta de un hidróxido de un metal polivalente. Se nombran como las sales
neutras aunque anteponiendo la partícula hidroxi, con prefijo numérico cuando sea necesario, al
nombre del anión.

Ejemplo Nombre

HgNO3(OH) Hidroxitrioxonitrato (V) de mercurio (II)

AlClO4(OH)2 Dihidroxitetraoxoclorato (VII) de aluminio

6.4. Cationes y aniones


Los cationes monoatómicos reciben el mismo nombre que el elemento correspondiente, apli-
cando, cuando sea necesaria, la nomenclatura de Stock. Ejemplos: ion hidrógeno, H+; ion calcio,
Ca2+; ion cobre(II), Cu2+.
Un catión muy importante es el oxonio, H3O+, que en su forma hidratada H3O+(aq) recibe el
nombre de hidronio. Cuando la hidratación de este ion no se considera relevante en un determinado
contexto, puede nombrarse simplemente como ion hidrógeno.
Aunque no tanto como el anterior, tiene bastante interés el ion amonio, NH+4 .
Los nombres de los aniones monoatómicos derivan de los elementos correspondientes termina-
dos en –uro. Conviene que los alumnos se ejerciten en estos nombres porque su deducción no siem-
pre es evidente: hidruro, H-; fluoruro, F-; yoduro, I-; sulfuro, S2-; nitruro, N3-; etc. Por excepción, el
ion O2- se llama ion óxido.
Otros iones, estos diatómicos, derivados del oxígeno son el ion peróxido, O2-
2 , y el superóxido,
-
O . El anión OH- tiene como nombre correcto el de ion hidróxido; deben desecharse, pues, los anti-
2
cuados de “hidroxilo” y “oxhidrilo”.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 499


Volumen II. Física II

BIBLIOGRAFÍA

Babor-Ibarz:. Química General Moderna. Ed. Marín, Barcelona, 1963.


Bonner-Castro: Química orgánica básica. Ed. Alhambra, Madrid, 1968.
Diccionario de Química. Ed. Anaya, Madrid, 1985.
Dickerson, R. E. y otros: Principios de Química. Ed. Reverté, Barcelona, 1992.
J. M. Coronas: Nomenclatura química inorgánica (IUPAC). Ed. Real Sociedad
Española de Física y Química, Madrid, 1963.
Raymond Chang: Química. Ed. McGraw-Hill, 1999.
Sienko-Plane: Química teórica y descriptiva. Ed. Aguilar, Madrid, 1970.

500 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

33
Teoría atómica de Dalton.
Principio de conservación
de la masa. Leyes ponderales
y volumétricas. Hipótesis
de Avogadro. Estequiometría

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. PRINCIPIO DE CONSERVACIÓN DE LA MASA

2. LEYES PONDERALES
2.1. Ley de las proporciones recíprocas
2.2. Ley de las proporciones definidas
2.3. Ley de las proporciones múltiples

3. TEORÍA ATÓMICA DE DALTON

4. LEYES VOLUMÉTRICAS

5. HIPÓTESIS DE AVOGADRO

6. ESTEQUIOMETRÍA
6.1. Peso atómico, peso molecular y peso fórmula
6.2. Concepto de mol
6.3. Composición porcentual y fórmulas de compuestos
6.4. Deducción de fórmulas a partir de la composición
6.5. Ecuaciones químicas
6.5.1. Significado de una ecuación química ajustada
6.5.2. Balance de las ecuaciones químicas
6.5.3. Reactivo limitante
6.5.4. Cálculos a partir de las ecuaciones químicas
6.5.5. Reacciones químicas y disoluciones
6.5.6. Estequiometría de disoluciones

BIBLIOGRAFÍA

502 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría atómica de Dalton

1. PRINCIPIO DE CONSERVACIÓN DE LA MASA


Los progresos realizados en química hasta los siglos XVII y XVIII fueron muy limitados debido
a la poca importancia que se le dio a la medida en los procesos químicos. Es por ello por lo que pode-
mos considerar que la aportación más importante a este campo de la ciencia durante el siglo XVII fue
la realizada por el químico francés Antoine Laurent Lavoisier (1743-1794). Lavoisier fue el pione-
ro en la utilización de los métodos cuantitativos en la investigación química, y el primero en proponer
la necesidad de verificar experimentalmente las hipótesis de partida. Es por esta introducción del mé-
todo científico en este campo por lo que muchos autores consideran a Lavoisier como el fundador de
la química moderna.
En el último tercio del siglo XVII la vieja teoría griega de los elementos y de la transmutación
estaban vigentes. Uno de los argumentos esgrimidos por los defensores de esta teoría era algo que se
“evidenciaba” por sí mismo experimentalmente: al calentar agua encerrada en un recipiente, ésta se
transmutaba en tierra. Desde luego, a simple vista, el argumento parecía incontestable, pero Lavoisier
decidió verificar esta supuesta transmutación de agua en tierra. Durante 101 días calentó agua y el se-
dimento, evidentemente, apareció, pero, llevado por su idea de la necesidad de realizar medidas pre-
cisas, Lavoisier pesó el recipiente que contenía el agua antes y después del experimento. De esta ma-
nera demostró que el peso perdido por el recipiente era igual al peso del sedimento, por lo que este
provenía de cambios en el recipiente y no en el agua. Este experimento suponía un reforzamiento de
sus convenciones de que la experimentación y las medidas precisas eran la única vía razonable de
contrastar las hipótesis iniciales y de verificar rigurosamente un hecho que a simple vista llevaba a
conclusiones erróneas.
Otra de las creencias de la época, soportada por la antigua teoría del flogisto, era que los metales
al calentarse aumentaban de peso. Lavoisier llevó a cabo una serie de experimentos calcinando meta-
les y observó que al calentar estaño en un recipiente cerrado, parte del metal se convertía en cal pero
que el peso de todo el aparato no variaba. Sin embargo, al abrir el aparato y llenarse de aire el peso au-
mentaba. Lavoisier consiguió demostrar que el aumento de peso del metal era debido a los gases de la
atmósfera y le llevó a formular el principio de conservación de la masa. Este principio puede enun-
ciarse de la siguiente manera:
La masa total de los reactivos en cualquier reacción química es exactamente igual a la
masa total de los productos.

O lo que es equivalente:
La masa no puede ser creada ni destruida durante un cambio químico.

Esta afirmación es fundamental en química y las medidas de las masas es el proceso fundamen-
tal que subyace en gran parte del trabajo en química.
El principio de conservación de la masa ya había sido utilizado por algunos químicos como hi-
pótesis de trabajo. No obstante, por regla general, se le atribuye a Lavoisier por su comprobación ex-
perimental y por su generalización.
El éxito obtenido por Lavoisier animó a los químicos a investigar y explorar otras áreas bajo la
óptica del método científico. Los éxitos del nuevo método aplicado a la química no tardaron en mani-
festarse y la química experimentó un enorme progreso en sus diferentes áreas.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 503


Volumen II. Física II

2. LEYES PONDERALES
El impulso dado por Lavoisier a la química condujo a la elaboración de varias leyes empíricas.
De esas leyes es de lo que vamos a tratar en este apartado.

2.1. Ley de las proporciones recíprocas


La primera de estas leyes ponderales fue la ley de proporciones equivalentes o recíprocas, for-
mulada en 1791 por Jeremias Benjamin Richter (1762-1807), un químico alemán. Basándose en
sus trabajos sobre la neutralización de un ácido con una base, estableció que:
Los pesos de elementos diferentes que se combinan con un mismo peso de un elemento
dado son los pesos relativos de aquellos elementos cuando se combinan entre sí o bien múlti-
plos o submúltiplos de estos pesos.

Es decir, si una cierta cantidad de sustancia A se combina con una determinada cantidad de una sustan-
cia B y esta se combina con un cantidad de la sustancia C, entonces las sustancias A y C deberían combi-
narse con esas mismas cantidades con que lo hacían con B o un múltiplo o submúltiplo de ésta.
La ley de las proporciones recíprocas establece un peso relativo para cada elemento igual al peso
que se une con un peso determinado de un elemento que se toma como referencia. En principio, se
tomó como elemento de referencia el oxígeno, por su facilidad para combinarse con otros muchos
elementos, y como peso de referencia 100 partes en peso de oxígeno. El peso de combinación de cada
elemento era entonces el peso que se combinaba con esas 100 partes de oxígeno. Posteriormente, se
adoptó como peso de referencia 8 partes de oxígeno, con lo que el peso de combinación del hidrógeno
era aproximadamente la unidad.
Después de este descubrimiento, los químicos confeccionaron diversas tablas en las que fijaban
las cantidades relativas de los elementos cuando se combinaban entre sí.
Lo que en su día se denominó peso de combinación es lo que hoy se conoce como peso equiva-
lente de un elemento y se define como el peso de un elemento (o compuesto) que se combina o reem-
plaza a 8 partes de oxígeno o a 1,008 partes de hidrógeno.

2.2. Ley de las proporciones definidas


La ley de las proporciones recíprocas llevó a algunos químicos franceses a preguntarse si esta re-
lación entre las masas en una reacción de neutralización podía extenderse a toda la química. A partir
de cuidadosos análisis Joseph Louis Proust (1754-1826), profesor de química en Madrid (había hui-
do de la Revolución francesa) en 1797 demostró que el carbonato de cobre contenía proporciones de-
finidas de los pesos de cobre, carbón y oxígeno, independientemente de si el preparado se obtenía en
el laboratorio o era aislado de fuentes naturales. Proust encontró que esto se cumplía para otros com-
puestos y generalizó sus resultados en lo que se conoce como ley de Proust o ley de las proporciones
definidas. Esta ley establece que:
Todos los compuestos contienen elementos en ciertas proporciones definidas y no en
otras combinaciones.

Esta segunda ley empírica zanjaba la polémica establecida entre Proust y C. Berthollet, defensor
de la idea de que la composición de una sustancia era variable. Según la ley, por ejemplo, los tres
componentes que sólo contienen hierro y oxígeno tienen composiciones químicas y propiedades di-
ferentes, pero para cada uno de ellos las propiedades y la composición son las mismas independiente-
mente de que las muestras procedan de lugares diferentes o de que se haya obtenido por procesos di-

504 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría atómica de Dalton

ferentes. Dicho de otra manera, las relaciones entre las masas de cualquier compuesto es una caracte-
rística de él y no puede ser alterada sin producir cambios en otras propiedades características del
compuesto. Durante los primeros años del siglo XIX otros químicos comprobaron la ley de Proust, la
cual se convirtió en la piedra angular de la química.
Estas leyes permitieron a los químicos caracterizar nuevos compuestos y elementos, pero por
otra parte creaba ciertos problemas conceptuales sobre la composición de la materia. Si la materia era
un continuo, las leyes eran bastante difíciles de entender; pero si la materia estuviera formada de áto-
mos, las leyes serían una consecuencia natural de este hecho. En consecuencia estas leyes desperta-
ron un renovado interés por la teoría atómica de la materia.

2.3. Ley de las proporciones múltiples


John Dalton (1766-1844), un químico inglés, fue el primero en descubrir que dos elementos po-
dían combinarse en más de una proporción bajo condiciones diferentes, cada una de las cuales daba
lugar a un compuesto químico distinto. Tras este descubrimiento, Dalton enunció la ley de las propor-
ciones múltiples. Probablemente esta idea fuera en principio asumida y posteriormente confirmada
mediante algunos experimentos. La ley de las proporciones múltiples puede enunciarse de la siguien-
te manera:
Cuando dos elementos se combinan entre ellos para formar más de un compuesto, la ra-
zón entre las masas en un compuesto está relacionada con la razón entre las masas en otro
compuesto mediante números enteros pequeños.

Lo que esta ley dice es que si por ejemplo consideramos el carbón y el oxígeno: en el dióxido de
carbono la razón entre las masas del carbón y del oxígeno es 4/3, en el caso del monóxido de carbono
la razón es 8/3. Es decir, que las cantidades de un mismo elemento que se combinan con una determi-
nada cantidad de fija de otro para formar compuestos diferentes están relacionadas mediante números
enteros sencillos.
La determinación de las razones entre las masas en los compuestos debía hacerse por descompo-
sición, pero a finales del siglo XVIII y comienzos del XIX, a menudo, esto no podía hacerse de forma
cuantitativa, por lo que la mayoría de ocasiones la razón entre las masas había de encontrarse median-
te la síntesis de compuestos a partir de sus elementos.

3. TEORÍA ATÓMICA DE DALTON


El concepto de átomo (átomo en griego significa indivisible) ya fue introducido por los filósofos
naturales de la antigua Grecia en los siglos quinto y cuarto antes de Cristo y con ello querían indicar
que se trataba del componente más pequeño de la materia. Las primeras teorías atómicas sobre la es-
tructura de la materia fueron las teorías de Demócrito (460-370 a. de C.), de Platón (429-348 a. de C.)
y Aristóteles (384-322 a. de C.). No obstante, hubo de pasar casi 2000 años hasta que estas teorías es-
peculativas se convirtieran en una teoría atómica en el sentido moderno.
El reconocimiento de que la materia estaba formada por átomos fue una consecuencia de las in-
vestigaciones realizadas por John Dalton sobre la composición atmosférica y la solubilidad de gases
en agua. Después de enunciar la ley de las proporciones múltiples, desarrolló su teoría atómica para la
química, según la cual cada cuerpo simple está formado por pequeñas partículas idénticas pero que
difieren en su peso de unos cuerpos a otros. Las reacciones químicas provocarían un nuevo ordena-
miento de los átomos en los compuestos, sin que por ello se vieran alterados. Con esta teoría se expli-
caba perfectamente las leyes ponderales y los resultados experimentales. Por otra parte, la teoría ató-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 505


Volumen II. Física II

mica de Dalton tiraba por tierra la antigua creencia de la transmutación de los elementos químicos: si
los metales estaban formados por un solo tipo de átomos, indivisibles e inalterables, no podía esperar-
se que un átomo de plomo se transformara en un átomo de oro.
El trabajo de Dalton titulado A New System of Chemical Philosophy fue publicado con detalle en
1808 y sus ideas básicas son las siguientes:
– La materia se compone de partículas muy pequeñas denominadas átomos.
– Los átomos de un elemento son idénticos en todas sus propiedades.
– Los diferentes elementos están hechos de átomos diferentes.
– Los átomos de dos o más elementos se combinan para dar lugar a las moléculas.
– Los átomos son indivisibles y conservan sus características en las reacciones químicas.
– En las reacciones químicas los átomos se combinan en proporciones numéricas simples.

Estas ideas fueron pronto verificadas por William Hyde Wollaston (1766-1828) y el trabajo de
Dalton adquirió la credibilidad necesaria y fue ampliamente aceptado.
La teoría atómica permitió a Dalton determinar los pesos atómicos de diferentes elementos y
construir la primera tabla periódica. Sin embargo, los cálculos de Dalton se basaban en una hipótesis
errónea. Aceptaba como regla general que las moléculas se formaban por pares de átomos, un átomo
de un elemento con un átomo del otro elemento, y sólo cuando era absolutamente necesario cambiaba
esta regla. Esto le llevó a determinar de forma equivocada los pesos atómicos de algunos elementos.
Por ejemplo, cuando el hidrógeno se quema en un exceso de oxígeno para producir agua, se pueden
determinar las cantidades de ambos gases que se combinan. Se obtiene que el agua está formada por
el 11,19% de hidrógeno y el 88,81% de oxígeno. Dalton asumió que el hidrógeno debería tener masa
atómica unidad por ser el elemento más ligero conocido. Por consiguiente la masa de oxígeno es en-
tonces: 88,81/11,19 = x/1, donde x es la masa atómica del oxígeno y cuyo valor es de 7,937, el cual
fue redondeado a 8. Esta suposición de Dalton pronto se demostró estar equivocada.
Las ideas de Dalton se aproximan mucho a la realidad y casi describen correctamente el compor-
tamiento químico. Pero también contienen errores apreciables. Por ejemplo, hay diversas formas de-
nominadas isótopos y no son las partículas elementales más pequeñas. A pesar de sus errores la teoría
atómica de Dalton fue la primera en volver a considerar las primitivas teorías de los griegos, e intro-
dujo una serie de conceptos que fueron determinantes para el desarrollo de la química del siglo XIX.
Sin embargo, la teoría atómica de Dalton no explicaba por qué los átomos se combinaban en determi-
nadas proporciones y no en otras. Muchos científicos de la época no aceptaron la existencia de estas
partículas elementales constitutivas de la materia lo que dio lugar a grandes debates entre los defenso-
res y detractores de la teoría atómica.

4. LEYES VOLUMÉTRICAS
En ese tiempo el francés Joseph-Louis Gay-Lussac (1778-1850) realizó muchos experimentos
volumétricos en la combinación de gases. En 1808 encontró que para formar agua se combinaban dos
volúmenes de hidrógeno con un volumen de oxígeno. De hecho, Gay-Lussac descubrió que cuando
dos gases se combinan, los volúmenes de los gases que se unen mantienen una relación numérica
simple entre sí, así como con los volúmenes de los productos, siempre que estos sean gases. Gay Lus-
sac formuló así la ley de los volúmenes de combinación que puede ser enunciada como sigue:
En cualquier reacción química los volúmenes de todas las sustancias gaseosas que in-
tervienen están en una relación de números enteros sencillos.

506 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría atómica de Dalton

La experiencia de Gay-Lussac parecía mostrar que la molécula del agua no podía estar formada
por un átomo de hidrógeno y otro de oxígeno, sino que debería estar formada por dos átomos de hi-
drógeno y uno de oxígeno, por lo que el peso atómico del oxígeno debería ser 16 y no 8 como suponía
Dalton. Por otra parte, en las experiencias de Gay-Lussac ponía de manifiesto algunas inconsisten-
cias con la teoría de Dalton. Por ejemplo, se encontró que un volumen de cloro se combinaba con un
volumen de hidrógeno para formar dos volúmenes de ácido clorhídrico.

5. HIPÓTESIS DE AVOGADRO
La teoría de Dalton no podía explicar los resultados experimentales obtenidos por Gay-Lussac.
Fue el físico italiano Amadeo Avogadro (1776-1856) el que para explicar los resultados experimen-
tales postuló que los átomos de la teoría de Dalton eran en realidad combinaciones de ellos (molécu-
las) y que el volumen que ocupan el mismo número de partículas de diferentes gases es idéntico. Esta
idea se conoce con el nombre de hipótesis de Avogadro y puede enunciarse como sigue:
En las mismas condiciones de temperatura y presión el número de partículas que existe
en un mismo volumen es igual para todos los gases.

La hipótesis de Avogadro podría haber sido útil para determinar los pesos atómicos de los ele-
mentos, pero fue rechazada e ignorada hasta que fue de nuevo introducida casi cincuenta años des-
pués por el italiano Stanislao Cannizzaro.
La determinación de los pesos atómicos de los elementos se convirtió en una tarea prioritaria para
los químicos del siglo XIX. El peso atómico permitía identificar los elementos y establecer compara-
ciones entre ellos así como proporcionaba un método para traducir en fórmulas los análisis experimen-
tales. Otro de los descubrimientos que resultó de gran importancia para la determinación de los pesos
atómicos de los elementos fue el realizado por Pierre Louis Dulong (1785-1839) y Alexis Thérès Pe-
tit (1791-1820). Dulong y Petit enunciaron la ley que lleva su nombre que establece que el producto del
calor específico por el peso atómico de un elemento es constante. Por consiguiente, la determinación de
los calores específicos permitía encontrar el peso atómico de los elementos. Por otra parte, el químico
alemán Eilhardt Mitscherlich (1794-1863) propuso en 1819 la ley de isomorfismos que establecía que
los compuestos similares tienen la misma estructura cristalina. Conociendo el peso atómico de los áto-
mos que componen un cuerpo se puede determinar los pesos atómicos de los átomos de un material iso-
morfo. De esta manera, Mitscherlich demostró el isomorfismo entre los sulfatos y los selenatos y deter-
minó el peso atómico del selenio a partir del peso atómico conocido del azufre.
Los químicos contaban con un conjunto de leyes empíricas que les permitía determinar los dife-
rentes pesos atómicos de los elementos químicos. En 1828, el sueco Jöns Jacob Berzelius (1779-1848)
utilizando la ley de las proporciones múltiples y las leyes de Gay-Lussac y de isomorfismo dio a co-
nocer una tabla de pesos atómicos muy parecida a la que podemos conocer hoy. Sin embargo, el peso
de algunos elementos como la plata y los metales alcalinos era erróneo. Uno de los motivos de la falta
de precisión en estos elementos fue el rechazo de Berzelius a la ley de Dulong y Petit. En la década de
1860 el belga Jean Servais Stas (1813-1891) determinó con gran precisión los pesos atómicos de los
diferentes elementos y su trabajo fue de gran importancia para la ordenación posterior de los elemen-
tos en la tabla periódica.

6. ESTEQUIOMETRÍA
El término estequiometría es un término utilizado en química que deriva de las palabras griegas
stoicheion (elemento) y metron (medida). Por consiguiente, con estequiometría nos referimos al área
de la química que trata del estudio cuantitativo de la composición de los compuestos (por ejemplo la
determinación de las proporciones de los átomos en una molécula) y de las proporciones en que se
combinan las sustancias que intervienen en una reacción química.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 507


Volumen II. Física II

6.1. Peso atómico, peso molecular y peso fórmula


Tal como hemos visto anteriormente, uno de los puntos fundamentales de la teoría de Dalton es
que los átomos de cada elemento tienen una masa característica. El conocimiento de estas masas ató-
micas permitía identificar los elementos y establecer comparaciones entre ellos así como traducir en
fórmulas los análisis experimentales.
La masa atómica se define como la masa en reposo de un átomo. Ahora bien, como los átomos
son entidades tan pequeñas no resulta apropiado utilizar las unidades estándar de masa como el gra-
mo o el kilogramo. Por ejemplo, la masa del átomo de hidrógeno es 1,67 ´ 10–27 kg. Para evitar el uso
de números tan sumamente pequeños se pensó en utilizar una unidad de masa de manera que las ma-
sas de los átomos vinieran reflejadas con números más manejables. En principio se tomó como patrón
de masa atómica la del átomo más ligero, el hidrógeno, al que se le asignó 1 unidad de masa atómica
(u.m.a. o uma). Es decir, en realidad lo que se determinaba, como veremos después, era la masa ató-
mica relativa de los átomos o peso atómico.
La escala de pesos atómicos de Dalton, que tomaba como patrón el hidrógeno, luego fue susti-
tuida por otra basada en el oxígeno y posteriormente, en el año 1961, por una escala basada en el car-
bono-12. En la actualidad, la IUPAC (International Union of Pure and Applied Chemistry) define la
unidad de masa atómica unificada como:
La doceava parte de la masa de un átomo de carbono 12 en su estado fundamental, usa-
da para expresar las masas atómicas de las partículas, u » 1.6605402 ´ 10–27 kg.

Por otra parte, la IUPAC define el peso atómico o la masa atómica relativa (Ar) como:
La razón entre la masa media de un átomo y la unidad de masa atómica unificada.

La masa atómica relativa de un elemento es una cantidad adimensional y cuando decimos que un
elemento tiene masa atómica X indicamos que su átomo es X veces más pesado que la doceava parte
del átomo de carbono-12 en su estado fundamental.
Los átomos no se muestran aislados sino que las interacciones entre ellos hace que se combinen
para formar estructuras poliatómicas denominadas moléculas o cristales iónicos. Según la teoría de
Dalton, la masa de una molécula es la suma de las masas de los átomos que la componen. Así, para la
molécula de agua H2O, la masa molecular será dos veces la masa atómica del hidrógeno más la masa
atómica del oxígeno 2 ´ 1 + 16 = 18.
Se define la masa molecular relativa o peso molecular (Mr) como:
La razón entre la masa de una molécula y la unidad de masa atómica unificada.

Muchas sustancias no se presentan en moléculas aisladas sino que lo hacen formando redes cris-
talinas. Estas redes cristalinas pueden disociarse fácilmente en iones y disolverse en agua, como el
NaCl, o permanecer como cristales insolubles como el SiO2. Para estas sustancias se utiliza el peso
fórmula definido como:
La suma de los pesos atómicos de todos los átomos en una unidad formular del com-
puesto.

Por ejemplo, la sal común tiene la fórmula empírica NaCl y el peso fórmula es la suma de los pesos
atómicos del sodio y del cloro, 22,99 + 35,45 = 58,44.

508 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría atómica de Dalton

6.2. Concepto de mol


Puesto que los objetos reales están formados por un número enorme de átomos, la unidad de canti-
dad de sustancia también debe contener un número grande de átomos. Esta unidad se denomina mol.
El mol (de símbolo mol) es la unidad de cantidad de sustancia en el SI y se define como:
La cantidad de sustancia de un sistema que contiene tantas entidades elementales como
átomos hay en 12 gramos de carbono-12.

Cuando se usa el mol se debe especificar las entidades elementales que lo componen que pueden
ser átomos, moléculas, iones, electrones, otras partículas o grupos especificados de tales partículas.
Por razones históricas, al número de entidades que contiene un mol se le denomina número de
Avogadro y se le designa por NA. Aunque se trata de un número muy grande se puede medir con gran
precisión y su valor aceptado es:
partículas
N A = 6,02214199´1023 (1)
mol

En química, la palabra mol se utiliza en dos sentidos:


1. Para indicar el número de Avogadro de entidades de un sistema.
2. Para indicar el peso atómico o molecular de una sustancia expresado en gramos.

Consideremos por ejemplo un elemento como el carbono de peso atómico 12. En 12 gramos de
carbono-12 hay un número de Avogadro de partículas, por lo tanto, 12 g de carbono-12 equivale a un
mol. Supongamos ahora otro elemento como el hidrógeno de peso atómico 1. Como el átomo de hi-
drógeno es 12 veces menos pesado que el carbono-12, en 1 g de hidrógeno habrá el mismo número de
átomos que en 12 g de carbono-12. Por consiguiente, en 1 g de hidrógeno habrá un número de Avoga-
dro de átomos de hidrógeno y corresponderá a un mol de hidrógeno. Supongamos ahora una sustan-
cia como el agua, cuyo peso molecular es 18. En este caso la molécula de agua pesará 18/12 = 1,5 ve-
ces más que el átomo de carbono-12. Por tanto, en 12 ´ 1,5 = 18 gramos de agua habrá un número de
Avogadro de moléculas de agua y corresponderá a un mol de agua. Por consiguiente, la masa de un
mol de sustancia, expresado en gramos, coincide con su peso atómico o molecular. Así, un mol de so-
dio es 22,99 g de sodio y contiene un número de Avogadro de átomos. Por consiguiente, la masa mo-
lar de una sustancia es su peso atómico expresado en gramos o su peso molecular expresado en gra-
mos. Por ejemplo, se dice que la masa molar del agua es 18 g/mol.
En física y en química se utilizan tanto propiedades intensivas o extensivas de las sustancias, espe-
cificadas por ciertas magnitudes: magnitudes intensivas y magnitudes extensivas. Las propiedades
(magnitudes) intensivas son aquellas que no dependen de la cantidad de sustancia como, por ejemplo, la
temperatura o la presión. Las propiedades (magnitudes) extensivas son aquellas que dependen de la
cantidad de sustancia, como la masa o el volumen. En algunas ocasiones es muy útil dar una propiedad
extensiva de forma que no sea proporcional a la cantidad de materia del sistema; es decir, convertir una
propiedad extensiva en una intensiva. Esto se puede hacer sin más que dividir la magnitud extensiva por
la cantidad de sustancia o por otra magnitud extensiva como la masa o el volumen. Por ejemplo, la den-
sidad definida como la relación entre la masa y el volumen es una propiedad intensiva de la materia. En
ocasiones, se obtiene una magnitud intensiva dividiendo una magnitud extensiva por la masa. La mag-
nitud intensiva que resulta se nombra añadiéndole al nombre de la magnitud extensiva el término espe-
cífico. Así por ejemplo, la capacidad calorífica de un cuerpo es la cantidad de calor necesaria para au-
mentar su temperatura, mientras que la capacidad calorífica específica o calor específico es la cantidad
de calor para cambiar la temperatura de 1 gramo o de un kilogramo de sustancia.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 509


Volumen II. Física II

En química, por regla general, se prefiere transformar una magnitud extensiva en una intensiva
dividiendo por la cantidad de sustancia y no por su masa o por su volumen. Las magnitudes intensivas
así obtenidas se nombran añadiendo al nombre de la magnitud extensiva el término molar. Así, habla-
mos de masa molar, volumen molar o capacidad calorífica molar.

6.3. Composición porcentual y fórmulas de compuestos


Si se conoce la fórmula de un compuesto, su composición química puede expresarse como el
porcentaje de masa de cada elemento en el compuesto. Como la masa molar de un compuesto es la
suma de las masas molares de los átomos que lo componen, a partir de estas masas es sencillo deter-
minar la composición porcentual del compuesto. Por ejemplo, si una determinada sustancia está for-
mada por el elemento X, siendo n el número de átomos y A su peso atómico, el tanto por ciento de su
participación en el compuesto viene dado por:
nA
% de X = 100% (2)
M
siendo M la masa molecular o masa molar del compuesto. Por ejemplo, si queremos determinar la
composición porcentual del sulfato de cobre (II) (CuSO4), tendremos que:
1´ 63,546
%de Cu = 100= 39,81% de Cu
1´ 63,546+1´ 32,06+ 4´16

1´ 32,06
% de S = 100= 20,09% de S
1´ 63,546+1´ 32,06+ 4´16

4´16
% de O= 100= 40,10% de O
1´ 63,546+1´ 32,06+ 4´16

6.4. Deducción de fórmulas a partir de la composición


La fórmula empírica de un compuesto establece la proporción entre los átomos de cada elemen-
to presente en el compuesto, expresado en forma de pequeños números enteros. Para calcular la fór-
mula a partir de la composición centesimal, hay que determinar en primer lugar el número de átomos
de cada elemento presente en el compuesto. Si tenemos un compuesto cuyo peso molecular es M y la
presencia de un determinado elemento X en tanto por ciento es % de X, siendo A su peso atómico, el
número de átomos de X en el compuesto es:
%de X
n= M (3)
100A

Si no se conoce el peso molecular o el peso fórmula del compuesto, podemos encontrar la rela-
ción entre los átomos de cada elemento que forman el compuesto dividiendo el tanto por ciento de
cada elemento por su masa atómica. Posteriormente, se reduce a números enteros dividiendo por el
menor de ellos y multiplicando si es necesario por un número entero. Por ejemplo, supongamos que
un óxido de hierro tiene una composición centesimal de 69,9% de hierro y 30,1% de oxígeno. Para
encontrar el número de átomos de hierro y de oxígeno procedemos como se ha indicado y obtenemos:
69,9
– Para el hierro = 1,252
55,847
30,1
– Para el oxígeno = 1,881
15,9994

510 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría atómica de Dalton

Dividiendo ambos números por el más pequeño se tiene:


1,252
– Para el hierro =1
1,252
1,881
– Para el oxígeno = 1,502
1,252

Multiplicando ambos números por 2, se tiene finalmente que:


– Para el hierro 1 ´ 2 = 2
– Para el oxígeno 1,502 ´2 = 3

Por consiguiente, la fórmula empírica del óxido de hierro es Fe2O3.


Si no conocemos el peso molecular del compuesto, la fórmula empírica deducida no siempre
coincide con la forma molecular correcta. Por ejemplo, los compuestos C6H6 (benceno) y C2H2 (ace-
tileno) se corresponden con la misma fórmula empírica CH. Por tanto, la fórmula molecular correcta
es siempre un múltiplo de la fórmula empírica deducida. Evidentemente, si se conoce la masa mole-
cular del compuesto la fórmula empírica deducida corresponde a la fórmula molecular.

6.5. Ecuaciones químicas


Una ecuación química es la representación simbólica de una reacción química, en términos de
fórmulas químicas. Las ecuaciones químicas se basan en hechos experimentales y su forma básica es
reactivos ® productos. Los reactivos, sustancias que reaccionan, son las sustancias que hay presentes
al inicio de la reacción y sus fórmulas se escriben a la izquierda de la ecuación química. Los produc-
tos son las sustancias presentes cuando acaba la reacción y sus fórmulas se escriben a la derecha de la
ecuación química. La flecha indica el sentido de la reacción, va desde los reactivos a los productos y
significa “reacciona para formar” o “produce”. Un ejemplo de reacción química es:
C4H10 + O2 ® CO2 + H2O

Esta ecuación indica que la combustión del butano produce dióxido de carbono y agua. La informa-
ción que se obtiene de una ecuación de este tipo es sólo cualitativa.
Puesto que una reacción química consiste simplemente en una recombinación de los átomos sin
que se cree o destruya ninguno, la ecuación química debe satisfacer la ley de conservación de la masa.
Por lo tanto, debe aparecer el mismo número de átomos de cada sustancia a ambos lados de la ecua-
ción. Una ecuación escrita de esta manera se dice que está ajustada, equilibrada o balanceada. En el
ejemplo anterior, la ecuación química estaría ajustada si escribimos:
2C4H10 + 13O2 ® 8CO2 + 10H2O

Esta ecuación no sólo proporciona información cualitativa (el butano en su combustión produce
dióxido de carbono y agua) sino que también nos da información cuantitativa, pues nos dice que 2 mo-
léculas de butano reaccionan con 13 moléculas de oxígeno para dar lugar a 8 moléculas de dióxido de
carbono y 10 de agua.
Aunque no es necesario, puede complementarse la información de una ecuación química especifi-
cando el estado o fase en que se encuentran los reactivos y los productos en las condiciones en que se pro-
duce la reacción. En este caso, la práctica habitual es poner abreviadamente la fase entre paréntesis des-
pués de la fórmula del reactivo o del producto. La notación estándar es: (g) para especificar el estado ga-
seoso, (s) para el estado sólido, (c) sólido cristalino, (l) para el estado líquido y (aq) en disolución acuosa.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 511


Volumen II. Física II

En las ecuaciones químicas también se puede indicar las condiciones en las que tienen lugar.
Así, por ejemplo, si los reactivos son calentados para que se produzca la reacción se indica colocando
el símbolo D sobre la flecha de la reacción. En otras ocasiones, cuando se utiliza un catalizador, se es-
cribe el símbolo del catalizador sobre la flecha.
Otra condición que debe satisfacer una ecuación química es la ley de conservación de la carga.
Por consiguiente, en una reacción química en la que intervienen iones la carga neta debe ser igual a
ambos lados de la ecuación. Por ejemplo, una ecuación ajustada sería:
Zn (s) + 2Ag ® Zn + 2Ag
+ +

6.5.1. Significado de una ecuación química ajustada


Una ecuación química ajustada representa la forma en que los átomos y moléculas cambian su
ordenamiento para formar nuevas sustancias. Por ejemplo, la ecuación:
2H2O ® 2H2 + O2
puede interpretarse como que dos moléculas de agua se disocian dando lugar a dos moléculas de hi-
drógeno y una molécula de oxígeno. Ahora bien, podemos multiplicar los coeficientes a ambos lados
de la ecuación por un número cualquiera y la ecuación tiene el mismo significado. Podríamos elegir
este número igual al número de Avogadro con lo que la ecuación podría interpretarse como que dos
moles de agua se disocian en 2 moles de hidrógeno y un mol de oxígeno.

6.5.2. Balance de las ecuaciones químicas


Para ajustar una reacción química se sigue el método de ajuste por inspección que es un método
de prueba y error. La regla elemental que se sigue en este método es ajustar en primer lugar los áto-
mos de los elementos que se encuentran sólo en una sustancia a ambos lados de la ecuación. Estudie-
mos el método mediante un ejemplo. Consideremos la combustión del propano. Experimentalmente
se observa que el propano reacciona con el oxígeno del aire dando lugar a dióxido de carbono y agua.
Por consiguiente, la ecuación química de esta reacción es:
C3H8 + O2 ® CO2 + H2O

Ajustar la ecuación significa encontrar los coeficientes que hagan que el número de átomos de
cada elemento sea igual a ambos lados de la ecuación.
Para comenzar el ajuste, elijamos un elemento que sólo se encuentre en una sola sustancia a
ambos lados de la ecuación. Elijamos por ejemplo el carbono. Puesto que hay 3 átomos de carbo-
no en el primer miembro deberá haber tres átomos en el segundo, por tanto asignemos un coefi-
ciente 3 a CO2:
C3H8 + O2 ® 3 CO2 + H2O

Ajustemos a continuación los átomos de hidrógeno. Como en el primer miembro de la ecuación hay 8
átomos y en el segundo 2, habrá que asignar un coeficiente 4 a H2O:
C3H8 + O2 ® 3 CO2 + 4 H2O

512 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría atómica de Dalton

Por último, ajustemos los átomos de oxígeno. Puesto que en el lado izquierdo de la ecuación química
hay 2 y en el derecho 10, deberemos asignar un coeficiente 5 a O2. De esta manera, la ecuación queda
definitivamente ajustada o equilibrada:
C3H8 + 5O2 ® 3CO2 + 4H2O

Como medida de precaución, antes de finalizar, es interesante comprobar que la ley de la conser-
vación de la masa se satisface para todos los elementos que aparecen en la reacción.

6.5.3. Reactivo limitante


Los compuestos se pueden preparar de manera que la reacción química tenga lugar en una vasija
cerrada y en donde los reactivos se encuentren justo en su relación estequiométrica, tal como indica la
ecuación química ajustada. Sin embargo, en la mayoría de ocasiones las reacciones químicas no se
producen en estas condiciones. Por regla general existen cantidades de reactivos en proporción dife-
rente a la estequiométrica, por lo que uno de ellos se agota antes de que lo hagan los demás y en con-
secuencia limita la duración de la reacción. A este reactivo se le denomina reactivo limitante. Es de-
cir, que por reactivo limitante entenderemos el reactivo que es consumido completamente cuando se
efectúa una reacción química.
Un ejemplo de lo que acabamos de comentar es la combustión de carbón. Por regla general, este
proceso no se produce en una vasija cerrada sino que tiene lugar al aire libre. En este caso, la cantidad
de oxígeno disponible es ilimitada mientras que la de carbón no lo es. Por consiguiente, en este caso,
el carbón será el reactivo limitante de la reacción química.
Veamos un ejemplo numérico. Supongamos que se quiere obtener hierro a partir de la siguiente
reacción química:
Fe3O4 + 4C ® 3Fe + 4CO
y consideremos que se dispone de 115,0 g de Fe3O4 y 24,00 g de C. Se desea calcular la máxima canti-
dad de hierro que puede obtenerse. Para encontrar el resultado calcularemos la cantidad de hierro que
puede obtenerse a partir de cada uno de los reactivos. De estas cantidades, la menor de estas cantida-
des será la máxima cantidad de hierro que puede obtenerse y el reactivo correspondiente será el reac-
tivo limitante de la reacción. En nuestro caso, con 1 mol de óxido se obtienen 3 moles de hierro.
Como 115 g de hierro corresponden a 115/231,5386 = 0,4967 moles, se pueden obtener 1,490 moles
de hierro. Por otro lado, con 4 moles de carbono se obtienen 3 moles de hierro. Como 24 g de carbono
equivalen a 24/12,01 = 1,998 moles, se podrán obtener en total 1,499 moles de hierro. En consecuen-
cia el máximo de hierro que puede obtenerse es 1,490 moles que equivalen a 83,214 gramos.

6.5.4. Cálculos a partir de las ecuaciones químicas


Las relaciones cuantitativas entre las sustancias que intervienen en una reacción, las cuales se
obtienen de la ecuación química, permiten determinar la cantidad de una sustancia si se conoce la
cantidad de una cualquiera de ellas. Veamos los distintos tipos de cálculo que pueden hacerse.

– Relaciones masa-masa. Conocida la masa de una de las sustancias se puede hallar la masa
de la otra. Ejemplo: supongamos la reacción:
2ZnS + 3O2 ® 2ZnO + 2SO2
Determinemos la cantidad de SO2 que se obtiene y la cantidad de oxígeno que se ha de tener
si disponemos de 10 g de sulfuro de cinc.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 513


Volumen II. Física II

Como vemos, por cada 2 moles de sulfuro (peso molecular 97,37) se obtienen 2 moles de
SO2 (peso molecular 64). Por consiguiente, la cantidad de SO2 será:
2 10
64 = 6,57g
2 97,37
Para calcular la cantidad de oxígeno hemos de tener en cuenta que por cada 2 moles de sul-
furo se necesitan tres de oxígeno, por tanto, a la cantidad de oxígeno que se ha de tener será:
3 10
32= 4,93g
2 97,37
– Relación masa-volumen. Si una de las sustancias que intervienen es un gas podemos cal-
cular su volumen si consideramos que el gas satisface la ecuación de los gases perfectos.
Ejemplo: supongamos la reacción:
Zn + 2HCl ® ZnCl2 + H2
Deseamos calcular el volumen de hidrógeno resultante, si la temperatura es de 21 ºC y la
presión es de 748 mmHg, a partir de 50 g de cinc si se dispone de suficiente ácido.
Como vemos, por cada mol de cinc (peso atómico 65,37) se obtiene un mol de hidrógeno
(peso molecular 2 y volumen normal 22,4 L). Por tanto, en condiciones normales el volu-
men de hidrógeno que se obtiene es:
2 50
22,4 = 34,266 L
1 65,37
Para determinar el volumen en las condiciones dadas, utilizaremos la ley de los gases perfec-
tos pV/T = cte. Por tanto, se tendrá que el volumen en las condiciones de la reacción será:
294,16 760´ 22,4
= 24,509 L
748 273,16
– Relación volumen-volumen. Supongamos ahora una reacción en la que intervienen dos
gases, como la mostrada a continuación que corresponde a la combustión del metano:
CH4 + 2O2 ® CO2 + 2H2O
Deseamos calcular el volumen de aire (21% oxígeno y 79% nitrógeno) necesario para la
combustión completa de 1 L de metano en condiciones normales.
Como puede apreciarse en la reacción química, por cada mol de metano se necesitan dos
moles de oxígeno. Si tenemos en cuenta que en condiciones normales el volumen de un mol
es 22,4 L, el volumen de oxígeno necesario será:
2
´1= 2 L
1
Ahora bien, como en 100 partes de aire sólo hay 21 partes de oxígeno, el volumen de aire
será:
100
´ 2= 9,524 L
21
– Rendimiento de una reacción química. Una cuestión importante en una reacción química
es su rendimiento. El rendimiento indica la efectividad de un proceso dado en la obtención de
un producto. El rendimiento máximo de una reacción se denomina rendimiento teórico y es la
cantidad máxima de producto que se puede obtener por una reacción a partir de cantidades
dadas de reactivos. Es decir, es la cantidad de producto que se obtiene suponiendo que la

514 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría atómica de Dalton

reacción se completa. En la práctica, sin embargo, el rendimiento real puede ser muy diferen-
te del teórico; es decir, no se obtiene tanto producto como era de esperar teóricamente. Las ra-
zones de que ocurra esto pueden ser muy variadas. En primer lugar, muchas reacciones no se
completan y de detienen antes de que los reactivos se conviertan completamente en producto.
En segundo lugar, pueden producirse otras reacciones, denominadas secundarias, que dan lu-
gar a productos no deseados. Finalmente, suele ocurrir que el proceso de separación del pro-
ducto final de la mezcla sea bastante difícil, con lo que se produce una pérdida de producto.
Se denomina porcentaje de rendimiento de una reacción al cociente entre el rendimiento
real (obtenido experimentalmente) y el rendimiento teórico (calculado), expresado en tanto
por ciento. Es decir, el porcentaje de rendimiento viene dado por:
rendimiento real
Porcentaje de rendimiento = ´100%
rendimiento teórico

6.5.5. Reacciones químicas y disoluciones


Las reacciones entre reactivos sólidos son por regla general bastante lentas y con frecuencia no
se efectúan completamente. Esto es debido a que las moléculas y los iones en un cristal ocupan posi-
ciones fijas y en consecuencia la probabilidad de que dos moléculas o iones entren en contacto para
reaccionar es pequeña. Por esto, la mayor parte de las reacciones tienen lugar en disoluciones líqui-
das. En este caso, las moléculas de reactivo pueden moverse libremente por el líquido con lo que la
reacción se realiza de forma más rápida. Además, otra ventaja de las reacciones en disolución es que
se permite obtener cantidades muy pequeñas de producto que no podrían ser controladas si la reac-
ción tuviera lugar de otra manera.
Una disolución es una mezcla homogénea de una sustancia mayoritaria, denominada disolvente,
y una sustancia en menor cantidad denominada soluto. Para la mayoría de reacciones que tienen lugar
en disoluciones, el disolvente no reacciona y sólo lo hace el soluto cuando se mezcla con otra disolu-
ción. Normalmente las disoluciones utilizadas en los laboratorios son líquidas, y el disolvente es
agua. A estas disoluciones se les denomina acuosas.
La estequiometría de las reacciones en disolución se trata igual que la estequiometría de las reac-
ciones entres sustancias puras, pero los moles que son significativos en este tipo de reacciones son los
del soluto. Para especificar la composición de una disolución se utiliza el término concentración que
indica la cantidad de soluto (reactivo) disuelto en una cantidad de disolución o, a veces, de disolvente.
Existen muchos modos de expresar la composición de una disolución: puede expresarse en unidades
físicas, es decir, en gramos o mililitros o litros, o bien en unidades químicas como el mol.
– Concentración en tanto por ciento. Frecuentemente se suele dar la concentración de una
disolución en forma de porcentaje de soluto. Así es frecuente dar la concentración en gra-
mos de soluto por cada cien gramos de disolvente o en gramos de soluto por cada 100 gra-
mos de disolución (concentración centesimal). Esta última es una forma bastante usual de
expresar la concentración. Así, cuando se habla de una disolución de alcohol del 96% se
está indicando que en la disolución hay 96 gramos de alcohol por cada 100 gramos de diso-
lución. También es frecuente dar la concentración en gramos de soluto por litro de disol-
vente o en gramos de soluto por litro de disolución.
– Concentración molar. Se define la molaridad (M) de una disolución como el número de
moles de soluto contenidos en un litro de disolución. Si denominamos x a la masa de soluto,
m a la masa molar, n = x/m al número de moles y V al volumen de la disolución, la molari-
dad viene dada por:
n mx
M= = (5)
V V

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 515


Volumen II. Física II

– Concentración normal. Se define la normalidad de una disolución como el número de


equivalentes-gramo de soluto contenidos en un litro de disolución. Si denominamos x a la
masa de soluto, m a la masa molar, n = x/m al número de moles, u a la valencia y V al volu-
men de la disolución, la normalidad viene dada por:
x
u
N= m
(6)
V
Como vemos, en los compuestos monovalentes la normalidad es igual a la molaridad. En
general, se tiene que:
N = uM (7)
– Concentración molal. Se define la molalidad como el número de moles de soluto en
1000 gramos de disolvente puro. Si denominamos x a la masa de soluto, m a la masa mo-
lar, n = x/m al número de moles y K a la masa del disolvente, la molalidad viene dada por:
x
n
M= = m (8)
K K
– Fracción molar. Se denomina fracción molar (c) de un componente de una disolución, for-
mada por sustancia no electrolitos, como el cociente entre el número de moles de cada sus-
tancia disuelta y el número total de moles. Si denominamos ni al número de moles de cada
sustancia, la fracción molar ci de un componente i de la disolución viene dada por:
ni
ci = (9)
å ni i

– Dilución de disoluciones. En algunas ocasiones estamos interesados en diluir una disolu-


ción concentrada en una determinada cantidad de agua. En este caso es interesante relacio-
nar la molaridad antes de la dilución y después de la dilución. Si tenemos en cuenta la
definición de molaridad dada por (5) podemos escribir:
n=M´V
en donde n es el número de moles del soluto, M la molaridad y V el volumen de la disolución.
Cuando diluimos la disolución, su volumenV y su concentración M cambian, pero el número
de moles de soluto permanece inalterado. Por tanto, en la disolución diluida, se tendrá que:
n = M ´V
E igualando las dos expresiones anteriores, se tiene que:
M ´V = M ´V (10)
Esta expresión nos permite calcular cualquiera de las cuatro cantidades si conocemos las
otras tres. En el laboratorio, como decíamos al principio, lo normal es que se desee conocer
el volumen que debe tener un cierto volumen de disolución de molaridad conocida para ob-
tener una molaridad determinada.

6.5.6. Estequiometría de disoluciones


Como hemos comentado anteriormente, la estequiometría de las reacciones en disolución se tra-
ta igual que la estequiometría de las reacciones entre sustancias puras. El volumen de la disolución y
la concentración nos permite determinar los moles de soluto, y los cálculos de masas o volúmenes de
los reactivos o de los productos se hacen igual que en el caso de reacciones con sustancias puras. Vea-
mos un ejemplo de cálculo de masas, volúmenes o concentraciones, a partir de una ecuación química.

516 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Teoría atómica de Dalton

Deseamos calcular el volumen de una disolución de NaOH 0,505 M necesaria para reaccionar
con 40,0 mL de una disolución de H2SO4 0,505 M, según la reacción:
H2SO4 + 2NaOH ® Na2SO4 + 2H2O

De la ecuación química se observa que 1 mol de H2SO4 reacciona con 2 moles de NaOH. Del volu-
men y la molaridad de la disolución de H2SO4 podemos calcular el número de moles:
n (H2SO4) = V ´ M = 0,04 ´ 0,505 moles de H2SO4 = 0,0202 moles de H2SO4

Puesto que se necesitan 2 moles de NaOH por cada mol de H2SO4, el número de moles necesarios
para la reacción será:
n (NaOH) = 2 ´ 0,0202 moles de NaOH = 0,0404 moles de NaOH

Ahora podemos calcular el volumen de disolución V de NaOH:


n(NaOH) 0,0404
V (NaOH) = = L = 0,0800 L = 80,0 mL
M (NaOH) 0,505

Valoraciones. En el laboratorio la situación más frecuente es que podemos medir el volumen de


una disolución que se necesita para reaccionar con un volumen dado de otra disolución de concentra-
ción conocida. Después se calcula la concentración de la primera disolución. Este proceso se denomi-
na valoración. La valoración es un proceso en el que una disolución de un reactivo, el valorante, se
añade cuidadosamente a una disolución de otro reactivo, y se mide el volumen necesario del valoran-
te para la reacción completa. Por tanto, para realizar un proceso de valoración es necesario conocer
cuándo se completa la reacción química. Esto se consigue añadiendo a la disolución que va a ser valo-
rada unas gotas de un indicador que es una sustancia que puede tener diferentes colores dependiendo
de las concentraciones de H+ en la disolución, y que debe cambiar de color cuando la reacción se
complete. El punto en que han reaccionado cantidades estequiométricamente equivalentes de los dos
reactivos se denomina punto de equivalencia. El punto en el que el indicador cambia de color se cono-
ce como punto final de la valoración. Evidentemente, lo que a uno le interesa es que el punto final
coincida con el punto de equivalencia.
Veamos, con un ejemplo, un problema de valoración. Se desea determinar la molaridad de una di-
solución de ácido clorhídrico si se necesitan 40 mL de la disolución de HCl para reaccionar con 50 mL
de una disolución de hidróxido sódico 0,2 M. La reacción viene representada por la ecuación química:
HCl + NaOH ® NaCl + H2O

La ecuación química nos dice que la relación entre los moles de HCl y NaOH es 1 a 1. Calculemos el
número de moles de hidróxido sódico. De la definición de molaridad, se tiene que:
n (NaOH) = V (NaOH) ´ M (NaOH) = 0,05 ´ 0,2 moles de NaOH = 0,01 moles de NaOH

Puesto que la relación entre los moles de las dos sustancias es de 1 a 1, se necesitarán 0,01 mol de
HCl, y como el volumen de la disolución es de 40,0 mL, la concentración molar de la disolución de
ácido clorhídrico será:
n(HCl) 0,01 mol mol
M (HCl) = = = 0,25
V (HCl) 0,04 L L

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 517


Volumen II. Física II

BIBLIOGRAFÍA

Atkins, P. y Jones, L.: Química. Omega, Barcelona, 1998.


Babor, J. A. y Ibarz, J.: Química General Moderna. Marín, Barcelona, 1975.
Chang, R.: Química. McGraw-Hill, México, 1998.
Davis, R. E. y Peck, M. L. Whitten, K. W.: Química General. McGraw-Hill,
Madrid, 1998.
Ebbing, D. D.: Química General. McGraw-Hill, México, 1997.
Mahan, B. M. y Myers, R. J.: Química. Addison-Wesley, Argentina, 1990.

518 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

34
Modelos atómicos. Evolución
histórica y justificaciones de
cada modificación

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. PRIMEROS MODELOS ATÓMICOS


1.1. Modelo de Thomson
1.2. Modelo atómico de Rutherford

2. MODELO ATÓMICO DE BOHR


2.1. Espectros atómicos
2.2. Postulados de Bohr
2.3. Espectro energético del átomo de Bohr
2.4. Experimentos de Franck y Hertz

3. MODELO ATÓMICO DE SOMMERFELD


3.1. Reglas de cuantificación de Wilson y Sommerfeld
3.2. Teoría relativista de Sommerfeld
3.3. Limitaciones de la teoría de Bohr y Sommerfeld

4. MODELO ATÓMICO DE LA MECÁNICA CUÁNTICA


4.1. Cuantización de la energía
4.2. Densidad de probabilidad
4.3. Otras predicciones de la mecánica cuántica
4.3.1. Cuantización del momento angular
4.3.2. Momento dipolar magnético orbital y efecto Zeeman
4.3.3. Spin del electrón
4.3.4. Momento angular total
4.3.5. Átomos con muchos electrones

BIBLIOGRAFÍA

520 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

1. PRIMEROS MODELOS ATÓMICOS


La palabra átomo proviene del griego y significa indivisible. Con ello se quiere indicar que co-
rresponde al componente más pequeño de la materia, el cual no puede ser dividido.
El concepto de átomo fue introducido por los filósofos naturales de la antigua Grecia, en los si-
glos quinto y cuarto antes de Cristo. Las primeras teorías atómicas sobre la estructura de la materia
fueron las teorías de Demócrito (460-370 a. de C.), de Platón (429-348 a. de C.) y Aristóteles
(384-322 a. de C.). No obstante, hubo de pasar casi 2000 años hasta que estas teorías especulativas se
convirtieran en una teoría atómica en el sentido moderno.
El reconocimiento de que la materia estaba formada por átomos fue una consecuencia de las in-
vestigaciones en el campo de la química. A principios del siglo XIX, John Dalton (1766-1844), pro-
fesor de matemáticas y filosofía en Manchester, investigaba la composición atmosférica y buscaba
una explicación de las diferencias de solubilidad de los gases en agua. Para resolver este problema
postuló una teoría atómica cuyas ideas básicas son las siguientes:
– La materia se compone de partículas muy pequeñas denominadas átomos.
– Los átomos de un elemento son idénticos en todas sus propiedades.
– Los diferentes elementos están hechos de átomos distintos.
– Los átomos de dos o más elementos se combinan para dar lugar a las moléculas.
– Los átomos son indivisibles y conservan sus características en las reacciones químicas.
– En las reacciones químicas los átomos se combinan en proporciones numéricas simples.

Aunque la teoría atómica de Dalton era errónea en algunos aspectos, fue la primera en volver a
considerar las primitivas teorías de los griegos, e introdujo una serie de conceptos que fueron deter-
minantes para el desarrollo de la química del siglo XIX. Sin embargo, la teoría atómica de Dalton no
explicaba por qué los átomos se combinaban en determinadas proporciones y no en otras. Muchos
científicos de la época no aceptaron la existencia de estas partículas elementales constitutivas de la
materia, lo que dio lugar a grandes debates entre los defensores y detractores de la teoría atómica.

1.1. Modelo de Thomson


Tras el descubrimiento del electrón, y a lo largo de todo el siglo
XIX, se realizaron una serie de experimentos, incluido el efecto fotoe-
léctrico, que hicieron evidente que los átomos contenían electrones. Esfera con
carga positiva
Algunos de ellos, como los experimentos sobre la dispersión de rayos
X, proporcionaron una estimación del número de electrones Z de un
átomo. Por otro lado, puesto que era conocido que los átomos eran
eléctricamente neutros, debían tener una carga positiva igual a la carga
negativa de los electrones. Es decir, que si un átomo tiene una carga
negativa Ze, siendo e la carga del electrón, debe tener una carga positi-
va de igual magnitud. Además, puesto que la masa del electrón es mu-
cho más pequeña que la del átomo, significa que la mayor parte de la Electrones
masa de éste debe estar asociada a las cargas positivas.
Tomando como base estos hechos, J. J. Thomson (1856-1940) Figura 1. Modelo atómico
propuso un modelo atómico en el que los electrones estaban inmersos de Thomson, conocido con
en una distribución continua de carga positiva. Esta distribución se su- el nombre de pastel de
ponía que tenía forma esférica y su radio era del orden de 10-10 m (figu- pasas. Los electrones se
ra 1). Debido a la repulsión entre ellos, los electrones deberían situarse encuentran inmersos en una
distribuidos uniformemente en la esfera. esfera de carga positiva.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 521


Volumen II. Física II

En su estado de mínima energía, los electrones deberían estar fijos en sus posiciones de equilibrio.
Thomson estudió la estabilidad de los electrones en la esfera y obtuvo estas configuraciones para el caso
en que el número de electrones fuese menor o igual que 6 (figura 2). Para valores mayores no pudo re-
solver el problema, y propuso un modelo alternativo en el que los electrones se encuentran distribuidos
en anillos centrados en el átomo. No obstante, descubrió que estas distribuciones eran inestables para un
número de electrones mayor que 4, a no ser que estos anillos girasen alrededor del centro. Este movi-
miento de los electrones daría lugar a la emisión de radiación electromagnética, y, por tanto, a una pér-
dida constante de energía que haría que los electrones perdiesen velocidad. Al cabo de cierto tiempo, los
electrones alcanzarían una velocidad límite por debajo de la cual el átomo sería inestable. De esta mane-
ra, Thomson explicaba el decaimiento radiactivo de los átomos. Para un número grande de electrones,
los electrones debían configurarse en varios anillos concéntricos girando alrededor del centro. Thom-
son intentó relacionar los elementos conocidos hasta la época con los que se obtenían con su modelo y
así explicar las propiedades periódicas de los elementos, pero no tuvo éxito en su intento.

Figura 2. Disposición más


estable para los átomos con Z
Z=1 Z=2 Z=3 Z=4 Z=5 Z=6 desde 4 a 6.

Por otro lado, el modelo de Thomson podía explicar de forma cualitativa la emisión de radiación
por parte de los átomos excitados. Sin embargo existía un desacuerdo total con los espectros de emi-
sión obtenidos experimentalmente.

1.2. Modelo atómico de Rutherford


Entre 1909 y 1911, Ernest Rutherford (1871-1937) y sus colaboradores realizaron una serie de
experimentos para estudiar la dispersión de partículas a al pasar por láminas delgadas de oro y otras
sustancias.
En aquella época se conocía que las partículas a eran átomos de helio doblemente ionizados con
una masa 7300 veces mayor que la masa del electrón. En el experimento, las partículas a emitidas por
un material radiactivo eran colimadas mediante un par de diafragmas, y se hacían incidir sobre una lá-
mina delgada de oro u otra sustancia metálica. Si la lámina es suficientemente delgada, las partículas
a la atraviesan sin perder apenas velocidad. Sin embargo, debido a la interacción Coulomb entre su
carga y las cargas positivas y negativas de los átomos de la lámina, las partículas experimentan pe-
queñas desviaciones en sus trayectorias. Puesto que la desviación experimentada por cada partícula al
pasar cerca de un átomo depende de su trayectoria concreta, la desviación total es distinta para cada
una de las partículas del haz incidente. Mediante un dispositivo adecuado se puede determinar el nú-
mero de partículas que resultan dispersadas en un intervalo comprendido entre Q y Q + dQ.
Del modelo de Thomson, y suponiendo que la distribución de carga en el átomo puede calcular-
se mediante la ley de Coulomb, se obtiene que la desviación máxima que puede experimentar una
partícula a por un átomo es del orden de 10–4 radianes. Por tanto, si llamamos q a la desviación que
experimenta una partícula, se tiene que q £ 10–4 radianes. Estadísticamente se tiene que la relación
entre la desviación total Q experimentada al atravesar la lámina y la desviación q producida por un
solo átomo viene dada por:

(Q ) ( )
12 12
2
= N q2 (1)

siendo N el número de átomos que dispersan una partícula.

522 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

La distribución angular de las partículas viene dada por:


Q2
2NQ –
N (Q ) dQ = e Q2
(2)
Q 2

siendo N el número de partículas que pasan a través de la lámina.


Geiger y Marsden realizaron un experimento en el que bombardearon una lámina de oro de es-
pesor 10–6 m con partículas a y encontraron que el promedio del ángulo de dispersión era (Q 2 ) 1 2 •
• 10 • 2 ´ 10–2 rad. Este resultado concordaba con la estimación realizada utilizando la ley de Coulomb
para determinar la dispersión por un átomo. En efecto, podemos suponer que el número de átomos que
atraviesa la partícula a es igual al espesor de la lámina dividida por el diámetro típico de un átomo:
10–6
N• –10
= 104 (3)
10

Llevando este resultado a la expresión (1) se obtiene inmediatamente que:


2´10–2
(q ) 1
(Q )
12 12
2
= 2
= 2
• 2 ´ 10–4 rad (4)
N 10
que como hemos dicho concuerda con el resultado predicho por el modelo de Thomson q £ 10–4.
Por otro lado, en el experimento se observaba que más del 99% de la partículas a eran dispersadas
en ángulos menores de 3º; sin embargo, se encontró que la fracción de partículas dispersadas en ángulos
mayores de 90º estaba en contradicción con lo que predice la relación (2). Experimentalmente se encon-
tró que dicha fracción era alrededor de 10–4, mientras que la expresión (2) predice que esta fracción es:

N (Q > 90º ) ò90 N (Q ) dQ


180

= e –( 90) • 10
2 –3500
= (5)
N N

Por consiguiente, los resultados experimentales no estaban de acuerdo con los predichos teóricamen-
te. Además, se observó que esta discrepancia se mantenía para ángulos mayores de unos cuantos gra-
dos: el número de las partículas dispersadas era mucho mayor que los predichos teóricamente. Los
científicos contemplaron con sorpresa estos resultados, en los que se obtenían ángulos de dispersión
cercanos a los 180º. El propio Rutherford hizo el siguiente comentario:
Fue el más increíble evento que me ha ocurrido en mi vida. Era tan increíble
como si al disparar una bala de 15 pulgadas sobre un papel higiénico, ésta rebotara y
le golpeara a uno mismo.

El hecho de que la probabilidad de que la partícula a fuese dispersada en ángulos cercanos a 180º
fuese pequeña pero no nula, no podía ser explicado mediante el modelo atómico de Thomson. Rutherford
realizó nuevos experimentos variando el espesor de las láminas bombardeadas y encontró que esta proba-
bilidad era proporcional al número N de átomos atravesados por las partículas a. Este resultado sólo era
explicable si existiese una probabilidad distinta de cero de que una partícula a fuese dispersada un ángulo
grande por un solo átomo, lo que era incompatible con el modelo de Thomson.
Esto llevó a Rutherford a proponer un modelo atómico distinto basado en una estructura planeta-
ria. El modelo de Rutherford suponía que toda la carga positiva y, en consecuencia, casi toda la masa
del átomo, se encuentra concentrada en un volumen pequeño alrededor del centro del átomo de radio
del orden de 10–14 m. Surgió así el concepto de núcleo atómico. Los electrones orbitaban alrededor de

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 523


Volumen II. Física II

este núcleo, como los planetas alrededor del Sol, debido a la atracción que sobre ellos ejercían las car-
gas positivas situadas en el núcleo. El radio de estas órbitas era del mismo orden de magnitud que el
tamaño del átomo, o sea, de 10–10 m.
Utilizando este modelo y la mecánica newtoniana, Rutherford encontró la explicación de la dis-
persión experimentada por las partículas a. Además, pudo estimar el tamaño máximo del núcleo ató-
mico haciendo un cálculo de la distancia de máximo acercamiento al átomo de las partículas dispersa-
das. Esta distancia corresponderá a aquella en la que se iguala la energía cinética de la partícula y su
energía potencial. Si llamamos V a la velocidad de la partícula, M a su masa y ze a su carga eléctrica, y
por otro lado consideramos que la carga del núcleo atómico es Ze, la condición de igualdad entre la
energía cinética y la energía potencial eléctrica es:
1 1 zZe 2
MV 2 = (6)
2 4pe 0 D

siendo D la distancia entre el átomo y la partícula. Despejando se obtiene que:


1 2zZe 2
D= (7)
4pe 0 MV 2

Los cálculos realizados por Rutherford para el núcleo atómico basados en esta distancia mínima esta-
blecieron que el tamaño del núcleo se encontraba entre 10–14 y 10–15 metros.
Aunque el modelo de Rutherford fue capaz de explicar de forma satisfactoria los resultados ex-
perimentales obtenidos en la dispersión de partícula a, presentaba ciertas limitaciones que hicieron
dudar de su validez. Estas limitaciones están relacionadas con la estabilidad del átomo. La idea de que
los electrones se encuentran en movimiento circular alrededor del átomo, significa que éstos se en-
cuentran en un movimiento acelerado, y, como cualquier carga acelerada, radiaría energía en forma
de radiación electromagnética. Ésta llevaría consigo una pérdida de energía cinética del electrón, que
se vería así frenado de forma continua y terminaría por caer hacia el núcleo. Por otro lado, esto daría
lugar a un espectro continuo de la radiación emitida, lo cual iría en contra de los espectros discretos de
emisión de los átomos que se obtienen experimentalmente. Por consiguiente, de acuerdo con la física
clásica, el átomo de Rutherford sería inestable.

2. MODELO ATÓMICO DE BOHR


La solución del problema de la estabilidad de los átomos y de la emisión de un espectro discreto
que el modelo atómico de Rutherford no podía explicar, motivó un cambio drástico en los conceptos
físicos, lo que llevó al primer modelo atómico cuántico propuesto por Neils Bohr (1885-1962).
Uno de los requisitos que debía tener una teoría sobre la estructura atómica es que fuese capaz de
explicar los espectros de la radiación electromagnética emitida por los átomos. A continuación va-
mos a ver los aspectos más generales de estos espectros de emisión.

2.1. Espectros atómicos


A diferencia de la radiación emitida por un cuerpo a temperatura elevada, que tiene un espectro
continuo, la radiación emitida por un átomo aislado está formada por un número discreto de compo-
nentes de ciertas longitudes de onda. Estos componentes pueden determinarse experimentalmente de
forma sencilla. En la figura 3 se muestra el esquema típico de un montaje experimental para el estudio
del espectro electromagnético emitido por los átomos. La fuente consiste en un tubo de vidrio en el
que se ha introducido una cierta cantidad de gas del elemento a estudiar. En el tubo hay dos electrodos

524 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

a los que se les aplica una diferencia de tensión muy elevada, con objeto de producir una descarga
eléctrica. Como consecuencia de la descarga el gas emite radiación electromagnética que, tras pasar
por un colimador, se hace incidir sobre un prisma o una red de difracción. El patrón de difracción se
proyecta sobre una pantalla o sobre una placa fotográfica.
Red de
Colimador difracción Pantalla

Gas
V
q

Figura 3. Montaje experimental


para la medida del espectro
atómico de emisión.

La posición de los máximos de difracción viene dada por:


l
sen q = n (8)
d

siendo q el ángulo de separación respecto de la dirección normal a la pantalla, y d la separación entre


las rendijas adyacentes de la red de difracción.
Por consiguiente, en la posición central de la pantalla existirá un máximo que contendrá todas
las longitudes de onda presentes en la radiación incidente, pero la posición de los otros máximos de-
penden de la longitud de onda. Por tanto, si la luz que incide está compuesta de varias longitudes de
onda, la red de difracción separa la posición de los máximos de cada una de las componentes, y mi-
diendo el ángulo q podremos determinar la longitud de onda.
Kirchhoff y Bunsen, a mediados del siglo XIX, fueron los primeros en descubrir que cada ele-
mento tiene su propio espectro característico, es decir, cada elemento se caracteriza por un conjunto
propio de longitudes de onda o líneas espectrales. En general, estos espectros suelen ser bastante
complejos y contienen cientos de líneas, por lo que su estudio resulta complicado. No obstante, este
hecho es de gran importancia práctica pues permite identificar una sustancia a partir de su espectro
electromagnético, lo que convierte a esta técnica, denominada espectroscopía, en una herramienta
muy poderosa en los análisis químicos. De ahí que, durante el siglo XIX, los científicos investigaran,
utilizando técnicas similares a la descrita anteriormente, el espectro de un gran número de sustancias.
El hidrógeno es el elemento más ligero y el átomo de hidrógeno el más sencillo de todos. Por con-
siguiente, no es de extrañar que el espectro del hidrógeno sea también relativamente sencillo. En la figu-
ra 4 se muestra la parte de este espectro corres-
pondiente a las longitudes de onda cercanas a la Ha Hb Hg Hd He
zona del visible. Vemos que el espectro de emi-
sión del átomo de hidrógeno muestra tres líneas
características en la región del visible, que co-
rresponden a longitudes de onda de 6562.8,
4861.3 y 4340.5 Å denominadas Ha, Hb y Hg.
En la zona cercana al ultravioleta hay una serie
6562.8

4861.3

4340.5

4101.7
3970.1

3645.6

de líneas cada vez más juntas conforme se acer-


can a la longitud de onda límite H¥ = 3645.6 Å.
La regularidad de estas longitudes de onda
llevó a la búsqueda de una relación que nos Figura 4. Espectro del átomo de hidrógeno.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 525


Volumen II. Física II

permitiera calcular las longitudes de onda de las líneas del espectro. En 1885 Balmer encontró que es-
tas longitudes de onda podían determinarse mediante una relación de la forma:
n2
l=G 2 (9)
n –4
en donde G es una constante empírica y n es un entero n = 3, 4, 5, ... La fórmula de Balmer daba con
gran exactitud los valores de las longitudes de onda de las líneas espectrales que se conocían en la
época. Un conocimiento más profundo del espectro del átomo de hidrógeno se obtuvo de las observa-
ciones astronómicas. En el espectro de las estrellas se han visto un gran número de líneas espectrales
para el átomo de hidrógeno. El hecho de que muchas de las líneas se descubriesen a partir de observa-
ciones astronómicas, puede entenderse fácilmente por la dificultad de obtener en el laboratorio hidró-
geno atómico puro, pues en la descarga de gases, además de obtener hidrógeno atómico, se tiene tam-
bién hidrógeno molecular cuyo espectro se solapa con el del hidrógeno atómico.
En la actualidad, además de la serie de Balmer, se conocen otras series de líneas espectrales del
hidrógeno, las cuales pueden determinarse con gran exactitud mediante la fórmula de Rydberg:
1 æ 1 1ö
= R Hç 2 – 2 ÷ (10)
l è n' n ø
en donde RH se denomina constante de Rydberg y tiene el valor:
–1
RH = 109677.5810 cm (11)

En la expresión (10) n´ y n son números enteros, denominados números cuánticos principales,


tales que n > n´ y los valores de n´ son:
– n´ = 1 serie de Lyman.
– n´ = 2 serie de Balmer.
– n´ = 3 serie de Paschen.
– n´ = 4 serie de Brackett.
– n´ = 5 serie de Pfund.

En la tabla 1 se muestran los valores de las longitudes de onda de las primeras líneas espectrales
de cada serie. Si observamos estos valores vemos que satisfacen el principio de combinación de Ritz,
que fue encontrado empíricamente, y que establece que:
La diferencia de las frecuencias de dos líneas en una serie del espectro es igual a
la frecuencia de una línea de otra serie del mismo espectro atómico.

Así, por ejemplo, la diferencia de la frecuencia correspondiente a las dos primeras líneas de la
serie de Lyman es igual a la frecuencia correspondiente a la primera línea de la serie de Balmer.

n Lyman Balmer Paschen Brackett Pfund


2 1216
3 1026 6563
4 973 4861 18751
5 950 4340 12818 40500
6 938 4102 10941 26258 74600
Año del 1906 1885 1908 1922 1924
descubrimiento
Tabla 1. Valores de las longitudes de onda (en Å) de algunas de las líneas de las series del espectro del hidrógeno.

526 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

De los valores de la tabla observamos que la serie de Lyman corresponde a longitudes de onda
en la región del ultravioleta, la serie de Balmer a la zona del visible y las series de Paschen, Brackett y
Pfund a la región del infrarrojo.
Para los elementos alcalinos se tiene una expresión del mismo tipo para determinar la longitud
de onda de las líneas del espectro:
1 æ 1 1 ö
= Rç
ç – ÷
÷ (12)
l è (m – a )
2
(n – b )2 ø

en donde R es la constante de Rydberg para el elemento en cuestión, a y b son constantes para la serie
correspondiente y m es un entero que depende de la serie y n un entero variable.

Red de
Colimador difracción Pantalla

Fuente
q
Gas

Figura 5. Montaje experimental para la medida del


espectro atómico de absorción.

Relacionado con el espectro de emisión que acabamos de exponer, está el espectro de absorción
de los átomos. Éste puede obtenerse con un montaje experimental como el mostrado en la figura 5.
Una fuente de radiación con un espectro continuo se hace incidir sobre un recipiente que contiene un
gas monoatómico. La radiación transmitida se hace incidir sobre un prisma o rejilla de difracción y se
proyecta sobre una película fotográfica. El resultado que se observa en la película es que toda está ve-
lada, salvo en aquellas posiciones que corresponden a los máximos de difracción de las componentes
de la radiación que han sido suprimidas del espectro continuo y que deben haber sido absorbidas por
el gas. Experimentalmente se observa que las líneas del espectro de absorción coinciden con alguna
de las líneas del espectro de emisión. Sin embargo no existe reciprocidad, es decir, no toda línea del
espectro de emisión coincide con alguna de las líneas del espectro de absorción. En el caso del átomo
de hidrógeno, normalmente sólo se observan las líneas correspondientes a la serie de Lyman; y sólo a
elevadas temperaturas se observan líneas espectrales correspondientes a la serie de Balmer.

2.2. Postulados de Bohr


A principios del siglo XX se sugirieron varios modelos atómicos que intentaban explicar los re-
sultados experimentales de los espectros atómicos.
En 1913 Neils Bohr propuso un modelo que solventaba los dos problemas con los que se en-
frentaba el modelo de Rutherford, inestabilidad de los átomos y espectro continuo, y a su vez con-
cordaba cuantitativamente con algunos datos espectroscópicos, en concreto con los del átomo de
hidrógeno. Al igual que Rutherford, Bohr supuso que los electrones se mueven alrededor del nú-
cleo en órbitas de radio r con velocidad u, de forma semejante a como los planetas se mueven alre-
dedor del Sol. Ahora bien, con el objeto de evitar la discrepancia con las leyes de la física clásica,
Bohr formuló tres postulados sobre el comportamiento de los electrones en los átomos, que se apar-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 527


Volumen II. Física II

taban de la visión clásica, y que supusieron un paso importantísimo hacia la mecánica cuántica.
Estos postulados eran los siguientes:
1. De la infinidad de órbitas con radios diferentes que permite la mecánica clásica, el electrón sólo
puede moverse en aquellas en las que el momento angular L es un múltiplo entero de la constante
de Planck dividida por 2p. Es decir:
L = mur = nh n = 1, 2, 3, … (13)
en donde h = h/2p.
2. Contrariamente a las predicciones de la teoría electromagnética clásica, un electrón se mueve en
una órbita permitida sin radiar energía electromagnética. De esta manera su energía total perma-
nece constante.
3. La emisión de energía electromagnética se produce cuando un electrón que se encuentra en una
órbita de energía Ei cambia su movimiento hasta moverse en una órbita de menor energía Ef. La
frecuencia v de la radiación emitida es igual a la diferencia de energías de las órbitas (Ei - Ef) di-
vidida por la constante de Planck h:
Ei – E f
v= (14)
h

El primer postulado de Bohr introduce la idea de cuantización utilizada por primera vez por
Planck. Pero, a diferencia de éste, que introduce la idea de que los valores de la energía total de un os-
cilador armónico toma valores discretos, es decir, la cuantización de la energía, Bohr presupone la
idea de cuantización del momento angular orbital de un electrón que se mueve bajo la acción de una
fuerza culombiana.
El segundo postulado introducido por Bohr es necesario para evitar el problema de la inestabili-
dad atómica que predice la teoría electromagnética clásica. Este postulado se basa en el hecho experi-
mental de que los átomos son estables, aunque la teoría clásica no pueda explicar dicha estabilidad.
Más concretamente, Bohr postula que la radiación de energía por parte de las partículas aceleradas es
válida a escala macroscópica pero no es aplicable al mundo microscópico.
Por último, el tercer postulado se basa en el concepto de fotón introducido por Einstein junto con
la conservación de la energía. Si la luz está compuesta de fotones de energía hv, la emisión por parte
del átomo de un fotón debe suponer una pérdida de energía igual a la energía del fotón emitido. Es de-
cir, Ei - Ef = hv.
Como vemos, los postulados de Bohr son una mezcla de las ideas de la física clásica con las nue-
vas ideas de cuantización surgidas a principio del siglo XX. Por un lado, el electrón se mueve en una
órbita circular y obedece a la mecánica clásica, pero por otro la órbita permitida debe satisfacer la
condición de cuantización del momento angular orbital. En otro sentido, el electrón obedece a una ley
del electromagnetismo clásico como es la ley de Coulomb, pero, por el contrario, no cumple el resul-
tado clásico de radiación de energía por parte de una carga acelerada. En definitiva, estos postulados
establecen que las leyes de la física clásica que son válidas para los sistemas a escala macroscópica
dejan de serlo completamente en el mundo de los sistemas microscópicos.

2.3. Espectro energético del átomo de Bohr


En este apartado vamos a utilizar los postulados de Bohr para estudiar átomos con un solo elec-
trón. Obtendremos así una serie de resultados que contrastaremos con los obtenidos experimental-
mente. Esto nos permitirá estimar la validez de dicho modelo.

528 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

Consideremos un átomo compuesto de un núcleo de carga +Ze y masa M y un solo electrón de car-
ga -e y de masa m. Este modelo puede representar, por ejemplo, a un átomo de hidrógeno (H, Z = 1), a
un átomo de helio ionizado (He+ Z = 2), o un átomo de litio doblemente ionizado (Li++ Z = 3). Según el
modelo de Bohr, los electrones se mueven con velocidad u en órbitas circulares de radio r alrededor del
núcleo. Suponiendo válida la ley de Coulomb, el núcleo atómico ejerce una fuerza de atracción sobre el
electrón de módulo igual a:
1 Ze 2
F= (15)
4pe 0 r 2

Por otro lado, el electrón describe una trayectoria circular de radio r alrededor del núcleo, por lo que
la aceleración centrípeta vendrá dada por:
u2
a= (16)
r

Por tanto, la aplicación de la segunda ley de Newton al movimiento de electrones nos da:
1 Ze 2 u2
= m = mwr (17)
4pe 0 r 2
r

Por otro lado, según el primer postulado de Bohr, el impulso angular del electrón está cuantizado y
sólo están permitidas aquellas órbitas en las que se satisfaga la condición dada por (13). De esta ex-
presión se tiene que:
nh
un = (18)
mr

Sustituyendo esta expresión en la ecuación (17), y despejando r, obtenemos para el radio de la órbita:

n2h2
rn = 4pe 0 n = 1, 2, 3, … (19)
mZe 2

Llevando este resultado a la expresión (18), obtenemos para la velocidad del electrón alrededor del
núcleo:

1 Ze 2
un = n = 1, 2, 3, … (20)
4pe 0 nh

Podemos utilizar la expresión (19) para predecir el radio del átomo de hidrógeno. Haciendo Z = 1 y
n = 1 en esta expresión, obtenemos que el radio más pequeño del átomo de hidrógeno viene dado por:
h2
r1 = 4pe 0 (21)
me 2

Este valor mínimo del radio del átomo de hidrógeno se denomina radio de Bohr y se designa por
a0. Sustituyendo en la expresión anterior los valores de la carga de electrón e = 1,6 ´ 10–19 C, de su

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 529


Volumen II. Física II

masa m = 9,1 ´ 10–31 kg, de la permitividad del vacío e0 = 8,85 ´ 10–12 C2 N–1 m–2, y el valor de la
constante de Planck h = 6,626 ´ 10–34 J · s, obtenemos para el radio de Bohr:
h2
a 0 = 4pe 0 = 0,529´10–10 m = 0,529 Å (22)
me 2

Puesto que el hidrógeno tiene su energía mínima cuando el electrón se encuentra en el estado n = 1, el
radio de Bohr representa el radio del átomo de hidrógeno en su estado fundamental. Este resultado
concuerda con el tamaño del átomo de hidrógeno determinado experimentalmente.
Podemos escribir los radios de las órbitas permitidas en función del radio de Bohr si sustituimos
la ecuación (22) en (19):
2
r n = n a0 (23)

Es decir, que sólo están permitidas las órbitas de radio igual a:


r = a0, 4a0, 9a0, 16a0 … (24)

Por otra parte, la velocidad del electrón en su órbita alrededor del núcleo puede ser evaluada uti-
lizando la expresión (20). Así, en su órbita más pequeña (n = 1), se tiene que esta velocidad es:
6 –1
u = 2,2 ´ 10 m · s (25)

Como vemos, esta velocidad, que es la máxima que puede tener un electrón en el átomo de hidró-
geno, es mucho más pequeña que la velocidad de la luz, por lo que está justificado que en el mo-
delo atómico de Bohr utilicemos las ecuaciones de la mecánica clásica en vez de las de la mecáni-
ca relativista.
Calculemos ahora la energía total de un electrón en un átomo de hidrógeno. Esta energía será la
suma de la energía cinética y de la energía potencial:
En = Kn + Un (26)

La energía cinética, haciendo uso de las ecuaciones de la mecánica clásica y de la expresión (17), vie-
ne dada por:
1 1 Ze 2
K n = mu n2 = (27)
2 8pe 0 r

Tomando el origen de energía potencial en el infinito, la energía potencial del electrón vendrá dada
por:
r r r 1 Ze 2 1 Ze 2
U n = – ò¥ F ×dr = ò¥
r
dr = – (28)
4pe 0 r 2 4pe 0 r

Por tanto, sustituyendo las expresiones (27) y (28) en (26), la energía total del electrón vendrá dada
por:
1 Ze 2
En = – (29)
8pe 0 r

530 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

Y sustituyendo la expresión de r dada por (19) se tiene que:


mZ 2 e 4 1
En = – n = 1, 2, 3, … (30)
( 4pe 0 ) 2h n 2
2 2

La expresión (30) indica que el modelo de Bohr restringe los valores que puede tener la energía del
átomo; es decir, que la energía del átomo está cuantizada y por tanto su espectro energético es discre-
to. La energía más baja del átomo se obtiene para el valor más pequeño del número cuántico n = 1, y
conforme aumenta éste la energía tiende a cero.
Puesto que un sistema físico tiende a situarse en el estado de energía más bajo posible, el cual co-
rresponde a la configuración más estable del sistema, al estado que corresponde a la mínima energía
del átomo se le denomina estado fundamental, y se obtiene cuando n = 1. En el caso del átomo de hi-
drógeno Z = 1, esta energía del estado fundamental corresponde a:
–18
E1 = –2,17 ´ 10 J = –13,59 eV (31)

Los estados con valores de n ¹ 1 se denominan estados excitados. En la figura 6 se muestra esquemá-
ticamente el espectro discreto para el átomo de hidrógeno y los valores de la energía correspondiente
a sus niveles más bajos.
n=¥ 0 eV
n=4 –0,85 eV
n=3 –1,51 eV
Figura 6. Algunos de los niveles discretos
n=2 –3,39 eV
de energía para el átomo de hidrógeno,
de acuerdo con el modelo de Bohr. Entre
el nivel n = 4 y n = ¥ existe un conjunto
infinito de niveles muy cerca uno de otro. n=1 –13,59 eV

Para ionizar el átomo de hidrógeno, es decir, para separar un electrón del núcleo (r = ¥) es necesa-
rio suministrarle una energía igual a 13,59 eV, valor que concuerda con los obtenidos experimental-
mente. Una vez que el átomo se encuentra ionizado puede captar un electrón en una órbita permitida
cercana al núcleo. Este proceso puede realizarse en un solo paso, es decir, que el electrón pase al estado
fundamental, o bien mediante pasos intermedios en los que el electrón cae a uno o más estados excita-
dos antes de alcanzar el estado fundamental. En cada una de estas transiciones electrónicas, el átomo
pierde una cierta cantidad de energía que es radiada en forma de radiación electromagnética mediante la
emisión de un fotón. La energía y la frecuencia del fotón emitido dependerán de la energía perdida por
el átomo y, por tanto, de la energía del estado inicial y del estado final después de la transición. Puesto
que los valores de estas energías no son continuos, se obtiene que el espectro de la radiación emitida por
el átomo debe ser un espectro discreto, tal y como se obtiene en los experimentos.
En un típico experimento espectroscópico se produce una descarga en el seno de un gas, lo que
produce la ionización de sus átomos. Puesto que el número de átomos ionizados es muy elevado, tam-
bién lo será el número de transiciones electrónicas. En consecuencia, es lógico que en este tipo de ex-
perimentos se observen todas las longitudes de onda correspondientes a todas las transiciones elec-
trónicas posibles. A continuación vamos a calcular dichas longitudes de onda.
Supongamos que un electrón experimenta una transición desde un estado cuántico inicial carac-
terizado por ni hasta un estado cuántico final nf. Según el tercer postulado de Bohr, la frecuencia del
fotón emitido viene dada por:
Ei – E f
v= (32)
h

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 531


Volumen II. Física II

Teniendo en cuenta la expresión de la energía dada por (30), esta frecuencia es igual a:

æ 1 ö2 mZ 2 e 4 æ
ç1 – 1÷
ö
v =ç
ç
÷
÷ (33)
è 4pe 0 ø 4ph ç
3 2 2 ÷
è n f ni ø

Puesto que l = c/v, la expresión anterior la podemos poner en función del recíproco de la longitud de
onda como:
2 4æ ö
1 æ 1 ö
2

=ç ÷ mZ e ç 1 – 1 ÷
ç ÷ (34)
l è 4pe 0 ø 4ph 3 c ç 2 2 ÷
è n f ni ø

Expresión que podemos escribir de forma más compacta como:


æ1 1ö
= R¥ Z 2 ç ÷
1

çn2 n2 ÷ (35)
l è f i ø

en donde:

æ 1 ö2 me 4
R¥ =ç
ç
÷
÷ (36)
è 4pe 0 ø 4ph c
3

Vemos que la predicción del modelo de Bohr sobre las longitudes de onda de la radiación emitida
por el átomo de hidrógeno (35) es similar a la expresión obtenida experimentalmente dada por la fórmu-
la de Rydberg (10). Ambas expresiones serán iguales si el valor de R¥ y la constante de Rydberg RH
coinciden, y si también lo hacen los números enteros que aparecen en ambas expresiones. Aunque en su
época no se conocían con exactitud los valores de algunas de las constantes que intervienen en la expre-
sión de R¥, Bohr hizo una estimación del valor de esta constante, encontrando que coincidía razonable-
mente bien con el valor de la constante de Rydberg. Con los valores aceptados hoy en día para las cons-
tantes e, m, c y h se obtiene que:

R¥ • 109740 cm
–1
(37)

En cuanto a lo que se refiere a la coincidencia de los valores de los enteros que aparecen en las
expresiones (35) y (10), si consideramos las transiciones electrónicas cuyo estado final es el estado
fundamental nf = 1, el estado inicial puede ser cualquier estado excitado; es decir, ni = 2, 3, 4, ... Estos
valores corresponden a los valores de los enteros que aparecen en la fórmula de Rydberg para la serie
de Lyman. Si el estado final de las transiciones electrónicas es el primer estado excitado nf = 2, el esta-
do inicial puede ser un estado excitado de mayor energía; es decir, ni = 3, 4, 5, ... Por tanto, estas tran-
siciones corresponden a los valores obtenidos en la serie de Balmer. Las demás series experimentales
pueden explicarse de forma análoga considerando las transiciones electrónicas cuyos estados finales
son el segundo estado excitado (nf = 3, serie de Paschen), el tercer estado excitado (nf = 4, serie de
Paschen) y el cuarto estado excitado (nf = 5, serie de Pfund). En la figura 7 se muestran de forma es-
quemática las transiciones electrónicas que dan lugar a dichas series.
La teoría atómica de Bohr supuso un gran éxito no sólo por la explicación de las observaciones
experimentales del espectro atómico del hidrógeno conocido hasta el momento, series de Balmer y
Paschen, sino también porque predijo las series de Lyman, Brackett y Pfund no observadas hasta ese
momento y posteriormente descubiertas. Además, la teoría de Bohr resultó exitosa en la explicación

532 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

de los átomos de un solo electrón y con un número Z = 2, como el helio ionizado. Experimentalmente
se encontró que el espectro del He+ es similar al espectro del átomo de hidrógeno pero con los valores
de 1/l multiplicados por un factor aproximadamente igual a cuatro. Resultado que, según la expre-
sión (35), es precisamente el predicho por la teoría de Bohr.

n=¥
n=4
n=3 Bracket
Paschen
n=2
Balmer

Figura 7. Transiciones electrónicas


responsables de algunas de la longitudes
de onda en cada una de las series n = 1
espectrales del átomo de hidrógeno. Lyman

La teoría de Bohr también explica el espectro de absorción de los átomos con un electrón. Tal
como hemos visto, la energía de electrón está cuantizada y sólo puede tomar algunos valores determi-
nados dados por (26). Por tanto, el electrón sólo puede absorber cantidades discretas de la radiación
incidente. Esta radiación puede suponerse compuesta por un haz de fotones de energía E = hv, de los
cuales el electrón sólo absorberá aquellos cuya energía corresponda a una diferencia de energía entre
dos niveles. Puesto que por regla general el átomo se encuentra en su estado fundamental (ni = 1), sólo
se observarán líneas en el espectro de absorción correspondientes a la serie de Lyman. A temperatu-
ras muy elevadas, las colisiones atómicas pueden dar lugar a que algunos átomos se encuentren en el
primer estado excitado (ni = 2), por lo que podrán absorber fotones cuya longitud de onda correspon-
de a las líneas espectrales de la serie de Balmer.
Los valores de la constante de Rydberg RH (11), determinada experimentalmente, y de la cons-
tante teórica R¥ (37) no coinciden exactamente, sino que presentan una diferencia de 60 cm–1 aproxi-
madamente. Esta discrepancia es debida a que, en el estudio que hemos realizado anteriormente, he-
mos supuesto que la masa del núcleo atómico era infinitamente más grande que la masa del electrón,
de manera que el núcleo permanece fijo en el espacio. De la mecánica sabemos que un sistema de dos
cuerpos de masa m y M a una distancia r uno del otro, se mueven alrededor del centro de masa del sis-
tema. Si el centro de masa está en reposo, la energía total del sistema es igual a la de una partícula fic-
ticia que orbita alrededor del centro de masa a la distancia r y que tiene una masa, denominada masa
reducida m, dada por:
mM
m= (38)
m+ M

Por consiguiente, en los cálculos anteriores debemos sustituir la masa del electrón por la masa
reducida del sistema núcleo-electrón. Haciendo esto, obtenemos que las longitudes de onda de la ra-
diación emitida en las transiciones electrónicas, deducida de la teoría de Bohr viene dada por:
æ1 1ö
= RM Z 2 ç ÷
1

çn2 n2 ÷ (39)
l è f i ø

en donde:
M
RM = R (40)
m+ M ¥
siendo m y M las masas del electrón y del núcleo, respectivamente.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 533


Volumen II. Física II

La cantidad RM es la constante de Rydberg para un núcleo atómico de masa M, mientras que R¥


es la constante para un núcleo de masa infinita. En el caso del hidrógeno, utilizando los resultados de
R¥ dados por (37) y la relación M/m = 1836, se tiene que:

RM • 109680 cm
–1
(41)

Comparando este valor con el obtenido experimentalmente para la constante de Rydberg dado por
(11) vemos que la diferencia es de menos de 3 partes por 100000.

2.4. Experimentos de Franck y Hertz


Por medio del postulado de cuantización del momento angular, la teoría atómica de Bohr esta-
blece la existencia de un espectro discreto de energías en los átomos, que permite explicar el espectro
electromagnético del hidrógeno. La existencia de estos niveles discretos de energía en los átomos fue
confirmada experimentalmente en 1914 por James Franck y Gustav Hertz.
El montaje experimental utilizado se muestra esquemáticamente en la figura 8. Consta de un
tubo en el que se introduce vapor del elemento objeto del estudio y que contiene tres electrodos: un
cátodo C que emite electrones por el calentamiento de un filamento, una placa P y una rejilla G. Los
electrones emitidos por el cátodo son acelerados aplicando una diferencia de potencial VG entre éste y
la rejilla. La mayoría de los electrones que inciden sobre la rejilla la atraviesan y aquellos cuya ener-
gía cinética es suficiente para vencer el potencial de frenado aplicado entre la rejilla y la placa llegan a
ésta. Por el contrario, los electrones que han perdido la mayor parte de su energía cinética en las coli-
siones inelásticas con los átomos del gas no pueden moverse en contra del potencial de frenado y
vuelven a la rejilla. En el experimento se mide la corriente de electrones en función de la tensión VG
para un valor constante del potencial de frenado Vr.

C P

Figura 8. Esquema del aparato utilizado


en el experimento de Franck y Hertz
para demostrar la cuantización de la
VG Vr energía interna de los átomos.

Franck y Hertz realizaron el primer experimento utilizando vapor de mercurio. Los resultados son
los mostrados en la figura 9. Conforme se aumenta la diferencia de tensión VG se observa que la corriente I
también aumenta. Cuando la tensión de aceleración alcanza un valor de 4,9 V, la corriente experimenta un
descenso brusco. A partir de este valor vuelve a incrementarse
I hasta que se llega un valor de la tensión de aproximadamente 9,8
V, en el que vuelven a repetirse las oscilaciones.
Estas oscilaciones en los valores de la corriente I medida en
el experimento de Franck y Hertz, pueden entenderse si tenemos
en cuenta que pueden producirse dos tipos de colisiones entre
los electrones emitidos por el cátodo y los átomos del vapor de
mercurio: colisiones elásticas y colisiones inelásticas. En el caso
4,9 9,8 VG de colisiones elásticas la energía cinética del átomo de mercurio
y del electrón es la misma antes y después del choque; pero
Figura 9. Resultados del como los átomos de mercurio son mucho más pesados que los
experimento de Franck y Hertz. electrones, resulta que la energía cinética de los electrones prác-

534 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

ticamente no cambia en la colisión. Por tanto, los electrones serán desviados por los átomos de mercurio,
pero como su energía cinética no cambia, podrán alcanzar la placa y contribuir a la corriente total en el cir-
cuito. En el caso de que las colisiones sean inelásticas, la energía cinética de los electrones se transforma
en energía interna de los átomos de mercurio; es decir, los átomos absorben parte de la energía cinética de
los electrones y pasan del estado fundamental a un estado excitado. Cuando se produce este tipo de coli-
siones, los electrones pueden perder la energía suficiente como para que no puedan vencer el potencial de
frenado y no puedan llegar a la placa, sino que caigan en la rejilla. Si el espectro atómico del mercurio fue-
se continuo, la transferencia de energía de los electrones a los átomos sería continua, y por consiguiente la
caída de corriente se produciría para cualquier valor de VG. Sin embargo, el hecho experimental de que la
caída se produzca a un valor de VG = 4,9 V, significa que el primer estado excitado del átomo de mercurio,
la cantidad mínima de energía que puede absorber un átomo de mercurio, debe tener una energía de 4,9
eV por encima del estado fundamental. Si se aumenta la tensión VG por encima de 4,9 V, la corriente em-
pieza de nuevo a aumentar. Esto es de esperar, ya que, aunque los electrones colisionen inelásticamente
con los átomos de mercurio, después de la colisión tienen energía suficiente para vencer al potencial de
frenado. Cuando VG alcanza valores igual a 2 ´ 4,9; 3 ´ 4,9; 4 ´ 4,9, etc., se producen de nuevo caídas en
la corriente medida, debido a que los electrones pueden colisionar inelásticamente con los átomos de mer-
curio 2, 3, 4 o más veces, perdiendo una energía de 4,9 eV en cada una de esas colisiones.
Esta interpretación de la existencia de niveles discretos de energía en los átomos de mercurio fue
corroborada por las mediciones espectroscópicas realizadas por Franck y Hertz. Encontraron que si la
energía de los electrones incidentes era menor que 4,9 eV, después del bombardeo, el vapor de mer-
curio no emitía radiación electromagnética. Sin embargo, descubrieron que cuando la energía de los
electrones incidentes es mayor de 4,9 eV, el vapor de mercurio excitado emitía una radiación con una
marcada línea espectral de longitud de onda l = 2537 Å, la cual corresponde a una diferencia de ener-
gía entre niveles de 4,9 eV. Por tanto, el experimento de Franck y Hertz proporcionó la evidencia ex-
perimental de la cuantización de la energía en los átomos.

3. MODELO ATÓMICO DE SOMMERFELD


La teoría atómica de Bohr resultó ser un gran éxito en la explicación de los resultados experi-
mentales, pero había ciertas cuestiones que requerían algunas explicaciones adicionales. En primer
lugar, uno de los aspectos que había que aclarar era el carácter misterioso de la cuantificación del mo-
mento angular y su relación con la cuantificación de la energía propuesta por Planck. En segundo lu-
gar, se encontró que las medidas precisas de los espectros atómicos revelaban que las líneas espectra-
les no eran líneas simples sino que estaban formadas de varias componentes. A continuación vamos a
estudiar la solución dada a estas cuestiones.

3.1. Reglas de cuantificación de Wilson y Sommerfeld


En el año 1916, Wilson y Sommerfeld enunciaron un conjunto de reglas para la cuantización de
cualquier sistema físico para el que las coordenadas fueran periódicas en el tiempo. Estas reglas pu-
sieron de manifiesto la relación entre las formas de cuantización de la energía adoptada por Planck y
del momento angular adoptada por Bohr.
Las reglas se pueden enunciar como sigue:
Para cualquier sistema físico en el que las coordenadas sean periódicas en el tiempo,
existe una condición cuántica para cada coordenada. Estas condiciones cuánticas son:
ò p dq = n
q q h (42)
en donde la integral se extiende a un período de la variable q que es una de las coordena-
das, pq el momento asociado a dicha coordenada, y nq es un número cuántico que toma va-
lores enteros.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 535


Volumen II. Física II

El espacio generado tomando un desplazamiento y sus momentos asociados como coordenadas se


denomina espacio de fase, y a la integral (42) integral de fase.
Mediante la regla de Wilson y Sommerfeld dada por la ecuación (42), podemos obtener la cuan-
tización del momento angular introducida por Bohr en su modelo atómico. Consideremos un electrón
que se mueve en una órbita circular de radio r alrededor del núcleo sometido a una fuerza central. Su
momento angular es L = mur es una constante de movimiento. La coordenada angular q depende del
tiempo y es una función periódica, por lo que la regla de cuantización es:

ò Ldq = np (43)

Puesto que el momento angular es una constante, realizando la integral se tiene que:

ò Ldq = Lò
2p

0
dq = 2pL = 2pmur = nh (44)

de donde se tiene inmediatamente que:


h
mur = n = nh (45)
2p

que es la regla de cuantización de Bohr para el momento angular del electrón.


De forma análoga, a partir de la regla de cuantización de Wilson y Sommerfeld, se puede obte-
ner la hipótesis de cuantización de la energía para un oscilador armónico introducida por Planck.

3.2. Teoría relativista de Sommerfeld


Como ya hemos comentado anteriormente, un estudio más detallado de la serie de Balmer del
espectro del hidrógeno mostraba que las líneas espectrales están formadas por varias componentes de
longitudes de onda diferentes, hecho que no podía explicar la teoría atómica de Bohr. Este desdobla-
miento de las líneas espectrales que se produce en todos los espectros atómicos fue lo que llevó a
Sommerfeld a extender la teoría atómica de Bohr y suponer que los electrones podían moverse alre-
dedor del núcleo en órbitas elípticas.
Si denominamos por r y q a las coordenadas polares que describen el movimiento del electrón en
una órbita elíptica, Sommerfeld aplicó la reglas de cuantización a estas dos variables:

ò Ldq = n q h (46)

ò p dr = n h
r r (47)

La primera condición conduce a la misma relación que se obtiene suponiendo que las órbitas son cir-
culares:

L= nq h nq = 1, 2, 3, 4, … (48)

La segunda condición nos proporciona una relación entre el valor del momento angular y los semiejes
de la elipse a y b:

L( a / b – 1) = n r h nr = 0, 1, 2, 3, 4, … (49)

536 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

Con estas dos ecuaciones, junto con una ecuación de estabilidad mecánica de las órbitas, similar
a la dada por (17) utilizada en la teoría de órbitas circulares, Sommerfeld encontró los valores de los
semiejes de la elipse, así como el de la energía total del electrón en la órbita elíptica:
4pe 0 n 2 h 2
a= (50)
mZe 2
nq
b= a (51)
n
æ 1 ö2 mZ 2 e 4
E = –ç
ç
÷
÷ (52)
è 4pe 0 ø 2n h
2 2

en donde m es la masa reducida del electrón y n es un número cuántico dado por:


n = nr + nq nr = 0, 1, 2, 3, 4, … (53)

El número n recibe el nombre de número cuántico principal y a nq se le denomina número cuántico


azimutal. Los valores de este número cuántico azimutal están acotados por el valor del número cuán-
tico principal:
nq = 1, 2, 3, … , n (54)

La ecuación (51) establece que la relación entre los semiejes de las órbitas circulares es igual a la
relación que existe entre los valores de los números cuánticos. Ahora bien, según (54) para un valor de n
se tienen n valores distintos de nq, por lo que para cada n se tienen n órbitas posibles para el electrón: una
órbita circular (cuando nq = n) y n – 1 órbitas elípticas (figura 10). Por otro lado, puesto que según (52)
el valor de la energía sólo depende del número cuántico principal, esto significa que todas las órbitas
posibles para un valor de n dado tienen la misma energía, y se dice que las órbitas están degeneradas.

nq = 3 nq = 2 nq = 1
nq = 2 nq = 1
nq = 1

Figura 10. Órbitas


elípticas de Sommerfeld. n=1 n=2 n=3

Hasta ahora, todavía no hemos explicado el desdoblamiento de las líneas de los espectros atómi-
cos, sólo que para una energía dada existen varias órbitas posibles. Sommerfeld eliminó esta degene-
ración utilizando el efecto del cambio de la masa relativista del electrón. Cualitativamente, el razona-
miento es el siguiente: de acuerdo con la ley de las áreas, y al igual que sucede en el movimiento pla-
netario, cuando los planetas se acercan al Sol, los electrones se aceleran y aumentan su velocidad
cuando se acercan al núcleo. Este aumento de la velocidad, según la teoría de la relatividad, hace que
los electrones aumenten su masa relativista, lo que produce a su vez una disminución de su energía.
Es decir, ésta se hace más negativa. Así, conforme el semieje menor de la elipse es más pequeño, más
importante se hacen estas correcciones relativistas.
El efecto del cambio de la masa relativista se traduce en una rotación del perihelio de la órbita,
tal como se muestra en la figura 11. Sommerfeld encontró que para un electrón que se mueve en una
órbita caracterizada por los números cuánticos n y nq la energía viene dada por:

1 mZ 2 e 4 é a 2 Z 2 æ öù
ç 1 – 3 ÷ú
E= – ê1+ ç ÷ (55)
(4pe 0 ) 2 2n h ë
2 2
n è n q 4n øû

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 537


Volumen II. Física II

El factor a es un número adimensional que se denomina cons-


tante de la estructura fina y es igual a:
1 e2 1
a= • (56)
4pe 0 hc 137

n=4
Figura 11. Rotación del nq = 3
n=3 nq = 2
perihelio como consecuencia nq = 1
de los efectos relativistas. n=2 nq = 2
nq = 1
Figura 12. Estructura fina de
algunos niveles del átomo de
hidrógeno. Las líneas continuas
indican las transiciones posibles n=1 nq = 1
entre niveles.
En la figura 12 se muestra un diagrama de niveles para el átomo de hidrógeno. Las flechas indi-
can las posibles transiciones electrónicas entre los diferentes niveles: la flechas sólidas representan
las líneas que se observan en el espectro, mientras que las flechas a trazos representan las líneas que
no se observan experimentalmente. Los valores del inverso de las longitudes de onda calculadas a
partir de la expresión (55) están de acuerdo con los experimentales. Si observamos la figura detenida-
mente se tiene que las transiciones que se producen satisfacen la condición:
nqi – nqf = ±1 (57)
Esta condición recibe el nombre de regla de selección.
Esta regla de selección, al igual que otras, no tiene una explicación clara, pero pueden justificar-
se con la ayuda de un postulado introducido por Bohr en 1923 conocido como principio de correspon-
dencia que puede enunciarse como sigue:
1. Las predicciones de la teoría cuántica deben corresponder a las predicciones de la física clásica
en el límite en el que los números cuánticos que especifican el sistema se hacen muy grandes.
2. Una regla de selección es cierta para todos los valores de los números cuánticos. Por lo tanto,
toda regla de selección que se aplique en el límite clásico debe aplicarse en el límite cuántico.

3.3. Limitaciones de la teoría de Bohr y Sommerfeld


A pesar del enorme éxito que la teoría de Bohr y Sommerfeld tuvo por la posibilidad de explicar
una serie de resultados experimentales imposibles de entender con una teoría clásica, también tenía
muchos aspectos que motivaron objeciones por parte de la comunidad científica.
En primer lugar, la teoría establecía una manera de tratar sólo sistemas periódicos en el tiempo
mediante las reglas de cuantización de Wilson y Sommerfeld, cuando en la práctica existen también
otros muchos sistemas que tienen un gran interés físico pero no son periódicos.
Un segundo aspecto controvertido de la teoría es que ofrece la posibilidad de calcular las energías de
los estados permitidos y la frecuencia de los fotones emitidos pero, a partir de ella, es imposible determi-
nar la intensidad de la radiación emitida o la dependencia temporal de la radiación emitida o absorbida.
Por otra parte, tal como hemos visto, no permite determinar qué transiciones se producen y cuáles no.
Un tercer aspecto negativo de la teoría es que no es aplicable ni siquiera para átomos con dos
electrones, pues los resultados que predice son erróneos.
Por otro lado, tampoco describe de forma correcta las propiedades magnéticas de los átomos.

538 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

Por último, el modelo de Bohr-Sommerfeld es teóricamente insatisfactorio: por una parte deja
de lado la teoría clásica para afirmar que sólo son posibles un número reducido de órbitas permitidas,
mientras que, por otro lado, utiliza la física clásica para determinar dichas órbitas. Como decía Bragg,
“es como si los lunes, miércoles y viernes se usara la teoría clásica, y los martes, jueves y sábados las
leyes de la física cuántica”. Las soluciones a estas dificultades que presentaba la teoría de Bohr y
Sommerfeld no se obtuvieron hasta el desarrollo de la moderna mecánica cuántica.

4. MODELO ATÓMICO DE LA MECÁNICA CUÁNTICA


Desde el punto de vista de la mecánica cuántica, el comportamiento de un sistema a nivel micros-
cópico viene especificado por una función de onda Y que es solución de la ecuación de Schrödinger:
h2 2 ¶Y ( r, t )
– Ñ Y ( r, t )+V ( r, t )Y ( r, t ) = ih (58)
2m ¶t
Esta ecuación es la ecuación de Schrödinger no relativista dependiente del tiempo, en donde V es la
energía potencial.
Si la energía potencial no depende explícitamente del tiempo, se demuestra que existen solucio-
nes de la ecuación anterior que tienen la forma:
Y( r, t ) = y ( r ) j( t ) (59)
en donde:
j( t ) = e – Et / h (60)
r
y la función y( r ) es solución de la ecuación de Schrödinger no relativista independiente del tiempo:
h2 2
– Ñ y+[V – E ] y = 0 (61)
2m

La función de onda tiene una interpretación probabilística de la localización de la partícula. La proba-


bilidad de encontrar la partícula en un volumen dV = dxdydz viene dada por:
2
|y(x,y,z)| dxdydz (62)

4.1. Cuantización de la energía


A continuación vamos a resolver la ecuación de Schrödinger para z
el átomo de hidrógeno o más concretamente para átomos con un solo
electrón. Para este tipo de átomos la energía potencial viene dada por:
Ze 2
V (r )= – (63) r
4pe 0 r q
y
siendo Z el número atómico del elemento. f
x
El hecho de que la energía potencial sólo dependa de la distancia r
del electrón al núcleo sugiere que deberíamos intentar resolver la ecua-
ción de Schrödinger en coordenadas esféricas (r, q, f) (figura 13) y ade- Figura 13. Coordenadas
más que deberíamos buscar una solución de la forma: esféricas utilizadas para
estudiar el átomo de
y(r,q,f) = R(r) Q(q)F(f) (64) hidrógeno.

en donde las funciones R, Q y F han de determinarse.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 539


Volumen II. Física II

Utilizando el operador laplaciano en coordenadas esféricas en la ecuación (61):


1 ¶æ 2 ¶ ö 1 1 ¶ æ ¶ ö 1 1 ¶2
Ñ2 = ç r ÷+ çsen q ÷+ (65)
r 2 ¶rè ¶r ø r 2 sen q ¶q è ¶q ø r 2 sen 2 q ¶f 2

y sustituyendo la expresión (64), se tiene que:


h 2 ìQF d æ 2 dR ö 1 é RF d æ dQ ö
– í çr ÷+ ê çsen q ÷+
2m î r 2 drè dr ø r 2 ësen q dq è dq ø
(66)
ü
RQ d 2 F ùï
+ 2 2 ú
ý+[V – E ] RQF = 0
sen q df ûï þ

Multiplicando la ecuación por (–2m/h2)(r2 sen2 q/RQF) y reordenando términos se tiene que:
1 d 2 F 2m 2 sen 2 q d æ 2 dR ö
= r sen 2
q [V – E ] – çr ÷–
F df 2 h2 R drè dr ø
(67)
sen q d æ dQ ö
– çsen q ÷
Q dq è dq ø

Puesto que el primer miembro de esta ecuación no depende de r ni de q, y el segundo miembro no de-
pende de f su valor común ha de ser independiente de esas variables. En consecuencia, deberá ser
igual a una constante que por conveniencia escribimos como –ml2. Por tanto, la ecuación anterior da
lugar a dos ecuaciones diferenciales:
d 2F
+ ml2 F = 0 (68)
df 2

1 d æ 2 dR ö 1 dæ dQ ö
– çr ÷– çsen q ÷–
R drè dr ø Qsen q dq è dq ø
(69)
2m ml2
– 2 r 2 [E – V ]= –
h sen 2 q
Reordenando los términos de esta ecuación, se tiene que:
1 d æ 2 dR ö 2m 2 ml2 1 dæ dQ ö
çr ÷+ 2 r [ E – V ] =+ – çsen q ÷ (70)
R drè dr ø h sen q Q sen q dq è
2
dq ø

De nuevo, observamos que el primer miembro de la ecuación depende de una sola variable, en este caso r,
mientras que el segundo miembro depende de otra variable, q. Por consiguiente, para que esta igualdad
tenga lugar, ambos miembros deben ser iguales a una constante, que por conveniencia se escribe como l(l
+ 1). Por tanto, la ecuación anterior se desdobla en dos ecuaciones diferenciales dadas por:
1 dæ dQ ö ml Q
2

– çsen q ÷+ = l( l+1) Q (71)


sen q dq è dq ø sen 2 q

y
1 d æ 2 dR ö 2m R
çr ÷+ 2 [ E – V ] = l( l+1) 2 (72)
r drè dr ø h
2
r

540 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

Vemos que el problema se ha reducido a resolver tres ecuaciones diferenciales ordinarias (72), (71) y
(68), para las variables R, Q y F, respectivamente.
Comenzaremos por estudiar las soluciones de la ecuación correspondiente a F. La solución de
esta ecuación es de la forma:
1
F ml = e iml f (73)
2p

en donde el factor 1 2p se introduce para que la función esté normalizada, es decir ò0 F * F df = 1.


2p

Puesto que la función F debe ser monovaluada, ha de tener un solo valor para cada ángulo f, y se de-
berá cumplir que:
e iml f = e iml ( f+ 2p) (74)
De esta condición se obtiene que:
1= e iml 2p = cos( 2pml )+ i sen ( 2pml ) (75)

Para que se satisfaga esta condición se ha de cumplir que:


ml = 0,±1,± 2,... (76)

Las soluciones aceptables, que permanecen finitas, de la ecuación (71) son aquellas en las que el
número l toma valores:
l =| ml | , | ml |+1, | ml |+ 2... (77)
y se pueden escribir como:
Q lml = sen | ml | q Fl | ml | (cos q ) (78)

en donde las funciones Fl | ml | son polinomios en cos q, y su forma depende del número cuántico l y del
módulo del número cuántico ml.
Por último las soluciones de la ecuación (72) sólo son aceptables si la energía total toma valores
dados por:
mZ 2 e 4
En = – (79)
( 4pe 0 ) 2 2h 2 n 2

en donde n es un número cuántico cuyos valores son:


n = l + 1, l + 2, l + 3... (80)
La forma de la función R puede escribirse como:
æ Zr öl æ Zr ö
R nl = e – Zr / na 0 ç ÷ ç ÷
ç ÷ Gnlç ÷ (81)
è a0 ø è a0 ø

en donde el parámetro a0 viene dado por:


4pe 0 h 2
a0 = (82)
me 2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 541


Volumen II. Física II

Por otra parte, las funciones Gnl(Zr/a0) son polinomios en Zr/a0 y cuya forma depende de los valores
de los números cuánticos n y l.
Como vemos, la teoría cuántica de Schrödinger del átomo predice que la energía sólo puede to-
mar valores discretos dados por la ecuación (79), expresión que coincide con la de la energía que pre-
dice el modelo de Bohr.
También hemos visto que las soluciones de la función de onda se pueden escribir como:
y nlml = R nl Q ml F ml (83)
Mientras que los valores de la energía sólo dependen del número cuántico n las funciones de onda de-
penden de los tres números cuánticos n, l y ml. Según lo visto anteriormente, estos números cuánticos
deben satisfacer ciertas condiciones que podemos escribir:
n = 1, 2, 3, … (84)
l = 0, 1, 2, 3, ... n – 1 (85)
ml = –l, –l + 1 ... –1, 0, +1 ..., l – 1, l (86)
Puesto que la energía total depende del número n, a este número cuántico se le suele denominar nú-
mero cuántico principal. Por razones que discutiremos después, al número cuántico l se le denomina
número cuántico orbital o azimutal y al número cuántico ml número cuántico magnético.
Las condiciones que acabamos de escribir para los números cuánticos hacen evidente que, dado
un número cuántico n, existen varios valores posibles de los números cuánticos l y ml. Dicho de otra
manera, en general habrán varias funciones de onda posibles para un mismo valor de la energía. Deci-
mos entonces que las funciones de onda están degeneradas. Tenemos, por tanto, una situación de de-
generación de los niveles energéticos del átomo semejante a la obtenida en la teoría atómica de Som-
merfeld. Así, si n = 3, los valores posibles de l son l = 0, 1, 2, y para cada uno de estos valores de l ten-
dremos que el número cuántico ml toma los valores m0 = 0, m1 = –1, 0, 1 y m2 = –2, –1, 0, 1, 2:
tendremos, por tanto, 9 funciones de onda degeneradas para el mismo valor de la energía E3. En gene-
ral, si el número cuántico principal es n = p se tienen p2 funciones de onda degeneradas.
Por razones históricas que aludían a la apariencia de los espectros ópticos, se asocian letras con
el número cuántico orbital l. Así, los estados para los cuales l = 0 se denominan estados s, aquellos para
los que l = 1 se denominan estados p, aquellos con l = 2 estados d y los estados con l = 3 estados f. Estas
iniciales provienen de sharpe, principal, diffuse, y fundamental. Para l > 4, las letras utilizadas para de-
signar los estados electrónicos siguen el orden alfabético. De esta manera, cuando nos referimos a un
estado 1p estamos diciendo que n = 1 y l = 1. En la figura 14 se muestran las letras asociadas a algunos
valores de l.

s p d f
l 0 1 2 3
4s 4p 4d 4f
4
3s 3p 3d
3
E

2s 2p
2

1 1s
n

Figura 14.
Nomenclatura utilizada
para denominar los
estados electrónicos.

542 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

4.2. Densidad de probabilidad


Una diferencia fundamental entre los modelos atómicos clásicos y el modelo cuántico es que,
mientras que según el concepto clásico de partícula el electrón es un punto material que se mueve en
una circunferencia de radio definido alrededor del núcleo, en el marco de la mecánica cuántica se tie-
ne una cierta probabilidad de encontrar al electrón en una región cercana al núcleo. Esta probabilidad
viene dada por la función de onda del electrón. Más concretamente, la probabilidad de encontrar al
electrón en una región del espacio de volumen dV es:
| y |2 dV =| y |2 dxdydz (87)

Se define la densidad de la probabilidad radial P(r) como aquella función tal que P(r)dr nos da la
probabilidad de encontrar al electrón a una cierta distancia del núcleo comprendida entre r y r + dr.
Puesto que y nlml y*nlml r 2sen q dr dq df es la probabilidad de encontrar al electrón en un volumen
r 2sen q dr dq df , integrando esta cantidad sobre los valores de las variables angulares q y f ten-
dremos la probabilidad de que el electrón se encuentre entre r y r + dr. Por tanto:

P ( r )dr = ò0 ò
p 2p

0
y nlml y*nlml r 2sen q dr dq df =
(88)
= r 2 R nl R *nl drò0 ò
p 2p

0
Q lml Q*lml F ml F*ml sen q dq df

La integral angular ha de ser igual a la unidad puesto que la función de onda está normalizada. Por
tanto:
P ( r )dr = r 2 R nl R nl* dr (89)
En la figura 15 se muestra el valor de esta densidad de probabilidad para algunos valores de los
números cuánticos.
P(r) P(r)

n=3 l=0
n=1 l=0

5 10 15 20 25 5 10 15 20 25
n=2 l=0 n=3 l=1

5 10 15 20 25 5 10 15 20 25
n=2 l=1 n=3 l=2
Figura 15. Densidad de
probabilidad radial para
5 10 15 20 25 5 10 15 20 25
algunos valores de los
r/(a0/Z) r/(a0/Z)
números cuánticos n y l.

Un cálculo interesante lo proporciona el valor esperado o valor más probable de la coordenada


radial. Éste viene dado por:

r = ò0 rP ( r ) dr
¥
(90)

Calculando la integral se tiene que:


n 2 a 0 ì 1é l( l+1) ùü
r= í1+ 1– úý (91)
Z î 2ê ë n 2 ûþ

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 543


Volumen II. Física II

Vemos que este valor más probable depende fundamentalmente del valor del número cuántico
principal n. Si comparamos este valor con los radios predichos por la teoría de Bohr dados por la
expresión (19):
n 2 a0
rBohr = (92)
Z
vemos que la mecánica cuántica predice que el valor más probable para encontrar al electrón es apro-
ximadamente igual al de las órbitas circulares de la teoría de Bohr.
Veamos por último la dependencia angular de la densidad de probabilidad. De la ecuación (73)
se tiene que:
1
F ml F*ml = (93)
2p
Por consiguiente, la densidad de probabilidad es independiente de la variable angular f y será si-
métrica alrededor del eje z. Por tanto, la densidad de probabilidad queda reducida al producto de Rnl
R *nl = P(r)/r2 por un factor Q lml Q*lml que dependerá del ángulo q. Esta dependencia angular se puede
representar de forma adecuada mediante diagramas polares como el mostrado en la figura 16. El
origen se corresponde con el núcleo atómico y el ángulo q se mide a partir del eje z. La distancia de
un punto al origen es precisamente igual al factor Q lml Q*lml . En la figura 17 se muestra la forma del
factor angular para distintos valores del número cuántico ml.
Z l=3 l=3 l=3
ml = 1, -1 ml = 2, -2 ml = 3, -3
q

Qlm Q*lm

l=3
ml = 0
Figura 16. Diagrama
polar para el factor Figura 17. Diagramas polares para el factor
direccional de la densidad direccional de la densidad de probabilidad para
de probabilidad. distintos valores del número atómico ml.

4.3. Otras predicciones de la mecánica cuántica


Hasta ahora hemos visto algunos aspectos fundamentales del modelo atómico de la mecánica
cuántica y hemos encontrado que la energía del átomo de hidrógeno está cuantizada. Un tratamiento
detallado de las predicciones del modelo y explicaciones que este modelo da a ciertos resultados ex-
perimentales requeriría bastante tiempo y espacio. Por tanto, vamos a comentar de forma breve algu-
nos de los resultados más importantes de la teoría cuántica del átomo.

4.3.1. Cuantización del momento angular


Se encuentra que la magnitud del momento angular orbital viene dada por:
L = l( l+1)h (94)

Por otra parte se tiene que la componente z del momento angular viene dada por:
Lz = ml h (95)

544 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

Puesto que el número cuántico ml puede tomar valo- Lz


res enteros comprendidos entre -l y +l, resulta que la L
2h
componente z del momento angular puede tomar
sólo algunos valores permitidos. Lo que significa L
h
que el momento angular, a diferencia de lo que ocu-
rre en la física clásica, sólo puede tener ciertas orien- 0 L
taciones en el espacio (figura 18). A esta restricción Figura 18.
se le denomina cuantización espacial. Orientaciones posibles
–h L del momento angular L
del átomo de
– 2h L hidrógeno, para el caso
de un número cuántico
orbital l = 2.

4.3.2. Momento dipolar magnético orbital y efecto Zeeman


Una partícula cargada que se mueve a lo largo de una órbita tendrá un momento dipolar magnéti-
co orbital ml que está relacionado con el momento angular L. En física clásica el momento dipolar
magnético de una espira por la que circula una corriente i es:
r r
m l = iA (96)

siendo A el área encerrada por la espira. Si consideramos un electrón que se mueve a lo largo de una
órbita con un período T, la corriente vendrá dada por i = –e/T, por lo que la expresión anterior puede
escribirse como:
r
r A
ml = –e (97)
T
Por otro lado, el momento angular viene dado por:
r r r
r r dr
L = r ´ p = mr ´ (98)
dt
r r r
Ahora bien, el área barrida por el radio vector en un tiempo dt viene dada por dA = ( r ´dr ) / 2, por lo
que el momento angular se puede expresar como:
r
r dA
L = 2m (99)
dt
Si el momento angular es constante, entonces se tiene que:
r r
A L
= (100)
T 2m
Sustituyendo eso en (97) se tiene que:
r e r
ml = – L (101)
2m

Como el momento angular está cuantizado y sus valores vienen dados por (94), la magnitud del
momento dipolar magnético orbital es:
eh
ml = l( l+1) (102)
2m

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 545


Volumen II. Física II

Observamos que para aquellos estados electrónicos en los que l = 0, es decir, para orbitales o estados s
el momento dipolar magnético es cero.
La componente z del momento dipolar vendrá dada por:
e eh
m lz = – Lz = – m (103)
2m 2m l

A la constante eh / 2m se le denomina magnetón de Bohr y se le representa por mB:


eh
mB = = 9,274´10–24 J / T = 5,788´10–5 e V/ T (104)
2m
En términos del magnetón de Bohr, el momento dipolar magnético y su componente z pueden escri-
birse como:
m l = m B l( l+1) (105)

m lz = – m B ml (106)

De la física clásica sabemos que al aplicar un campo magnético B a un dipolo magnético se pro-
duce un torque sobre el dipolo que viene dado por:
r r r
t = m´B (107)
z r
B Y también sabemos que si se le aplica un torque perpendicular al momento angular L
de un sistema, este comienza a precesionar. Puesto que el torque es perpendicular al
momento dipolar, y, como acabamos
r de ver, éste es antiparalelo al momento angular,
q ml será también perpendicular a L , por lo que el campo magnético hace que el momento
dipolar precesione alrededor del eje z tal como se muestra en la figura 19.
L q
Figura 19. El momento angular orbital L y el momento
dipolar magnético orbital ml son antiparalelos y precesionan
alrededor del eje z que es paralelo al campo magnético externo B.

La energía potencial de un dipolo magnético en el seno de un campo magnético cambia la energía to-
tal en la cantidad:
r r
E B = – m l ×B (108)

Teniendo en cuenta que el campo magnético lleva la dirección del eje z, la expresión anterior la pode-
mos escribir como:
EB = –mlB cos q = –mlzB = mBmlB (109)

Esta expresión nos proporciona la variación de energía del sistema como consecuencia de la interac-
ción del momento dipolar magnético orbital con el campo magnético.
Puesto que ml puede tomar 2l + 1 valores diferentes correspondientes a los números enteros
comprendidos entre –l y +l, esto significa que la aplicación de un campo magnético a un orbital pro-
ducirá un desdoblamiento del estado en 2l + 1 niveles de energía diferente (de momento suponemos
que sólo hay un momento dipolar magnético, que es el orbital). En la figura 20 se muestra el desdo-
blamiento que se produce al aplicar un campo magnético a un orbital d. Vemos que el nivel energéti-
co original se desdobla en 5 niveles energéticos diferentes.

546 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

E Ed + 2mBB

Ed + mBB

Ed Ed
B=0
Figura 20. Desdoblamiento del nivel Ed – mBB
energético en presencia de un campo
magnético externo, suponiendo que sólo Ed – 2mBB
hay momento dipolar magnético orbital.

Una consecuencia de lo que acabamos de exponer es que las frecuencias de los fotones emitidos
en las transiciones entre estados atómicos pueden cambiarse por la aplicación de un campo magnéti-
co. La mecánica cuántica nos permite calcular la probabilidad de que se produzcan transiciones entre
diferentes niveles energéticos dentro del átomo, y muestra que hay dos tipos de transiciones: unas,
cuya probabilidad es muy pequeña y se denominan transiciones prohibidas y otras, transiciones pro-
bables, denominadas transiciones permitidas. Estas transiciones permitidas ocurren cuando se satis-
facen ciertas reglas de selección, que son:
Dl = ±1 y (110)
Dml = 0 o Dml = ±1 (111)
Es decir, que las transiciones sólo se producen si el número cuántico orbital aumenta o disminuye
en una unidad y si el número cuántico magnético permanece constante o aumenta o disminuye en
una unidad.
Por tanto, las reglas de selección establecen que, independientemente del número de subniveles
energéticos, las transiciones desde un nivel con número cuántico n a otro sólo producen tres líneas
distintas. Este efecto se denomina efecto Zeeman normal, en honor a Pieter Zeeman (1865-1943),
que lo descubrió en 1894. En la figura 21 se muestra un ejemplo del desdoblamiento de niveles y de
las transiciones permitidas según las reglas de selección.

ml
B>0
+2 Ed + 2mBB
B=0 +1 Ed + mBB
0 Ed
d Ed –1 Ed – mBB
–2 Ed – 2mBB
DE0

Figura 21. La causa del efecto p Ep


Zeeman es el desdoblamiento de
los niveles energéticos. Las reglas +1 Ep + mBB
de selección sólo permiten 0 Ep
–1 Ep – mBB
transiciones con tres cambios de D ml + 1 0 –1
energía diferentes.

Este efecto Zeeman normal se observa en los espectros de algunos elementos como el helio, el
calcio y unos pocos más. Sin embargo, en otros elementos, como el hidrógeno, se observan más de
tres líneas. Por ejemplo, en las transiciones entre n = 2 y n = 1 del hidrógeno, se observan hasta siete
líneas. Este efecto se denomina efecto Zeeman anómalo. Por consiguiente, las observaciones experi-
mentales muestran que la idea de la cuantización espacial es correcta y la teoría de Schrödinger puede
explicar satisfactoriamente el efecto Zeeman normal, pero no así el anómalo por lo que, de momento,
es una teoría incompleta.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 547


Volumen II. Física II

4.3.3. Spin del electrón


Sabemos que cuando un dipolo magnético es colocado en el seno de un campo magnético uni-
forme, experimenta un torque. Sin embargo, si el campo magnético no es uniforme el dipolo experi-
menta una fuerza neta. En general, si hay un gradiente magnético en la dirección del eje z, la fuerza
neta lleva esa dirección y depende de la orientación del dipolo dentro del campo:
r
r dB dB
Fz = m i = ml cos q (112)
dz dz
siendo q el ángulo entre el gradiente en la dirección z y el momento dipolar magnético. Por tanto:
dB
Fz = m lz (113)
dz
Y de la expresión (106) se tiene que:
dB
Fz = – m B ml (114)
dz

En su experimento, O. Stern y W. Gerlach lanzaron un haz de átomos neutros de plata proceden-


tes de un horno caliente sobre un colimador y luego sobre una región del espacio con un campo mag-
nético no uniforme B(z) con un gradiente en la dirección del eje z (figura 22).

Colimador Pantalla
Átomos
de plata Imanes

Bz

Figura 22. Esquema


Vista frontal experimental del montaje
de los imanes utilizado por Stern y Gerlach
en su experimento.

Aunque los átomos son neutros, tienen un momento dipolar y, por consiguiente, al pasar por la
región del campo magnético, sufrirían una desviación que dependería de la fuerza experimentada por
los átomos en la dirección z. Clásicamente habría que esperar que la distribución de los átomos en la
pantalla fuese uniforme, debido a que el momento angular, y por tanto el momento dipolar, podrían
tomar cualquier valor entre uno máximo y otro mínimo. Por otro lado, si la teoría cuántica de
Schrödinger fuese cierta, la fuerza Fz, según (114) sólo podría tomar ciertos valores discretos: uno
por cada valor del número cuántico ml. Esto se traduciría en que los electrones golpearían la pantalla
sólo en ciertas regiones alejadas unas ciertas cantidades del eje z = 0. Sin embargo, en el experimento,
Stern y Gerlach obtuvieron que los átomos de plata golpeaban sólo en dos regiones de la pantalla a la
misma distancia del eje de la misma, una por encima y la otra por debajo de dicho eje. El resultado
mostraba que la fuerza Fz sólo tomaba dos valores iguales pero de signo contrario, y, por tanto, el mo-
mento angular Lz tendría sólo dos valores posibles, iguales y de signo contrario. Phipss y Taylor repi-
tieron posteriormente el experimento con átomos de hidrógeno, y los resultados fueron idénticos a los
encontrados en el experimento de Stern y Gerlach.
Estos resultados experimentales demuestran, por un lado, la existencia de la cuantización espa-
cial, pero están en desacuerdo con la teoría de Schrödinger. En realidad, estos resultados indican to-
davía algo más. En el experimento de Phipps y Taylor los átomos utilizados son de hidrógeno, y a la
temperatura de unos cientos de grados todos los átomos se encuentran en el estado fundamental s ca-

548 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

racterizado por unos números cuánticos n = 1 y l = 0, ml = 0. Por tanto, los átomos deberían producir
una sola línea en la pantalla en z = 0. Sin embargo, se obtienen dos trazos experimentales. Esto hace
evidente que debe existir otro momento dipolar magnético distinto del orbital.
Con el objeto de explicar algunos resultados experimentales, entre ellos la estructura fina del
átomo de hidrógeno, los primeros en postular un momento angular intrínseco del electrón fueron G.
E. Uhlenbeck y S. A. Goudsmit, los cuales propusieron que:
El electrón tiene un momento angular intrínseco llamado spin S. Al igual que el
momento angular L tiene asociado un momento dipolar magnético, también lo tiene el
spin. Es decir, el electrón tiene un momento dipolar de spin:
e
ms = – S (115)
m

Por analogía con el momento angular orbital, postularon que la magnitud de S y de su componente Sz
estaban cuantizadas en la forma:
S = s( s+1)h (116)

S z = ms h (117)

El momento angular del spin no resulta de la resolución de la ecuación de onda no relativista de


Schrödinger, la cual proporciona los números cuánticos n, l y ml, sino que su existencia es introducida
en la teoría como un postulado. En 1928, P.A.M. Dirac mostró que el momento angular de spin surge
de la solución de la correcta ecuación de onda relativista. La solución de esta ecuación envuelve un
cuarto número cuántico s que se denomina número cuántico de momento angular de spin, o simple-
mente spin.
Para los electrones, el número cuántico s sólo tiene un valor; y, al contrario de lo que sucede con
los demás números cuánticos, no toma el valor de un número entero, sino que su valor es s = 1/2. Ra-
zón por la que se dice que el electrón es una partícula de spin 1/2. Por tanto, para los electrones tene-
mos que:
3
S = s( s+1)h = h (118)
2

De forma análoga a como ml varía desde –l a +l en pasos de una unidad, el número cuántico ms varía
desde –s a +s en pasos de unidad. Por consiguiente, los valores posibles de ms son ms = ±1/2. Con
esto, podemos expresar la componente Sz como:
1
S z = ms h =± h (119)
2

Los momentos dipolares magnéticos de spin los podremos escribir como:


e e 3
ms = S=2 s( s+1)h = 2m B s( s+1) = 2m B (120)
m 2m 2

Para la componente z:
e e
m sz = – S z = –2 m h= mmB (121)
m 2m s

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 549


Volumen II. Física II

Cuando aplicamos un campo magnético externo, se ejercerá un torque sobre el momento dipolar
magnético de spin del electrón que producirá la precesión de S y ms alrededor del eje z (la dirección
del campo magnético). La energía cambiará en una cantidad dada por:
DE s = – m sz B =±m B B (122)
Esto dará lugar a un desdoblamiento de los niveles energéticos del
E Es + mBB
átomo. Así, por ejemplo, para un estado s con l = 0, el momento angular
orbital es cero y también lo será el momento dipolar magnético orbital;
pero hay un momento angular de spin y, por tanto, un momento dipolar
Es magnético de spin distinto de cero. En ausencia de campo magnético el
B=0 estado s estará doblemente degenerado con el estado de spin +1/2 y el es-
tado de spin –1/2 con la misma energía. En presencia de un campo mag-
nético este nivel se desdobla en otros dos con diferentes energías, como
Es – mBB se muestra en la figura 23.
Hemos visto que el desdoblamiento de los niveles energéticos im-
Figura 23. Un estado plica la interacción del momento dipolar magnético con un campo mag-
s de un electrón se nético. Sin embargo, se observa que este desdoblamiento tiene lugar in-
desdobla al aplicarle
un campo magnético.
cluso en ausencia de campo magnético externo. Esto indica que debe
existir un campo magnético interno. Este campo magnético puede enten-
derse si consideramos que en el sistema de referencia del electrón, el nú-
cleo se encuentra girando alrededor de él. Puesto que toda partícula cargada en movimiento genera
un campo magnético, el núcleo producirá, desde el punto de vista del electrón, un campo magnéti-
co, que sería el responsable del desdoblamiento de los niveles energéticos. Esta interacción se de-
nomina interacción spin-órbita y se produce para todos los estados excepto para el estado s, en el
que el electrón no tiene un momento angular neto. La interacción spin-órbita es la causa del desdo-
blamiento de las líneas espectrales, del desdoblamiento de las bandas de energías en sólidos y otros
muchos fenómenos.

4.3.4. Momento angular total


Como hemos visto, el momento angular total del electrón en un átomo tiene dos componentes: el
momento angular orbital L y el momento angular de spin S. El momento angular total J es la suma de
estas dos componentes:
J=L+S (123)
Se puede demostrar que el momento angular total J está cuantizado, al igual que lo está L y S, y su
magnitud viene dada por:
J= j( j+1)h (124)

en donde j es el número cuántico del momento angular total. Para un valor dado de l, j puede tomar
uno de los dos valores l + s o l – s. Es decir, que los valores de j vienen dados por:
1
j = l± (125)
2
Para un electrón, cuando l = 0 el único valor posible es j = 1/2, por lo que resulta que j = -1/2 daría un
valor imaginario de J.
La componente z del momento angular total es:
J z = mj h (126)

550 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Modelos atómicos

en donde mj es el número cuántico magnético total y puede tomar valores entre –j y +j a intervalos de
la unidad. z
En los apartados precedentes hemos visto que el momento dipolar orbital ml S
y de spin ms son antiparalelos a sus momentos angulares respectivos L y S. Sin J
embargo, el momento dipolar magnético total mj no es en general antiparalelo al
momento angular total J. Esto es debido a que el momento angular de spin es el L
doble de efectivo que el momento angular orbital para producir un momento di-
polar magnético (figura 24). El resultado es que mj y J forman ángulos diferentes ml
con el eje z. mj
ms
Figura 24. El momento dipolar magnético total mj
no es antiparalelo al momento angular total J.

La interacción del momento dipolar magnético total con un campo magnético externo produce
un desdoblamiento de los niveles de energía. Estos desdoblamientos, junto con unas reglas de selec-
ción, determinan el denominado efecto Zeeman anómalo. Un efecto que, en contra de lo que indica su
nombre, es más común que el efecto Zeeman normal, pero mucho más complejo de explicar, por lo
que lo obviaremos aquí. Decir al respecto, que cuenta la leyenda que Wolfgang Pauli, una vez que le
preguntaron por qué parecía tan deprimido, contestó: ¿Cómo puede uno evitar la depresión si piensa
en el efecto Zeeman anómalo?

4.3.5. Átomos con muchos electrones


La ecuación de Schrödinger puede resolverse exactamente igual para el caso de un átomo con un
solo electrón alrededor del núcleo. Para el caso de átomos con más de un electrón, sólo podemos ob-
tener soluciones aproximadas.
El método general para estudiar los átomos de muchos electrones se basa en considerar un mo-
delo simplificado del átomo como un sistema no perturbado, en el que se ignoran las interacciones
entre los electrones, y luego aplicar la teoría de perturbaciones para tener en cuenta los efectos de es-
tas interacciones y así mejorar las predicciones.
Entre estas teorías podemos destacar la teoría de Thomas-Fermi y la de Hartree. En pocas pa-
labras, podemos decir que las teorías presentadas alrededor del año 1928 por Thomas y Fermi, in-
dependientemente el uno del otro, y conocida como teoría de Thomas-Fermi, consideran los elec-
trones como un gas de Fermi de energía mínima confinado en una región esférica de potencial neto
V(r) simétricamente esférico. Entonces se determina la densidad de dicho gas de manera que sea
consistente con el potencial. La teoría proporciona una buena descripción del comportamiento ra-
dial promedio del potencial neto y de la densidad de electrones. La teoría de Hartree es una teoría
más precisa, que consiste en considerar que los electrones se mueven independientemente en po-
tenciales netos esféricamente simétricos. De esta manera, se encuentran de forma autoconsistente
las funciones de onda y los potenciales. Por razones de espacio y de tiempo, una descripción deta-
llada de estas teorías queda descartada.
La teoría de la mecánica cuántica constituye una de las grandes teorías de la física contemporá-
nea, y es una herramienta muy poderosa para estudiar aquellos fenómenos que tienen lugar a escala
microscópica. La mecánica cuántica ha permitido al hombre dar una gran paso en el conocimiento de
la naturaleza del mundo que nos rodea y los éxitos de dicha teoría para explicar fenómenos han sido
enormes: el comportamiento de los átomos, teoría de bandas en sólidos, superconductividad, etc.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 551


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Eisberg, R. M.: Fundamentos de Física Moderna. Limusa. México, 1991.
Eisberg, R. M.: Física Cuántica. Limusa. México, 1978.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall. Upper Saddle River, New Jersey, 1996.
French, A. P.: Principles of Modern Physics. John Wiley. New York, 1958.
García, N. Y Damask, A. C.: Physics for Computer Science Students. John Wi-
ley. New York, 1986.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill.
Madrid, 1991.
Giancoli, D. C.: Física General. Prentice Hall. México, 1988.
Haken, H. Y Wolf, H. C.: The Physics of Atoms and Quanta. Springer-Verlag.
Berlin, 1993.
Holliday, D. y Resnick, R.: Física. CECSA. México, 1983.
Sandin, T. R.: Essential of Modern Physics. Addison-Wesley Publisshing
Company. New York, 1989.
Tipler, P. A.: Física. Editorial Reverté. Barcelona, 1992.

552 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

35 El núcleo atómico. Modelos.


Energía de enlace.
Radiactividad natural.
Radiactividad artificial.
Aplicaciones de
la radiactividad en
diferentes campos. Medidas
de seguridad

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. EL NÚCLEO ATÓMICO
1.1. Propiedades del núcleo atómico
1.1.1. Radio nuclear
1.1.2. Masa nuclear y abundancia de los núclidos
1.1.3. Energía de enlace
1.1.4. Momento nuclear y paridad
1.1.5. Momento nuclear magnético
1.1.6. Momento cuadrupolar eléctrico

2. FUERZAS NUCLEARES
2.1. El modelo de fuerza de intercambio

3. MODELOS NUCLEARES
3.1. Modelo de gota líquida
3.2. Números mágicos
3.3. Modelo de capas
3.4. Modelo colectivo

4. RADIACTIVIDAD
4.1. Descubrimiento de la radiactividad
4.2. Cinemática de los procesos radiactivos
4.3. Radiactividad natural
4.3.1. Desintegración a
4.3.2. Desintegración b
4.3.3. Desintegración g
4.3.4. Series radiactivas
4.4. Radiactividad artificial

5. APLICACIÓN DE LA RADIACTIVIDAD EN DIFERENTES CAMPOS

6. MEDIDAS DE SEGURIDAD

BIBLIOGRAFÍA

554 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

1. EL NÚCLEO ATÓMICO
El concepto de núcleo atómico fue introducido por Rutherford en 1911 como parte de su modelo
atómico que intentaba explicar la dispersión de partículas a al atravesar láminas metálicas delgadas.
Desde entonces, el estudio experimental y teórico de los núcleos atómicos dio lugar a una nueva rama
de la física, la física nuclear, dedicada al estudio de la materia en su nivel fundamental y que ha de-
sempeñado un papel muy importante en el desarrollo de la física del siglo XX.
El núcleo atómico está constituido por protones y neutrones, denominados genéricamente nu-
cleones. Un protón es una partícula de carga eléctrica +e y un neutrón es una partícula eléctricamente
neutra, y ambas con una masa aproximadamente igual a 2000 veces la masa del electrón.
Una núcleo está caracterizado por el número de protones Z, que se denomina número atómico, y
por el número total de nucleones A denominado número másico. El número de neutrones N es por tan-
to N = A – Z. Al igual que cada tipo o especie de átomo se denomina elemento, cada tipo o especie de
núcleo se denomina núclido o nucleido. Un núclido se representa generalmente de la forma AZ X N ,
donde X es el símbolo químico del elemento. Ahora bien, puesto que dar el número atómico y el sím-
bolo químico es redundante y como el número de neutrones N se obtiene inmediatamente a partir de A
y Z se suelen especificar los núclidos en la forma abreviada A X. En algunas ocasiones podemos ver
representados los núclidos con Z y N y otras veces no. Por regla general se suelen escribir si estamos
interesados en hacer una balance de estos números en procesos de decaimiento o en reacciones nu-
cleares, en caso contrario suelen omitirse por redundantes.
Cuando analizamos muestras de muchos elementos nos encontramos que hay núclidos con el
mismo número atómico Z y diferente número másico A; es decir un núclido con Z protones puede te-
ner diferentes números de neutrones. A estos núclidos con el mismo número de protones y diferente
numero de neutrones se les denomina isótopos. Por ejemplo, los núclidos 12 Cy 14 Cson isótopos del
carbono. Por otra parte, los núclidos con
el mismo número de neutrones N se de- 180
nominan isótonos, por ejemplo los núcli-
dos 2 H y el 3 He; y los núclidos con el
160
mismo número másico A se denominan
isóbaros, por ejemplo 3 H y el 3 He.
Hasta ahora se han identificado 108 140

núclidos con diferentes números atómicos


desde 0 a 107. Los núclidos estables son 120
alrededor de 260 mientras que el número
total de núclidos incluyendo los inestables
o radiactivos, se encuentra sobre los 1000. 100
En la figura 1 se muestra una representa-
N

ción de los núclidos estables y algunos de


80
los núclidos radiactivos conocidos. Los
cuadrados rellenos representan los núcli- N=Z
dos estables y los cuadrados huecos los 60
núclidos radiactivos. Los núclidos situa-
dos en una misma vertical corresponden a
los isótopos. Los núclidos isóbaros están 40

situados en las diagonales descendentes


de izquierda a derecha.
20

Figura 1. Núcleos estables (cuadrados


0
negros) y algunos de los núcleos inestables 0 20 40 60 80 100 120
conocidos (cuadrados blancos).
Z

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 555


Volumen II. Física II

De la figura, vemos que aunque los núcleos con valores de Z > 92 se encuentran en la naturaleza
estos núcleos son inestables. El núcleo estable más pesado corresponde al 209
83 Bi. También se observa
que los núclidos de menor masa tienden a tener el mismo número de protones que de neutrones, mien-
tras que los de mayor masa tienden a tener mayor número de neutrones que de protones, debido a que
existe una fuerza repulsiva de Coulomb entre los protones y no entre los neutrones. Además, este ex-
ceso de neutrones respecto al número de protones es mayor conforme aumenta la masa del núclido.
La región donde se encuentran los núcleos estables se denomina línea de estabilidad. Esta curva tiene
la forma N = Z para los núclidos con un número Z pequeño y N = 1.6Z para Z grandes.

1.1. Propiedades del núcleo atómico


Un núcleo atómico se puede describir mediante un conjunto pequeño de parámetros que corres-
ponden a diferentes propiedades físicas como son: la carga eléctrica, el radio, la masa, la energía de
enlace, el momento angular, el momento dipolar magnético y el momento cuadrupolar eléctrico. El
entendimiento de estas propiedades en términos de la interacción entre los nucleones es precisamente
el objetivo de la física nuclear. A continuación vamos a estudiar cada una de estas propiedades.

1.1.1. Radio nuclear


Al igual que el radio atómico, el radio del núcleo no es una magnitud completamente definida y
no podemos imaginar al núcleo como una esfera con una superficie completamente delimitada. Por
tanto, necesitamos una definición operacional de lo que entendemos por radio del núcleo. La forma
del núcleo se suele caracterizar por dos parámetros: el radio medio, que es aquel para el que la densi-
dad se reduce a la mitad de su valor en el interior; y el espesor de la superficie, que es la distancia en la
cual la densidad cae desde cerca de su valor máximo a cerca de su valor mínimo.
Por otra parte, el valor del radio depende de la propiedad que elijamos para determinarlo, es de-
cir, del tipo de experimento que utilicemos para medirlo. En algunos de estos experimentos, como la
dispersión de electrones, se mide la interacción culombiana entre las partículas cargadas y el núcleo.
Por tanto, en estos experimentos se obtiene la distribución de la carga nuclear. En otros experimentos,
tales como el experimento de Rutherford de dispersión de partículas a lo que se mide es la interacción
nuclear fuerte entre las partículas nucleares y, por tanto, lo que se determina es la distribución de nu-
cleones o lo que es lo mismo, la distribución de masa nuclear.
El método usual para determinar el tamaño y la forma de un ob- –5
10
jeto es examinar la radiación dispersada por él. Ahora bien, para ver
el objeto es necesario que la longitud de onda sea más pequeña que el –6
objeto, ya que en caso contrario, el fenómeno de difracción oscurece- 10
rá la imagen total o parcialmente. Por tanto, si tenemos en cuenta que –7
los diámetros de los núcleos son del orden de 10 fm (1 fm = 10–15 m, 10
se necesita una radiación de longitud de onda l £ 10 fm, lo que co-
I

–8
rresponde a energías por encima de los 100 MeV. Haciendo inci- 10
dir un haz de electrones de energía comprendida entre los 100
–9
MeV y 1 GeV obtendremos un patrón de difracción como el mos- 10
trado en la figura 2. Podemos observar que la intensidad presenta –10
un mínimo para determinado ángulo. Vemos que el patrón de di- 10
30º 50º 70º 90º
fracción es similar a la difracción producida por un disco opaco q
iluminado, sin embargo la intensidad no llega a ser cero debido a
que el núcleo no tiene un contorno bien definido. Utilizando la Figura 2. Medida de los
expresión de la posición de los mínimos en el patrón de difrac- electrones dispersados por el
ción producido por un disco circular sen q = 1.22 l/D podemos 6
C en función del ángulo de
estimar el radio del núcleo. Ahora bien, esta estimación será un dispersión.

556 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

tanto burda ya que nuestro problema es un problema tridimensional y no bidimensional como el


caso del disco opaco.
Un análisis cuantitativo más detallado permite estimar la densidad de carga r(r) en función de la dis-
tancia. Estas densidades de carga se pueden describir con bastante precisión por la ecuación empírica:
r( 0)
r( r ) = (1)
1+ e ( r – a) / b

en donde los parámetros a y b tienen los valores:


a = 1.07 A 1/ 3 fm (2)
b = 0.55 fm (3)

En la figura 3 se muestra la densidad de carga para distintos núcleos. Se puede concluir que:
– La densidad de carga es constante en el interior y decae rápidamente a cero en la superficie
nuclear.
– El radio a para el cual la densidad se hace la mitad aumenta conforme aumenta el número
de nucleones del núcleo.
– El espesor de la superficie nuclear está dado aproximadamente por 2b.
– El valor de la densidad de carga en el interior r(0) disminuye conforme aumenta el número
de nucleones A.

0.10

0.08

0.06
r(r)

0.04
Co
0.02 C Bi

0.00
0 2 4 6 8 10
r (fm)

Figura 3. Densidad de carga para varios núcleos.

Como radio nuclear se suele tomar el radio de la distribución uniforme equivalente y puede ex-
presarse como:
R = R 0 A 1/ 3 (4)

siendo R0 • 1.2 fm.


Como hemos mencionado anteriormente, se puede estimar el tamaño del núcleo mediante expe-
rimentos de dispersión de partículas a, lo que permite determinar la distribución de la masa nuclear.
Los resultados que se obtienen para el radio de la distribución de masa es el mismo que el encontrado
para la distribución de carga con un error de 0.1 fm. Por tanto, podemos expresar el radio nuclear por
la expresión (4).

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 557


Volumen II. Física II

1.1.2. Masa nuclear y abundancia de los núclidos


La medida de la masa nuclear ocupa un papel importantísimo en el desarrollo de la física nu-
clear. La primera técnica de alta precisión utilizada para la determinación de la masa nuclear fue la es-
pectrometría de masas. Mediante esta técnica es posible determinar la masa atómica de un elemento y
a partir de ésta la masa del núcleo restando Z veces la masa del electrón y las masas equivalentes de
las energías de enlace de los electrones. Ahora bien, estas últimas son tan pequeñas que se pueden
despreciar en la práctica.
El esquema de un espectrógrafo de masas es el mostrado en la figura 4. La fuente produce áto-
mos ionizados con carga q que emergen de la fuente con una distribución de velocidades. A estos áto-
mos se les hace pasar por una región del espacio en donde existen un campo eléctrico y un campo
magnético cruzados que actúan como un selector de velocidades, de manera que sólo pasan aquellos
átomos cuya velocidad satisface la condición:
E
qE = quB Þ u = (5)
B

Bv
– + Película
Ev fotográfica

Selector de
velocidad

Figura 4. Esquema de un espectrógrafo de masas.

Los átomos que tienen esa velocidad entran en una región del espacio en donde existe un campo
magnético uniforme que hace que los iones describan una trayectoria circular de radio r e incidan en
una placa fotográfica. Aplicando la segunda ley de Newton al movimiento del ion se tiene que:

u2
quB = m (6)
r

Y teniendo en cuenta el valor de la velocidad con la que inciden en la región del campo magnético, se
tiene que:

qrB 2
m= (7)
E

Experimentalmente se determina el radio de la trayectoria mediante el cual se calcula la masa del ion.
Para determinar con una precisión de una parte en 106 la masa de los diferentes iones deberíamos
conocer las cantidades que aparecen en el segundo miembro de la ecuación (7) con esa precisión, lo
cual parece que sea poco probable. En la práctica lo que se hace es calibrar el espectrógrafo para me-
dir una determinada masa y determinar las demás masas mediante medidas relativas. Para ello se

558 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

12 12
toma como unidad de masa atómica (u) la doceava parte de la masa del átomo C (un núcleo de C
con seis electrones), que es equivalente a:
1 u = 1.6605402 ´ 10
–27
kg (8)

Por ejemplo, para medir la masa del hidrógeno, se calibra el aparato para medir una masa de 128 y se
mide la diferencia D entre la masa molecular del C9H20 y el C10H8. Despreciando la energía de enlace
molecular, podemos escribir que:
D = m(C10H8) – m(C9H20) = 12m( H) – m( C)
1 12
(9)

Por tanto, la masa del hidrógeno viene dada por:


1 D
[m( C) – D] = 1 –
1 12
m( H) = (10)
12 12

La diferencia de masa D que se mide es D = 0.09390032 ± 0.00000012, por lo que la masa del hidró-
geno que se obtiene es:
m( H) = 1.00782503 ±0.00000001 u
1
(11)

El aparato se puede calibrar para medir otra masa determinada y midiendo la diferencia de ma-
sas de dos moléculas, o de una molécula y un ión, determinar la masa de la molécula o del ión. La ra-
zón de elegir el carbono como masa patrón es que en la práctica hay una gran variedad de
hidrocarburos accesibles que se pueden utilizar para determinar por comparación la masa de los ele-
mentos químicos. Así, por ejemplo, para medir la masa del nitrógeno se puede calibrar el espectróme-
tro para medir una masa 28 y determinar la diferencia de masa entre el C2H4 y el N2.
El espectrómetro de masa también permite conocer la proporción o abundancia relativa de los
diferentes isótopos en una muestra. Para ello se sustituye la placa fotográfica del espectrógrafo por
una ranura de manera que se pueda medir la corriente producida por los iones incidentes, cuya masa
se selecciona variando los campos eléctrico y magnético aplicados. Con este tipo de medidas se esta-
blece, por ejemplo, que la abundancia de los isótopos del O son:
16
8 O = 99.759% (12)
17
8 O = 0.037% (13)
18
8 O = 0.204% (14)

Otra técnica utilizada para la determinación precisa de la masa nuclear es la medida de la energía
de las partículas en reacciones nucleares. Por ejemplo, consideremos una reacción en la que un pro-
yectil a incide sobre un blanco A siendo el resultado de la reacción b y B:
a+A®b+B (15)

La conservación de la energía relativista total en el sistema laboratorio establece que:


2 2 2 2
Ka + m(a)c + m(A)c = Kb + m(b)c + KB + m(B)c (16)

Midiendo la energía cinética de las partículas de la reacción se puede determinar la diferencia de ma-
sas de la reacción. El valor Q de la reacción se define como la diferencia de las energías cinéticas de
los productos de la reacción y de la partícula incidente:
Q = K b + KB – Ka (17)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 559


Volumen II. Física II

Sustituyendo esta expresión en la ecuación del balance energético de la reacción dada por (16) se tie-
ne que:
2
Q = (m(a) + m(A) – m(b) – m(B))c (18)

Es decir, que el valor Q de la reacción nos proporciona información sobre las masas en reposo de las
entidades implicadas en la reacción nuclear.
Consideremos por ejemplo la reacción:
H+ N® N+ H
1 14 12 3
(19)

Mediante la espectrometría de masas podemos conocer las masas m (1H) = 1.007825 u, m (14N) =
= 14.003074 u y m(3H) = 3.016049 u. El valor Q de la reacción se determina y es igual a Q = –22.1355 ±
± 0.0010 MeV, por lo que podemos determinar que:
Q
= 12.018613 ± 0.000001 u
12 1 14 3
m( N) = m( H) + m( N) – m( H) – (20)
c2
La limitación en la precisión de la masa calculada viene dada por la precisión de la medida de Q. El
método de la reacción nuclear se aplica para calcular la masa de los núclidos inestables cuya vida me-
dia es tan pequeña que no es posible utilizar la técnica de espectrometría de masas. Este es el caso del
12
N cuya vida media es del orden de 0.01 s, que es demasiado pequeña como para que su masa se pue-
da medir directamente mediante un espectrógrafo de masas.

1.1.3. Energía de enlace


La energía mN c2 de un núclido es su energía atómica mAc2 menos la energía de los Z electrones y
la energía de enlace electrónico:
Z

mN c = mA c – Zme c + å B i
2 2 2
(21)
I= 1

en donde Bi es la energía de enlace del electrón i. Ahora bien, las energías de enlace de los electro-
nes son del orden de 10 a 100 keV en los átomos pesados, mientras que las energías de masa es del
orden de A ´ 1000 MeV, por lo que con una precisión de una parte en 106 podemos despreciar el úl-
timo término de la expresión (21). Por otra parte, en física nuclear se suele trabajar con diferencias
de energía de masa, por lo que las energías de enlace electrónico tienden a cancelarse en dichas di-
ferencias.
La energía de enlace B de un núcleo es la diferencia entre la energía de masa del núcleo y la ener-
gía de masa de sus constituyentes. Así, para un núcleo con número másico A y número atómico Z, la
energía de enlace es:
A 2
B = {Zmp + Nmn – [m( X) – Zme]}c (22)

Si agrupamos los Z protones con los Z electrones en Z átomos neutros de hidrógeno, la expresión an-
terior la podemos escribir como:

1 A 2
B = [Zm( H) + Nmn – m( X)] c (23)

en donde m(1H) = 1.007825 u, mn = 1.008665 u, y c2 •931.50 MeV/u.

560 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

Otras energías relacionadas con la energía de enlace y que son de interés y se encuentran común-
mente tabuladas son las energías de separación de los neutrones y los protones. La energía de separa-
ción del neutrón Sn de un núcleo AZ X N es la cantidad de energía que hay que suministrar para eliminar
un neutrón del núcleo. Por tanto será la diferencia de la energía de enlace entre AZ X N y A–1
Z X N– 1 :
2
Sn = B( AZ X N ) – B( A–1Z X N – 1 ) = [m( A–1Z X N – 1 ) – m( AZ X N ) + mn] c (24)

De forma análoga, se define la energía de separación del protón Sp como la energía para eliminar un
protón:
1 2
Sp = B( AZ X N ) – B( A–1 A–1 A
Z–1 X N ) = [m( Z–1 X N ) – m( Z X N ) + m( H)] c (25)

Las energías de separación del protón y el neutrón son análogas a las energías de ionización en física
atómica y nos dan una idea de la energía de enlace de los nucleones más externos del núcleo. Estas
energías ponen de manifiesto que la estructura del núcleo es una estructura de capas semejante a la es-
tructura atómica.
El estudio de la energía de enlace de los núcleos nos permite conocer algunas de sus propiedades.
Una magnitud de interés es la energía de enlace por nucleón B/A. En la figura 5 se muestra la variación
de esta energía en función de A. De ella podemos observar que la energía de enlace promedio es aproxi-
madamente constante salvo para los núcleos más ligeros y es del orden de 8 MeV por nucleón. En se-
gundo lugar vemos que la curva alcanza un máximo cerca de A = 60 en donde los nucleones se
encuentra ligados al núcleo con la máxima energía. Esto sugiere que podemos liberar energía de dos
formas: por debajo de A = 60, uniendo dos núcleos ligeros para obtener un núcleo más pesado; y por en-
cima de A = 60, dividiendo un núcleo pesado en otros más ligeros. El primer método es conocido como
fusión nuclear y el segundo como fisión nuclear. Ambos se verán con más detalle en el Tema 37.
10

6
B/A

Figura 5. Energía de 0
enlace por nucleón para 0 50 100 150 200 250
los distintos núcleos. A

1.1.4. Momento nuclear y paridad


El momento angular resultante de un núcleo con A nucleones, denominado spin nuclear, es la
suma vectorial de los momentos angulares de cada uno de los nucleones y se designa por la letra I.
El momento angular I tiene todas las propiedades de los momentos angulares de la mecánica
cuántica. Así, se tiene que:
I = h I(I + 1)
2 2
(26)
Iz = mh (27)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 561


Volumen II. Física II

En muchas aplicaciones el núcleo se comporta como si fuera una sola entidad con un momento
angular intrínseco I. Bajo la acción de un campo magnético se observa el efecto Zeeman nuclear que
consiste en que el estado I se desdobla en los 2I + 1 subestados correspondientes a los posibles valores
de m = –I, –I + 1, … I – 1, I.
La consideración de los posibles valores de la componente z del momento angular impone una
importante restricción a los valores permitidos de I. El hecho de que el momento angular total j de
cada nucleón tome valores semienteros 1/2, 3/2, 5/2, ... hace que los valores de la componente z sean
±h / 2,±3h / 2,±5h / 2, ... Si tenemos un núcleo en el que el número de nucleones es par, tendremos un
número par de componentes semienteras del momento angular y por tanto la componente total toma-
rá un valor entero. En consecuencia I tomará un valor entero. Por el contrario, si el número de nucleo-
nes es impar, la componente z del momento angular tendrá un valor semientero y también lo tendrá I.
Experimentalmente se encuentra que los núcleos par-par (aquellos cuyo número de protones y
neutrones es par) tienen un valor de I = 0, lo que indica que los nucleones idénticos tienden a acoplar sus
momentos angulares en direcciones opuestas. Esto se denomina efecto apareamiento. Los núcleos
par-impar (con un número de protones o neutrones impar) tienen un valor de I semientero, siendo razo-
nable suponer que el spin nuclear coincide con el momento angular del nucleón no apareado, resultado
que funciona en muchos casos. Los núcleos impar-impar tienen dos nucleones no apareados, un protón
y un neutrón, y es más difícil predecir el valor de su momento angular. Aunque como era de esperar éste
toma un valor entero debido a que existe un número par de nucleones. Una teoría adecuada sobre la
fuerza nuclear debe poder predecir satisfactoriamente los valores experimentales de I.
Junto con el spin nuclear se utiliza la paridad para especificar el estado nuclear. La paridad puede
ser par (+) o impar (–). Si conociésemos la función de onda asociada a cada nucleón, podríamos deter-
minar la paridad nuclear multiplicando la paridad de cada uno de los nucleones A: p = p 1 p 2 p 3 ... p A .
Así encontraríamos que p es par o impar. Sin embargo, puesto que en general no podemos asignar
una función de onda de paridad conocida a cada nucleón, un procedimiento como el indicado arriba
es inviable. Lo que se hace es considerar la paridad como una propiedad promedio de todo el núcleo,
la cual puede ser medida mediante técnicas de decaimiento y de reacciones nucleares. La paridad se
representa con un superíndice en el valor del momento angular Ip. Por ejemplo, se escribe 0+, 2–, ...
No existe alguna relación teórica entre la paridad y el valor del spin nuclear, por lo que para cada va-
lor de I es posible los dos valores de la paridad p = + o p = –.

1.1.5. Momento nuclear magnético


Una carga en movimiento posee un momento dipolar magnético orbital m que es proporcional al
momento angular orbital L:
e
m= L (28)
2m

Para el caso de los protones, tendremos que:


e
m= L (29)
2mp

Evidentemente, los neutrones no tienen carga y por tanto no tienen momento dipolar orbital.
La componente z del momento dipolar magnético vendrá dada por:
e eh
mz = Lz = m = m N ml (30)
2mp 2mp l

562 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

en donde la constante mN se denomina magnetón nuclear y su valor es:


eh
mN = = 31525
. ´10–8 eVT –1 (31)
2mp

r
Si la partícula tiene un spin S tiene además un momento dipolar magnético de spin:
r e r
ms = gs S (32)
2m

que para el caso de los protones puede escribirse como:


r e r
ms = gs S (33)
2mp

En la dirección del eje z se tiene que:


e eh
m sz = g s Sz= m = g s m N ms (34)
2mp 2mp s

en donde gs es una constante que depende de la partícula y se denomina razón giromagnética de spin.
Para el protón se tiene que gs = 5.5857. El signo positivo indica que el momento dipolar magnético de
spin es paralelo al momento dipolar magnético orbital.
Se ha observado que el neutrón, aun no teniendo carga eléctrica tiene un momento dipolar magnético
de spin con una razón giromagnética igual a gs = –3.8261. El signo menos indica que el momento dipolar
magnético de spin es antiparalelo al momento dipolar magnético orbital, como corresponde a una carga
negativa. Este hecho es una evidencia de que los nucleones no son partículas fundamentales como el elec-
trón, sino que deben tener una estructura interna compleja y deben estar formados por partículas cargadas
en movimiento, cuyas corrientes resultantes producen los momentos magnéticos de spin observados.

1.1.6. Momento cuadrupolar eléctrico


El momento cuadrupolar eléctrico de una distribución de carga respecto a una dirección dada
que se elige como el eje z, está dado por:
Q '= å q i ( 3z i2 – ri2 ) (35)
i

En el caso nuclear sólo los protones contribuyen al cuadrupolo eléctrico. Teniendo en cuenta que la
carga de los protones es e, el momento cuadrupolar nuclear se define como:
eQ = å e( 3z i2 – ri2 ) = eå ( 3z i2 – ri2 ) (36)
i i

Puesto que el momento cuadrupolar depende de la elección del eje z, se elige éste tan paralelo como
sea posible al spin nuclear I. En el SI el momento cuadrupolar se expresa en m2. Algunas veces se uti-
liza una unidad denominada barn (b) definida como 1 b = 10–28 m2. Si los protones estuvieran distri-
buidos con simetría esférica entonces Q = 0. Si Q es positivo el núcleo debe tener la forma de un
elipsoide alargado mientras que si es negativo debe tener la forma de un elipsoide achatado. Se puede

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 563


Volumen II. Física II

demostrar teóricamente que aquellos núcleos cuyo spin nuclear es cero (I = 0) o I = 1/2 tienen un mo-
mento cuadrupolar nulo (Q = 0), lo que ha sido confirmado experimentalmente. Algunos núcleos
muestran un momento cuadrupolar muy alto lo que indica grandes deformaciones. Una teoría nuclear
correcta deberá predecir y explicar los valores observados del momento cuadrupolar eléctrico.

2. FUERZAS NUCLEARES
De los experimentos a baja y alta energía se obtienen conclusiones sobre las propiedades de las
fuerzas de interacción entre los nucleones. Estas propiedades son las siguientes:
– La fuerza nuclear es de corto alcance. Esto significa que la fuerza nuclear sólo es aprecia-
ble cuando las distancias entre los nucleones interactuantes es del orden de 10–15 m o menos y
es despreciable a distancias mayores. Esta característica se puede determinar mediante expe-
rimentos de dispersión. Supongamos, por ejemplo, que se hace incidir protones sobre nú-
cleos atómicos. Cuando el protón se encuentra cerca del núcleo está sujeto a la repulsión
eléctrica y a la fuerza nuclear. Si esta fuerza fuese de alcance similar a la fuerza eléctrica, am-
bas fuerzas actuarían sobre el protón independientemente de la distancia a la que pase del nú-
cleo y en consecuencia la distribución angular de la dispersión de los protones por núcleos
sería diferente a la obtenida debida a la repulsión coulombiana. Por el contrario, si la fuerza
nuclear es de corto alcance los protones que pasen a a una distancia del núcleo superior al al-
cance de la fuerza estarían sometidos exclusivamente a una interacción coulombiana y sólo
los protones de energía suficiente para vencer ésta pasarían cerca del núcleo y experimenta-
rían la acción de la fuerza nuclear sufriendo una dispersión diferente. Esto es lo que se obser-
va en los experimentos, por lo que se concluye que la fuerza nuclear es de corto alcance.
– La fuerza nuclear es casi independiente de la carga eléctrica. Esto significa que la fuer-
za nuclear entre dos protones, dos neutrones y un protón y un neutrón son idénticas. Esta
propiedad puede comprobarse experimentalmente en los procesos de dispersión pro-
tón-protón, neutrón-neutrón y protón-neutrón. Después de realizar las correcciones para la
fuerza de Coulomb en la interacción protón-protón se obtiene que la parte correspondiente
a la interacción nuclear es esencialmente la misma.
– La fuerza nuclear depende de la orientación de los spines de los nucleones interac-
tuantes. Este hecho ha sido confirmado experimentalmente mediante experimentos de dis-
persión y mediante el análisis de niveles de la energía nuclear. Se obtiene que la energía de
un sistema de dos nucleones es diferente si tienen sus spines paralelos o antiparalelos. De
hecho, en el sistema protón-neutrón existe un estado ligado, el deuterón, en el que los dos
nucleones tienen sus spines paralelos S = 1 y sin embargo no existe un estado ligado si los
spines son antiparalelos S = 0.
– La fuerza nuclear no es completamente central. Este aspecto de la fuerza nuclear surge
del hecho de que aun en el núcleo más simple (el deuterón) el momento angular orbital de
los dos nucleones respecto a su centro de masa no es constante, contrariamente a lo que
ocurre en el caso de un potencial central. Como consecuencia de esto, para explicar algunas
propiedades del estado fundamental del deuterón, como son su momento dipolar magnéti-
co y su momento cuadrupolar eléctrico, se debe utilizar una combinación lineal de funcio-
nes de onda s (l = 0) y d (l = 1). Esta mezcla de funciones de onda debe ser producida por un
potencial no central denominado potencial tensor. La forma de esta fuerza tensorial es si-
milar a la interacción entre dipolos.
– La fuerza nuclear es repulsiva a corta distancia. La fuerza nuclear se hace repulsiva a
distancias mucho más pequeñas a su alcance. Esta suposición es necesaria para explicar la
separación media constante de los nucleones y algunas características observadas en la dis-
persión neutrón-neutrón.

564 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

2.1. El modelo de fuerza de intercambio


Las características de la fuerza nuclear que hemos discutido anteriormente permiten modelar
una forma de potencial de interacción entre los nucleones que resulta útil para explicar algunos de los
resultados que se encuentran experimentalmente. No obstante, la adición de términos al potencial de
interacción puede mejorar la precisión de los cálculos pero no mejora en absoluto la comprensión de
los mecanismos de la interacción entre nucleones. En este apartado vamos a postular un mecanismo
para las fuerzas nucleares que conducen a potenciales similares a los que se obtendrían de nuestra dis-
cusión anterior.
Un mecanismo que explica con éxito la fuerza entre nucleones es la fuerza de intercambio. La
argumentación de la existencia de este mecanismo se basa en dos hechos: uno es la saturación de la
fuerza nuclear y otro es el resultado experimentalmente encontrado en la dispersión neutrón-protón
de alta energía.
El soporte experimental para la saturación de la fuerza nuclear viene de la constancia de la densi-
dad nuclear y de la energía de enlace por núcleo. Un nucleón parece atraer sólo a los nucleones veci-
nos pero a pequeñas distancias la fuerza es de repulsión. Este mismo comportamiento es el que
encontramos en las moléculas. Cuando acercamos dos átomos para formar una molécula covalente,
los electrones son compartidos o intercambiados entre los dos átomos y el resultado es una molécula
estable con los átomos en equilibrio a cierta distancia. Si intentamos acercar todavía más a los áto-
mos, el solapamiento de las capas electrónicas da lugar a una fuerte fuerza repulsiva. Además, si aho-
ra acercamos un tercer átomo la fuerza resultante entre la molécula y el átomo es muy débil debido a
que no existen electrones libres para compartir y dar lugar a nuevos enlaces. Las fuerzas nucleares pa-
recen mostrar esta misma característica de saturación.
Otro argumento a favor del mecanismo de intercambio surge del estudio experimental de la dis-
persión neutrón-protón de alta energía. Experimentalmente se encuentra un pico en la sección dife-
rencial de dispersión para un ángulo de 180º. Este resultado puede explicarse según el modelo de la
fuerza de intercambio si durante la interacción neutrón-protón el neutrón y el protón intercambian sus
lugares. Es decir, si el neutrón se convierte en protón y el protón en neutrón.
El mecanismo de interacción entre objetos ha cambiado de forma apreciable a lo largo de la histo-
ria de la física. Así, en la teoría clásica la interacción entre objetos era una interacción a distancia. Poste-
riormente, con la llegada de la teoría electromagnética, se introduce el concepto de campo de manera
que un objeto crea un campo de fuerzas que actúa como agente intermedio de la interacción con otros
objetos. Así un segundo objeto colocado en las cercanías del primero interacciona con el campo creado
por aquél y no directamente con él. De acuerdo con la teoría cuántica de campos, el campo en sí mismo
ha de estar cuantizado, de manera que una partícula no crea un campo clásico continuo sino que emite
cuantos de campo. Un segundo objeto puede absorber este cuanto de campo. La interacción entre los
dos objetos tiene lugar directamente a través del intercambio del cuanto de campo.
Según esta visión, debe haber algo asociado a los cuantos de campo nuclear que se intercambia
en la interacción nucleón-nucleón. Para que un neutrón de spin 1/2 se convierta en un protón de spin
1/2 debe ocurrir que la partícula intercambiada tenga un spin entero 0 ó 1. Además, esta partícula
debe tener carga eléctrica, pero si este mismo modelo lo aplicamos a la interacción protón-protón y
neutrón-neutrón, la partícula intercambiada debería ser neutra.
Supongamos que un nucleón N1 emite una partícula x y que otro nucleón N2 absorbe dicha partí-
cula. Es decir:
N1 ® N1 + x (37)
x + N 2 ® N2 (38)

¿Es posible que un nucleón emita una partícula de energía mxc2 y permanezca siendo un nucleón sin
violar el principio de conservación de la energía? La respuesta es que no es posible, a menos que la

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 565


Volumen II. Física II

emisión y la absorción tengan lugar en un período de tiempo Dt tan corto que la violación de la con-
servación de la energía pueda ser ignorada. Puesto que el límite de nuestra capacidad para medir la
energía (y por tanto para determinar si se viola el principio de conservación) viene establecido por el
principio de incertidumbre, si Dt < h/(mxc2) podremos ignorar que la conservación de la energía ha
sido violada por una cantidad DE = mxc2. El máximo alcance de la fuerza es determinado por la dis-
tancia máxima que puede viajar la partícula x en el tiempo Dt. Si la partícula se mueve a velocidad c,
el alcance máximo R vendrá dado por:
hc
R = cDt = (39)
mx c 2

Para las fuerzas nucleares cuyo alcance es del orden de 1 fm, la partícula de intercambio debe tener
una energía del orden de 200 MeV. Tales partículas que sólo existen durante un intervalo de tiempo
tan pequeño y que permiten violar el principio de conservación de la energía (y del momento) se de-
nominan partículas virtuales. Podemos observar la fuerza que resulta del intercambio de estas partí-
culas, pero no podemos observar las partículas durante el intercambio.
La partícula de intercambio que lleva la fuerza nuclear se denomina mesón. Su nombre proviene
del griego meso que significa medio, ya que la masa predicha para esta partícula era una masa interme-
dia entre la masa del electrón y la del protón. El mesón más ligero denominado mesón p o pión es el res-
ponsable de la parte principal del potencial de interacción nucleón-nucleón a distancias entre 1 fm a
1.5 fm. Para que pueda satisfacer la necesidades de carga de los diferentes tipos de interacciones entre
nucleones deben existir tres tipos de piones con cargas –1, 0 y 1. Los piones tienen spin 0 y energías de
reposo de 139.6 MeV (p±) y 135.0 MeV (p0). A distancias más cortas (del orden de 0.5 fm a 1 fm) el
responsable del enlace nuclear es el intercambio de dos piones; y a distancias todavía más cortas (meno-
res de 0.25 fm) el intercambio de un mesón w (de energía en reposo 783 MeV) puede contribuir a la
fuerza repulsiva, mientras que el intercambio de un mesón r (masa en reposo 769 MeV) puede propor-
cionar la parte de la interacción spin-órbita.
De lo dicho anteriormente se tiene que la interacción neutrón protón puede realizarse por el in-
tercambio de un pión sin carga o un pión con carga:

n1 ® n 1 + p p + p2 ® p 2
0 0
(40)
n1 ® p1 + p p + p2 ® n 2
– –
(41)

Si la interacción se produce mediante un pión p0 no se produce el intercambio de papel entre el


neutrón y el protón; mientras que si la interacción se produce mediante un pión p– se produce el
cambio entre el neutrón y el protón lo que explica el pico en la sección diferencial de dispersión
neutrón-protón.
La teoría del intercambio de un mesón de la fuerza nuclear fue elaborada por Yukawa en 1935.
El intercambio de un mesón puede ser representado por un potencial, denominado potencial de Yuka-
wa, cuya forma básica es:

er/ R
V (r )= – g 2 (42)
r

en donde R es el alcance de la fuerza R = h/mpc y g es una constante que determina la intensidad de la


interacción.
El modelo de la fuerza de intercambio tuvo un gran éxito a la hora de explicar las propiedades de
los sistemas nucleón-nucleón. Las fuerzas están basadas en el intercambio de mesones virtuales los
cuales pueden ser producidos y estudiados en el laboratorio.

566 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

3. MODELOS NUCLEARES
Uno de los objetivos de la física nuclear es explicar las propiedades de los núcleos en base a modelos
matemáticos de su estructura y de su movimiento interno. Desafortunadamente son muchas las dificulta-
des que surgen y hacen imposible tener un modelo detallado sobre la estructura del núcleo atómico. Una
primera dificultad la encontramos en el hecho de que el potencial de interacción entre nucleones es mate-
máticamente complejo. Incluso adoptando un modelo de potencial simplificado podemos plantear un
conjunto de ecuaciones diferenciales acopladas que describan la interacción entre los A nucleones, pero
estas ecuaciones no pueden resolverse analíticamente sino que deben ser abordadas numéricamente. Por
otra parte, hay evidencia de que la interacción entre nucleones no es una interacción entre dos cuerpos sino
que es del tipo de interacciones de tres cuerpos, lo que introduce una mayor complejidad al problema.
Todo esto hace que la estrategia que se adopta para encontrar un modelo nuclear es partir de una
teoría simplificada pero tratable matemáticamente. Si esta teoría permite explicar satisfactoriamente
algunas propiedades de los núcleos se intenta mejorar añadiendo términos adicionales. Procediendo
de esta manera se intenta construir un modelo nuclear, una idea simplificada de la estructura nuclear
pero que contenga la esencia de la física nuclear. Estos modelos deben explicar las propiedades de los
núcleos previamente determinadas experimentalmente, pero además deben predecir propiedades que
puedan ser medidas en futuros experimentos.
Los tres modelos nucleares propuestos más importantes son el modelo de gota líquida, el mode-
lo de capas y el modelo colectivo. En lo que sigue vamos a comentar brevemente las características de
cada uno de estos modelos.

3.1. Modelo de gota líquida


El corto alcance de la fuerza nuclear y el poco espacio entre los nucleones constituyentes del nú-
cleo llevaron a Niels Bohr a sugerir que un núcleo atómico debería comportarse como un líquido. El
modelo basado en esta idea se denomina modelo de la gota de líquido y en él no se hace referencia al-
guna al comportamiento de los nucleones individuales, por lo que, en este sentido, es complementa-
rio del modelo de capas.
El modelo de la gota líquida se basa en dos propiedades que se han encontrado que son comunes
a todos los núcleos excepto los de número másico A pequeño:
– Sus densidades de masa interior son aproximadamente iguales.
– Sus energías de enlace son aproximadamente proporcionales a sus masas, pues B/A • cte.

Ambas propiedades se pueden comparar con otras análogas relacionadas con las gotas macros-
cópicas de un líquido incompresible:
– Sus densidades de masa interior son iguales.
– Sus calores de vaporización son proporcionales a sus masas.

Observemos que el calor de vaporización es la energía necesaria para dispersar la gota en sus molécu-
las constituyentes y su análogo en el modelo nuclear es la energía de enlace del núcleo.
Siguiendo esta analogía podemos escribir una fórmula semiempírica para la masa del núcleo
m(AX) incluyendo términos que introduciríamos para establecer la energía de una gota de líquido.
Haciendo esto tendríamos:
1. Un término de orden cero que es justo la suma de las masas en reposo de los constituyentes del
átomo:
Zm(1H) + Nmn = Zm(1H) + (A – Z)mn (43)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 567


Volumen II. Física II

2. Un término proporcional al volumen del núcleo (o lo que es lo mismo proporcional a A), que tie-
ne en cuenta el hecho de que la energía de enlace es proporcional a A, es decir que la energía de
enlace por nucleón es casi constante:
–aVA (44)
en donde aV es una constante positiva, ya que la energía de enlace reduce la masa del núcleo.

3. Un término proporcional a A2/3, equivalente al área de la superficie del núcleo:


+ aSA2/3 (45)
Un nucleón cercano a la superficie no está tan fuertemente ligado como uno del interior, por lo
que aS tiene en cuenta esta reducción de la energía de enlace. Este término es el equivalente al
término de la tensión superficial en la gota de líquido.

4. Un término que incluya la repulsión entre los protones del núcleo, que tiende a aumentar la masa
del núcleo. Si suponemos que los protones están distribuidos uniformemente en una esfera de ra-
dio RA = r0A1/3, la energía para reunir dicha carga es:
3 Z 2e2 Z2
= 0.72 1/ 3 MeV (46)
5 4pe 0 r0 A 1/ 3
A

La contribución de la energía a la masa se obtiene dividiendo este término por c2.

5. Un término que tiene un mínimo para Z = N y que por tanto tiene en cuenta la tendencia de los
núcleos a tener el mismo número de protones que de neutrones. Este término se escribe como:
( Z – A / 2) 2
+a A (47)
A
en donde aA es positiva.

6. Varios términos que describen la tendencia de los núcleos con un número par de protones y/o
neutrones a estar más profundamente ligados que aquellos núcleos con un número impar de pro-
tones y/o neutrones. Esta tendencia es debida a que el spin de dos nucleones en cada capa es anti-
paralelo. Estos términos tienen la forma empírica:
aP
Z y N par D=– (48)
A
Z par y N impar D=0 (49)
Z impar y N par D=0 (50)
aP
Z y N impar D=+ (51)
A

La suma de todos estos términos nos da la fórmula semiempírica de la masa:

Z2 ( Z – A / 2) 2
m(AX) = Zm(1H) + (A – Z)mn – aV A + aS A2/3 + aC + a A +D (52)
A 1/ 3 A
Los parámetros se determinan empíricamente ajustando la relación anterior para muchas masas
nucleares diferentes. Un conjunto de estos parámetros que proporciona buenos resultados es el que se
da en la tabla 1.

568 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

Parámetro Valor (u)

aV 1.7 ´ 10–2

aS 1.8 ´ 10–2

aC 7.5 ´ 10–4

aA 2.5 ´ 10–2

aP 1.3 ´ 10–2

Tabla 1. Parámetros de la fórmula


semiempírica de la masa.

Con estos parámetros la fórmula (52) proporciona una gran concordancia con el comportamien-
to promedio de las masas medidas de todos los núcleos estables salvo los que tienen un número mási-
co muy pequeño. En la figura 6 se muestra la energía de enlace promedio que se encuentra a partir de
la fórmula semiempírica de la masa.
La fórmula semiempírica de la masa es de gran utilidad ya que es una fórmula sencilla que predi-
ce con una precisión considerable las masas, y por tanto las energías de enlace, de más de 200 núcleos
estables y otra gran cantidad de núcleos inestables.

10

6
B/A

0
0 50 100 150 200 250
A
Figura 6. Energía de enlace promedio por nucleón obtenida
partir de la fórmula semiempírica de la masa.

El modelo de la gota de líquido es el modelo nuclear más antiguo y el más clásico de todos los
modelos nucleares. En la época en que se desarrolló los únicos datos disponibles eran los de algunas
masas nucleares y no se tenía ningún otro conocimiento adicional sobre los núcleos atómicos. Por
tanto, la fórmula semiempírica supuso un gran éxito al poder explicar con sólo 5 parámetros las ma-
sas de cientos de núcleos. En la actualidad, se tiene una visión más detallada y profunda de los térmi-
nos de asimetría y apareamiento (los dos últimos) de los que no se tenía ni siquiera un conocimiento
cualitativo. Por otra parte, el término principal de volumen puede ahora calcularse en términos de los
detalles de la fuerza nuclear.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 569


Volumen II. Física II

3.2. Números mágicos


El modelo de gota líquida proporciona una descripción adecuada del comportamiento promedio
de los núcleos en relación con su masa y con la energía de enlace. Puesto que la energía de enlace es una
medida de la estabilidad nuclear, cuanto mayor sea la energía de enlace mayor será su estabilidad, el
modelo de gota líquida describe bien el comportamiento promedio de los núcleos respecto a su estabili-
dad. Sin embargo, algunos núcleos con determinados valores de Z y/o N, muestran desviaciones nota-
bles de este comportamiento promedio siendo especialmente estables. Estos valores de Z y/o N se
denominan números mágicos y son:
Z, N = 2, 8, 20, 28, 50, 82, 126 (53)
Esta situación es análoga a la especial estabilidad de las capas electrónicas de los gases nobles,
que contienen un número mágico de electrones igual a 2, 10, 18, 36, 54, 86 electrones. No obstante,
en el caso nuclear las manifestaciones que indican esta estabilidad inusual no son tan concluyentes
como en el caso atómico, por lo que es necesario considerar todos estos indicios para poder concluir
que efectivamente los números dados en la serie (53) tienen un carácter mágico.
Dos de los indicios mas concluyentes sobre el carácter mágico de la serie (53) son los siguientes:
1. Existen 6 isótopos estables para Z = 20 mientras que en número medio de isótopos en esa zona
de la tabla periódica es alrededor de 2. Para Z = 50 hay 10 isótopos estables mientras que el pro-
medio en esa región de la tabla es 4. Hay 7 núcleos estables que tienen N = 82 a pesar que la can-
tidad promedio en esa región de N es de sólo 3.
2. La energía promedio de enlace es significativamente mayor para los núcleos con Z = 2, 8 o N = 2,
8 que para los núcleos vecinos. El ejemplo más claro lo proporciona el 42 He para el cual se tiene
que Z = N = 2. Este efecto aún es más pronunciado si consideramos la energía de separación del
neutrón Sn y del protón Sp dadas por (24) y (25). Para el 42 He se tiene que estas energías tienen
unos valores anormalmente altos Sn = 20.6 MeV y Sp = 19.8 MeV. En la figura 7 se muestra la di-
ferencia entre el valor medido de la energía de separación del neutrón y el que predice la fórmula
semiempírica de la masa para diversos núcleos. La energía de separación del neutrón excepcio-
nalmente alta que presentan los núcleos con N = 28, 50, 82, 126 es una demostración evidente de
la especial estabilidad de dichos núcleos.

2
1
DSn

0
–1 Figura 7. Diferencia entre la
–2 energía de enlace del último
–3 nucleón y la predicción de la
20 82 fórmula semiempírica en
28 50 80 110 126 140 función del número de
N neutrones en el núcleo.

Aparte de estas evidencias hay otras menos convincentes a favor de los números mágicos. La
analogía entre los números mágicos electrónicos y nucleares motivó que muchos físicos buscaran
una explicación a la estructura nuclear similar a la estructura atómica, que consiste en un conjunto de
capas cerradas en las que los electrones se mueven idependientemente unos de otros en el potencial
atómico. Sin embargo, en el campo de la física nuclear parecía muy difícil aceptar la idea de que los
nucleones se movieran independientemente en el núcleo. La razón por la que esta idea no era bien
aceptada era que el modelo de la gota líquida había predominado durante muchos años y para este
modelo parecía ser básica la idea de que un nucleón interacciona fuertemente con los nucleones que
le rodean. Si esto era así, los nucleones serían fuertemente dispersados y por consiguiente llevarían
un movimiento errático más cercano al movimiento browniano que al de un electrón que se mueve in-
dependientemente en su órbita atómica.

570 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

3.3. Modelo de capas


El primero en dar una explicación sencilla al hecho de que los nucleones pueden moverse inde-
pendientemente en el núcleo fue Weisskopf. Su explicación se basaba en un modelo de gas de Fermi
para los nucleones similar al modelo de gas de Fermi para los electrones en un metal. Se supone que
cada nucleón se mueve en un potencial neto atractivo que representa el efecto promedio de sus inte-
racciones con los otros nucleones. Como la distribución de nucleones es constante en el interior del
núcleo y tiende a cero en una distancia igual al alcance de la fuerza nuclear, el potencial neto se puede
considerar que es aproximadamente un pozo cuadrado finito tridimensional. En su estado fundamen-
tal, los nucleones, que son todo fermiones de spin 1/2, ocupan los niveles de energía más bajos, de
manera que se minimiza la energía del sistema, sin violar el principio de exclusión.
La existencia de órbitas espaciales bien definidas depende del principio de exclusión de Pauli.
Consideremos por ejemplo una colisión entre dos nucleones cercanos al fondo del pozo de potencial.
Cuando los nucleones colisionan se produce una transferencia de energía de uno al otro, pero si todos
los niveles de energía están ocupados hasta la banda de valencia, no hay forma de que los nucleones
ganen energía excepto que salten hasta un nivel de valencia, pues los demás niveles cercanos al origi-
nal están ocupados y no pueden aceptar otro nucleón. Tales tipos de transferencias desde un nivel in-
ferior hasta un nivel de la banda de valencia requieren mucha más energía que la que los nucleones
pueden transferir en una colisión. Así, concluimos que las colisiones no pueden ocurrir y, por tanto,
los nucleones pueden orbitar como si fuesen transparentes uno al otro.

V(r)

Figura 8. Un modelo de
potencial adecuada utilizado –Vo
en el modelo de capas del
núcleo atómico.

El modelo del gas de Fermi es el punto de partida del modelo de capas, pues establece la validez
de tratar el movimiento de los nucleones ligados en el núcleo de forma independiente suponiendo que
cada uno de ellos se mueve en un potencial promedio. El paso siguiente será elegir un potencial ade-
cuado y realista y resolver la ecuación de Shrödinger para dicho potencial y encontrar así los niveles
energéticos para neutrones y protones. De acuerdo a lo visto en la distribución de carga en el núcleo,
un potencial adecuado puede ser el dado por la expresión (figura 8):
–V0
V (r )= (54)
1+ e ( r – R) / a

Los parámetros R y a son respectivamente el radio medio y el espesor de la superficie y sus valo-
res son, tal como se vio con anterioridad, R = 1.25 A1/3 fm y a = 0.524 fm. El valor de V0 se ajusta para
dar los valores adecuados de la separación de los niveles de energía y es del orden de 50 MeV. Los ni-
veles de energía que se encuentran son los mostrados en la figura 9a. En ella se muestran a la derecha
el número de nucleones que puede haber en cada nivel y entre círculos el número de niveles acumula-
dos hasta ese nivel. Como se puede observar, llenando las capas ordenadamente encontramos los nú-
meros mágicos 2, 8 y 20, pero los números mágicos más altos no surgen de este cálculo.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 571


Volumen II. Física II

De los resultados obtenidos anteriormente se deduce que es necesario introducir algunas mejoras
en el potencial de manera que proporcione los números mágicos adecuados pero que al mismo tiempo
respeten el contenido físico del modelo. Durante los años cuarenta se hicieron muchos intentos para en-
contrar las correcciones adecuadas que no tuvieron éxito. Esto se logró en 1949 cuando Mayer, Haxel
Suess y Jensen mostraron que la inclusión de la interacción spin-órbita en el potencial proporcionaba la
separación adecuada entre los niveles de energía. En la figura 9b se muestra el efecto del desdoblamien-
to de los niveles de energía como consecuencia de la inclusión del término de interacción spin-órbita.
Podemos observar que este modelo reproduce los números mágicos correctamente.

4s 2 168
3d 10 166
2g 18 156
1i 26 138
126
112
3p 6 112
2f 14 106
92
1h 22 92 82
3s 2 70
2d 10 68
58
1g 18 58 50
40
2p 6 40
1f 14 34 28
20 20
2s 2 20
1d 10 18
8 8
1p 6 8
2 2
1s 2 2

a) b)

Figura 9. Niveles de energías obtenidos con el modelo de capas:


a) Niveles obtenidos con el potencial de la figura 8.
b) Niveles obtenidos incorporando la interacción spin-órbita.

El modelo de capas no sólo predice adecuadamente los números mágicos sino que además tam-
bién predice el momento angular total de los estados base de casi todos los núcleos. También tuvo
éxito a la hora de explicar la paridad de las funciones de onda de los núcleos con un número A impar.
Sin embargo, este modelo fracasaba a la hora de predecir los momentos dipolares magnéticos nuclea-
res y los momentos cuadrupolares eléctricos.

3.4. Modelo colectivo


El modelo de capas se basa en la idea de que los nucleones se mueven independientemente en el
núcleo, mientras que el modelo de la gota líquida parte de la idea contraria, puesto que el movimiento
de cualquiera de sus partes estaría correlacionada con el movimiento de las partes vecinas. Cada uno
de estos modelos es capaz de explicar algunas de las propiedades observadas de los núcleos atómicos.
Conforme la física nuclear avanzaba se realizaron intentos para eliminar las discrepancias de ambos
modelos y poder unificarlos en un solo modelo más completo.

572 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

Uno de los modelos más importantes y de más éxito fue el modelo colectivo del núcleo que com-
bina ciertas características del modelo de capas con otras del modelo de gota líquida. Este modelo,
desarrollado principalmente por A. Bohr y B. R. Mottelson parte de la idea de que los nucleones de
las subcapas no llenas de un núcleo se mueven independientemente en un potencial neto creado por
las subcapas llenas del interior del núcleo (core), igual que en el modelo de capas. Sin embargo, el po-
tencial neto debido a las subcapas interiores no es un potencial estático y esféricamente simétrico
como el utilizado en el modelo de capas, sino que es un potencial que experimenta deformaciones.
Estas deformaciones representan el movimiento colectivo de los nucleones del interior del núcleo, tal
como ocurre en el modelo de gota líquida.
El modelo colectivo ha resultado útil para explicar una gran variedad de propiedades nucleares
como por ejemplo los valores altos del momento cuadrupolar eléctrico que presentan algunos núcleos.
Pero su mayor éxito ha sido la explicación de los niveles de energía de los núcleos con un número par de
protones y neutrones. Estos niveles de energía muestran las características de los sistemas rotatorios o
vibratorios que se esperan según la mecánica cuántica. Las propiedades de estos núcleos más común-
mente medidas tales como las anchuras de los niveles de energía de los estados excitados, el momento
angular, el momento magnético y la forma del núcleo, pueden ser entendidas mediante el modelo colec-
tivo.
Modelos más realistas que profundizan en la unificación del modelo de capas y los efectos co-
lectivos, denominados modelos unificados, han sido desarrollados.

4. RADIACTIVIDAD
Se llama radiactividad a la transformación o desintegración espontánea de núcleos atómicos
mediante la emisión de partículas o de radiación electromagnética. Por tanto, en una desintegración
radiactiva o decaimiento radiactivo se produce el cambio de un núcleo inestable, denominado radiac-
tivo, en otro estable mediante la emisión de ciertas partículas. Los núcleos con un exceso de protones
o neutrones, en comparación con el núcleo estable, decaen hacia el núcleo estable cambiando proto-
nes por neutrones o neutrones por protones o también emitiendo neutrones y protones simples o en
combinación. Los núcleos también son inestables si se encuentran en un estado excitado, es decir, si
no se encuentra en su estado de energía más bajo. En este caso, los núcleos también pueden decaer li-
berando su exceso de energía sin cambiar Z o N mediante la emisión de un rayo g.
Un núcleo se encuentra en un estado excitado como consecuencia de una reacción nuclear. Estas
reacciones pudieron ocurrir en eventos naturales hace billones de años en el proceso de formación del
universo dando lugar a lo que denominamos isótopos radiactivos naturales, de los que se conocen
unos 50. El proceso de decaimiento de estos núcleos es lo que se denomina radiactividad natural.
Además hay cientos de isótopos radiactivos obtenidos de forma artificial mediante reacciones nu-
cleares en los laboratorios, cuyos procesos de desintegración denominamos radiactividad artificial.
Los procesos de desintegración radiactiva más importantes son los siguientes:

– Desintegración a: consiste en la emisión de partículas a por los núcleos. Una partícula a


es un núcleo de helio 42 He. Estas partículas pierden su energía al interaccionar con los elec-
trones del material sobre el que incide produciendo una fuerte ionización. Este tipo de ra-
diación es la menos penetrante y es del orden de 0.1 mm en el aluminio.
– Desintegración b: es la emisión de electrones energéticos por parte de los núcleos inesta-
bles. Al igual que las partículas a interaccionan con la materia ionizándola. Puesto que la
masa de los electrones es más pequeña que la de las partículas a para una energía dada, la
velocidad de las partículas b es mayor que la velocidad de aquellas, por lo que su poder de
penetración en la materia es mayor que el de las partículas a. Este es del orden de varios mi-
límetros en el aluminio y alrededor de 1 mm en el plomo.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 573


Volumen II. Física II

– Desintegración g: es la emisión espontánea de fotones de alta energía. Esta radiación tiene


un gran poder de penetración y puede atravesar varios centímetros de plomo y hasta 1 m de
hormigón.
Durante los años 1930 se encontraron otros tipos de radioactividad entre los productos arti-
ficiales de las reacciones nucleares: la desintegración b y la captura de electrones.
+

Desintegración b : consiste en la creación de positrones y en su emisión junto con un neutrino.


+

– Captura electrónica: es un proceso en el cual la transformación surge por la captura por
parte de los núcleos de alguno de los electrones orbitales de las capas más internas. Es simi-
lar al decaimiento b en el sentido que el núcleo se transforma en otro con un número atómi-
+

co más bajo en una unidad. Pero difiere en que va acompañada de la emisión de un fotón
debido a la transición electrónica que se produce desde los electrones más externos hasta la
vacante dejada por el electrón capturado.

En el segundo tercio del siglo XX se han descubierto otros tipos de procesos radiactivos que son:
– Radiactividad de protones: que consiste en la emisión de protones por parte del núcleo
cuando el número de protones es demasiado elevado en relación con el número de neutrones.
– Radiactividad de iones pesados: es un proceso de desintegración espontánea intermedio
entre la desintegración a y la fisión espontánea, que consiste en la emisión de iones pesa-
dos. Fue predicha en 1980 por A. Sandulescu, D.N. Poenaru, y W. Greiner y en 1984, H.J.
14
Rose and G.A. Jones, observaron la emisión de núcleos de carbono C de 30 MeV por par-
223
te de núcleos de Ra.

4.1. Descubrimiento de la radiactividad


El fenómeno de la radiactividad fue descubierto en 1896 por el físico francés Antoine Henri
Becquerel (1852-1908) cuando se encontraba estudiando las propiedades de los rayos X, descu-
biertos un año antes por Wilhelm Röntgen. Becquerel expuso sales de uranio a la luz del sol y las
colocó sobre placas fotográficas envueltas en papel negro, creyendo que el uranio absorbería la luz
solar y emitiría rayos X. Para su sorpresa encontró que se obtenían imágenes nítidas probando de
esta manera que el uranio emitía radiación aun en ausencia de una fuente de energía externa como
la luz solar. Además comprobó que la radiación se ponía de manifiesto para todos los compuestos
del uranio en relación directa con la proporción de dicho elemento. Becquerel había descubierto la
radiactividad.
Becquerel demostró que la radiación que había descubierto no eran rayos X. Los rayos X eran
neutros y por consiguiente no sufrían ninguna desviación al atravesar una región con un campo mag-
nético perpendicular. Sin embargo, la nueva radiación era desviada por un campo magnético.
El término radiactividad fue acuñado por Marie Curie y su esposo Pierre quienes comenzaron a in-
vestigar el fenómeno recientemente descubierto por Becquerel. Los Curie extrajeron uranio de la pech-
blenda para sus experimentos y para su sorpresa encontraron que los restos del mineral presentaba una
radiactividad más intensa que las sales de uranio empleadas, por lo que concluyeron que debía contener
otros elementos radiactivos. Su esfuerzo se concentró en separar estos elementos del uranio y de los de-
más elementos presentes en la pechblenda para lo que llevaron a cabo una serie de tratamientos quími-
cos de la pechblenda que condujeron al descubrimiento de dos nuevos elementos radiactivos, el polonio
y el radio.
Las experiencias de Ernest Rutherford demostraron que las radiaciones emitidas por sustan-
cias radiactivas tenían diferente poder penetrante como ponía de manifiesto su distinta absorción
por la materia. Así los rayos menos penetrantes, que resultaban completamente absorbidos por

574 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

unos centímetros de aire o una lámina metálica delgada, se denominaron rayos a. Los componentes
más penetrantes, que resultaban absorbidos por 1 mm de plomo, se denominaron rayos b. Los expe-
rimentos para estudiar su desviación por campos magnéticos permitió conocer que ambas radiacio-
nes eran de naturaleza corpuscular y que tenían carga eléctrica. Posteriormente se descubrió un
tercer tipo de radiación todavía más penetrante capaces de atravesar varios centímetros de plomo a
la que se le denominó rayos g. Esta radiación no era desviada por un campo magnético por lo que
era eléctricamente neutra.

4.2. Cinemática de los procesos radiactivos


En los apartados siguientes haremos un estudio más detallado de los procesos radiactivos, pero
por ahora nos centraremos en algunas características comunes de estos procesos.
Pocos años después del descubrimiento de la radiactividad se observó que en los procesos
radiactivos el decaimiento de una sustancia seguía una ley exponencial de carácter probabilísti-
co. Supongamos una muestra de núcleos inestables y denominemos N al número de núcleos ra-
diactivos presentes en un instante de tiempo t, y supongamos también que no se introducen
nuevos núcleos en la muestra. Si llamamos l a la probabilidad de que un núcleo se desintegre en
la unidad de tiempo, entonces la variación dN experimentada por la muestra en un intervalo de
tiempo dt vendrá dada por:
dN = –lNdt (55)

El segundo término es el producto de la probabilidad ldt de que un núcleo se desintegre en un tiempo


dt por el número de núcleos existentes N en el instante de tiempo t.
La ecuación (55) la hemos obtenido haciendo una suposición que es básica en la teoría estadísti-
ca del decaimiento radiactivo: que la probabilidad de desintegración de un núcleo es independiente
de la edad del átomo y por tanto es una constante. Por esta razón al parámetro l se le denomina cons-
tante de desintegración o constante de decaimiento.
Integrando la ecuación (55) se obtiene inmediatamente la ley exponencial de la desintegración
radiactiva:
–lt
N(t) = N0e (56)

en donde N0 es el número de núcleos presentes en la muestra radiactiva en el instante de tiempo ini-


cial t = 0.
El tiempo necesario para que el número de núcleos se reduzca a la mitad t1/2 se conoce con el nom-
bre de tiempo de vida medio. En este punto conviene aclarar la terminología utilizada en la literatura. Su
denominación viene del inglés half-life cuya traducción literal sería vida mitad. En algunos casos pode-
mos encontrarnos referido este tiempo con esta denominación. Otros autores prefieren denominarlo pe-
ríodo de semidesintegración de la muestra. Esta falta de unidad en la denominación de este período de
tiempo surge por la definición de otro tiempo t denominado en inglés mean lifetime o lifetime cuya tra-
ducción sería la de tiempo de vida medio o tiempo de vida promedio y tiempo de vida, respectivamente,
cuya definición daremos más abajo. Aclarada esta confusión terminológica que encontramos en la li-
teratura científica en castellano, pasemos a definir estos períodos de tiempos característicos de las
muestras radiactivas. El tiempo de vida mitad t1/2 se ha definido como el tiempo necesario para que el
número de núcleos de la muestra se reduzca a la mitad y vendrá dado por:
N0
N ( t 1/ 2 ) = N 0 e – lt1/ 2 = (57)
2

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 575


Volumen II. Física II

Por lo tanto, se tendrá que:


ln 2 0.693
t 1/ 2 = = (58)
l l

Por otro lado, el tiempo de vida o tiempo de vida medio t se define como el tiempo promedio que un
núcleo es probable que sobreviva antes de la desintegración. El número de núcleos que sobreviven al
tiempo t es N(t), y el número de los que se desintegran entre t y t + dt es |dN/dt| dt. El tiempo de vida es
por tanto:

ò
¥
t |dN / dt |dt
t= 0
(59)
ò
¥

0
|dN / dt |dt

en donde el denominador es el número total de desintegraciones. Evaluando las integrales se tiene que:

1
t= (60)
l

De las expresiones (58) y (59) se tiene que la relación entre el tiempo mitad y el tiempo de vida es:
t1/2= ln 2 t= 0.693 t (61)

Se define la actividad A de una muestra radiactiva como el número de núcleos que se desintegran
en la unidad de tiempo. Por tanto, la actividad viene dada por:

A(t) = lN(t) = lN0e = A0e


–lt –lt
(62)

en donde A0 = lN0 es la actividad inicial de la muestra. Vemos que las unidades de la actividad son los
núcleos desintegrados por segundo. Una unidad utilizada para medir la actividad es el curie (Ci), que
originalmente designaba la actividad de un gramo de radio y ahora se define como:
1 Ci = 3.7 ´ 10 núcleos · s
10 –1
(63)

La mayoría de las sustancias radiactivas utilizadas en los laboratorios tienen actividades del orden de
los microcuries (mCi) y los milicuries (mCi). En el sistema internacional la unidad de actividad ra-
diactiva se denomina becquerel o becquerelio (Bq):
–1
1 Bq = 1 núcleos · s (64)

Una situación común es aquella en la que un núcleo radiactivo se desintegra y como resultado produ-
ce otro núcleo que a su vez es radiactivo. De esta manera es posible tener una serie de cadenas de desinte-
gración radiactiva: 1 ® 2 ® 3 ® 4 ... Usualmente se suele denominar al núcleo inicial (1) como núcleo
madre, y a las siguientes generaciones como núcleo hijo (2), núcleo nieto (3), y así sucesivamente.
Supongamos que inicialmente tenemos N0 núcleos de la madre y que inicialmente no existe pre-
sencia de los núcleos resultantes de la desintegración. Es decir:
N1 (t = 0) = N0
(65)
N2 (t = 0) = N3 (t = 0) = ... = 0

576 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

Denominemos l1, l2, ... a las constantes de desintegración. Por el momento consideremos que el nú-
cleo nieto es un núcleo estable y es el resultado final del proceso radiactivo. El número de núcleos
madre decrece con el tiempo en la forma:
dN1 = –l1N1dt (66)

Por otra parte, el número de núcleos hijo aumenta como resultado del decaimiento del núcleo madre y
disminuye como consecuencia de su propia desintegración:
dN2 = l1N1dt –l2N2dt (67)

El número de núcleos madre se encuentra directamente integrando la ecuación (66):


N1(t) = N0e – l1t (68)

Para resolver la ecuación (67) podemos intentar una solución de la forma:


N 2 ( t ) = Ae – l1t + Be – l 2 t (69)

Ahora bien, de la condición inicial N2(0) = 0 se tiene que:


0 = A+ B Þ B= – A (70)

Por tanto la expresión (69) se escribe como:


N 2 ( t ) = A[ e – l1t – e – l 2 t ] (71)

Por otra parte, sustituyendo esta expresión en la ecuación (67) y teniendo en cuenta que N1(t) viene
dado por (68) se tiene que:
A[– l 1 e – l1t + l 2 e – l 2 t ] = l 1 N 0 e – l1t – l 2 N 2 (72)

Por último, de las expresiones (71) y (72) se obtiene que:


l1
N 2 (t )= N 0 ( e – l1t – e – l 2 t ) (73)
l2 – l1

Para la actividad del núcleo se tiene que:


l1l2
A 2 (t )= l 2 N 2 (t )= N 0 ( e – l1t – e – l 2 t ) (74)
l2 – l1

Si ahora asumimos que hay varias generaciones de núcleos radiactivos, podemos generalizar la
expresión (67) y escribir para cada generación:
dNi = li–1Ni–1dt – liNidt (75)

La solución general para el caso que el número de núcleos madre sea N0 y no exista inicialmente nin-
guno de los otros núcleos viene dada por la ecuación de Bateman, en la que la actividad del término n

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 577


Volumen II. Física II

de la cadena radiactiva viene dada en función de las constantes radiactivas de todos los miembros pre-
cedentes como:
n

A n ( t ) = N 0 å c i e – l1t (76)
i= 1

en donde:

Õ
n
li
i= 1
cm = (77)
Õ
n
(li – lm )
i= 1

en donde en el producto del denominador se omite el término i = m.

4.3. Radiactividad natural


En este apartado vamos a estudiar los procesos de desintegración nuclear que tienen lugar en los
isótopos radiactivos naturales, los cuales fueron observados al comienzo del siglo XX y supusieron el
comienzo de la investigación en el campo de la física nuclear: la desintegración a, b y g.

4.3.1. Desintegración a
La desintegración a consiste en la emisión por parte de los núcleos radiactivos de partículas a (nú-
cleo de helio 42 He) que constan de dos protones y dos neutrones. Por consiguiente el núcleo resultante
tendrá un número atómico inferior en dos unidades y un número másico inferior en cuatro unidades.
Este tipo de desintegración ocurre frecuentemente en los núcleos pesados con A > 200 que tie-
nen una relación protón neutrón muy grande. La emisión de una partícula a reduce la relación entre
los protones y los neutrones llevando al núcleo a una situación más estable. La desintegración a pue-
de representarse mediante el siguiente proceso:
A
Z XN ® A– 4
Z– 2 X´N–2 + a (78)

Apliquemos el principio de conservación de la masa-energía al proceso radiactivo. Si suponemos que


inicialmente el núcleo que se desintegra X se encuentra en reposo, la energía del sistema en el estado
inicial es la energía en reposo mXc2. El estado final del sistema consiste en un núcleo X´ y una partícu-
la a ambos en movimiento para conservar el momento lineal del sistema. Así, la energía final del sis-
tema es mX´c2 + KX´ + mac2 + Ka, en donde K representa la energía cinética de las partículas finales. La
conservación de la energía da:
2 2 2
mXc = mX´c + KX´ + mac + Ka (79)

Esta expresión se puede escribir como:


2
(mX – mX´ – ma)c = KX´ + Ka (80)

La cantidad del primer miembro de la ecuación anterior es la energía neta que se libera en la desinte-
gración, denominada valor Q o energía de la desintegración:
2
Q = (mX – mX´ – ma)c (81)

578 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

Si el valor de Q es positivo entonces la desintegración tiene lugar espontáneamente. El valor Q de una


desintegración puede obtenerse directamente de las tablas de las masas atómicas de los elementos, ya
que en la expresión anterior el valor de las masas de los electrones se cancelan en la resta. Cuando la
masa se expresa en unidades de masa atómica (u), si expresamos c2 como 931.502 MeV/u obtenemos
el valor de Q en MeV.
El valor de Q es también igual a la suma de las energías cinéticas de los productos de la desinte-
gración:
Q = KX´ + Ka (82)

Si el núcleo inicial se encuentra en reposo, su momento lineal es cero, y por el principio de conserva-
ción del momento lineal se tiene que:
pX´ = pa (83)

La energía liberada en una desintegración a es típicamente del orden de 5 MeV, por lo que tanto para
el núcleo resultante como para la partícula a la energía cinética es mucho menor que su energía en re-
poso y por tanto podemos considerar que ambas partículas satisfacen las ecuaciones de la física clási-
ca y su energía cinética puede escribirse como K = p2 /2m. Utilizando esta expresión de la energía
cinética y haciendo uso de las expresiones (82) y (83) podemos escribir para la energía cinética de la
partícula a:
Q
Ka = (84)
1+ ma / mX¢

Puesto que el núcleo es un núcleo pesado, su masa es mucho mayor que la masa de la partícula a y por
consiguiente la relación entre las masas es pequeña. Aproximando ma • 4 y mX´ • A, la expresión
anterior puede escribirse como:
Ka = Q(1 – 4/A) (85)
238 234
Un ejemplo de este tipo de desintegración radiactiva es la desintegración del 92 U en 90 Th:

90 Th + a
U ® 234
238
92 (86)

4.3.2. Desintegración b
Bajo el concepto de desintegración b se agrupan tres procesos nucleares: la desintegración elec-
trónica b–, la desintegración positrónica b+ y la captura electrónica.
La emisión de electrones por los núcleos atómicos fue uno de los primeros fenómenos de desin-
tegración radiactiva observados. El proceso inverso que consiste en la captura por parte del núcleo de
un electrón de sus orbitales atómicos fue observado por Álvarez en 1938, y la emisión de positrones
(electrones positivos), denominada desintegración b+, fue observada por primera vez por Pierre Joliot
e Irene Curie en 1934. Estos tres procesos pueden representarse por:
n®p+e desintegración b
– –
(87)
p®n+e desintegración b
+ +
(88)
p+e ®n

captura electrónica (89)

No obstante, por lo que vamos a ver a continuación estos procesos están incompletos.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 579


Volumen II. Física II

En los experimentos de desintegración b– se obtenía una distribución continua para la energía de


los electrones, lo que constituía un resultado, en principio, inexplicable. Las partículas a eran emiti-
das con energía bien definida igual a la diferencia entre las energías de masa de los estados iniciales y
finales: todas las desintegraciones a con los mismos estados iniciales y finales tienen la misma ener-
gía cinética. Sin embargo, las partículas b presentaban una distribución de energías continua que iba
desde cero hasta un límite superior, el límite superior del espectro beta, que es igual a la diferencia de
energía entre los estados inicial y final. Si la desintegración b fuese una proceso de dos cuerpos, como
la desintegración a, se esperaría que la energía de las partículas b fuese única. Sin embargo, los resul-
tados experimentales mostraban que se producía una pérdida de energía. El desconcierto fue tan
grande y la situación tan grave que algunos físicos de la época llegaron, incluso, a plantearse la posi-
bilidad de abandonar el principio de conservación de la energía relativista.
En 1931, para explicar esta pérdida de energía, Pauli propuso que en la desintegración b se emi-
tía una segunda partícula, posteriormente denominada neutrino a propuesta de Fermi, que transporta-
ba la energía perdida y que debido a su alto poder penetrante era muy difícil de detectar. La
conservación de la carga eléctrica requería que el neutrino fuese eléctricamente neutro, y la conserva-
ción del momento angular, que su spin fuese 1/2 como el de los electrones.
Los experimentos muestran que se emiten dos tipos de neutrinos en la desintegración b: los neu-
trinos n y los antineutrinos n. En la desintegración b– se emite un antineutrino y en la desintegración
b+ un neutrino. Por tanto, el proceso de transformación de un neutrón en un protón se completa con la
emisión de un antineutrino:
n®p+e +n

(90)

De forma análoga a como se hace en la desintegración a, se define el factor Q como la diferencia en-
tre las energías de masa nuclear inicial y final:
2
Q = (mn – mp – me – mn) c (91)

y si suponemos que el neutrón se encuentra en reposo:


Q = Kp + K e + K n (92)

Si despreciamos la energía cinética de retroceso del protón, la cual es sólo del orden de 0.3 keV, se tiene
que el electrón y el neutrino comparten la energía liberada en la desintegración, lo cual explica el espectro
continuo del electrón. La máxima energía del electrón se obtiene cuando la energía del neutrino es muy
pequeña Q •(Ke)máx. El valor de esta energía cinética máxima resulta ser 0.782 ± 0.013 MeV. Utilizando
los valores medidos de las masas del protón, neutrón y electrón, podemos estimar el valor de Q:
2
Q = (mn – mp – me – mn) c
2
= 939.573 MeV – 938.280 MeV – 0.511 MeV – mn c = (93)
2
= 0.782 MeV – mn c

Por tanto, se obtiene dentro de la precisión de la máxima energía medida; debemos considerar que el
neutrino es una partícula con masa en reposo cero. Los experimentos, aunque bastante complicados,
realizados para comprobar la conservación del momento lineal confirman que la suma vectorial del
momento lineal del núcleo y del electrón es consistente con la existencia de una tercera partícula no
observada que transporta energía y que tiene una masa en reposo cero o casi cero.
Puesto que el neutrino es una partícula de masa en reposo cero se mueve a la velocidad de la luz y su
energía relativista En es igual a su energía cinética: En = Kn. Para el electrón, su energía Ee = Ke + mec2. Por
su parte, como la energía del protón de retroceso es pequeña, podemos tratarlo como una partícula
no relativista.

580 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

Una desintegración b– se puede representar por:


XN ® X´N–1 + e + n
A A –
Z Z+1 (94)

El valor Qb– vendrá dado por:


2
Qb– = [mN( AZ X) – mN( ZA+1 X) – me]c (95)

en donde mN indica la masa nuclear. Para convertir estas masas en las masas atómicas tabuladas, que
representamos por m (AX), utilizaremos la relación:
Z

m( A X )c 2 = mN ( AZ X )c 2 + Zme c 2 – å B i (96)
i= 1

en donde Bi es la energía de enlace del electrón i-ésimo. En términos de las masas atómicas, el valor
de Qb– se escribe como:
ìZ
ï Z+ 1 ü
ï
Qb– = [m( X) – Zme]c – [m( X´) – (Z + 1) me]c – mec + íå B i – å B i ý
A 2 A 2 2
(97)
ï
îi = 1 i= 1
ï
þ

Despreciando la diferencia entre las energías de enlaces de los electrones, encontramos que:
A A 2
Qb– = [m( X) – m( X´)]c (98)

en donde las masas son las masas atómicas. Este valor de Q representa la energía compartida por el
electrón y el neutrino:
Qb– = Ke + En (99)

El máximo de cada una de ellas se obtiene cuando la otra se aproxima a cero:


(Ke)máx = (En)máx = Qb– (100)

Esta expresión está de acuerdo con las medidas experimentales realizadas.


En el caso de una desintegración b+ o desintegración positrónica, un proceso típico se representa por:
XN ® X´N+1 + e + n
A A +
Z Z– 1 (101)

Un cálculo similar al realizado anteriormente nos lleva a que:


A A 2
Qb+ = [m( X) – m( X´) –2me]c (102)

El proceso típico de una captura electrónica se representa por:


XN + e ® X´N +1 + n
A – A
Z Z– 1 (103)

Para el cálculo de Q es necesario tener en cuenta que el átomo X´ después de la captura electrónica se
encuentra en un estado atómico excitado. Esto es debido a que la captura se realiza de un electrón de
una capa interna, por ejemplo la capa K, dando lugar a una vacante en dicha capa. Esta vacante es rá-
pidamente ocupada por un electrón de la capa más alta mediante una transición energética que da lu-
gar a la emisión de rayos X. Tanto si la emisión consiste en uno o varios rayos X, la energía total de
estos rayos es igual a la energía de enlace del electrón capturado. Por tanto, la masa atómica de X´ in-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 581


Volumen II. Física II

mediatamente después de la desintegración es mayor que la masa de X´ en su estado atómico funda-


menta en una cantidad Bn que es la energía de enlace del electrón capturado de la capa n (n = K, L ...).
En consecuencia, el valor de Q viene dado por:
A A 2
Qb+ = [m( X) – m( X´)]c – Bn (104)
Tanto la desintegración b+ como la captura electrónica transforman un núcleo AZ XN en otro ZA– 1 X´N +1.
Sin embargo, ambas pueden no ser posibles, pues para que se produzcan espontáneamente debe ocu-
rrir que Q > 0. Los núcleos que experimentan una desintegración b+ pueden también experimentar
una captura electrónica, pero la afirmación contraria no es cierta. Para que esto pueda ocurrir la dife-
rencia de energía de masa atómica debe ser al menos 2 me c2 = 1.022 MeV.
Al igual que ocurre en la desintegración b–, en la desintegración b+, al no ser un proceso de dos
cuerpos, la energía del neutrino presenta una distribución continua desde cero hasta un valor máximo.
Sin embargo en la captura electrónica, al ser un problema de dos cuerpos, la energía del neutrino es
una energía bien definida.
Todas las expresiones que hemos escrito anteriormente se han obtenido considerando que los pro-
cesos de desintegración eran entre estados fundamentales. Si el estado final del núcleo X´ es un estado
excitado, el valor de Q decrece en una cantidad igual a la energía de excitación del estado Eex. Por tanto:
Qex = Qfundamental – Eex (105)
Para finalizar, es necesario mencionar que la detección experimental del neutrino sólo se consiguió
en 1956 por C. Cowan y F. Reines.

4.3.3. Desintegración g
La mayoría de las reacciones nucleares, y en particular los procesos de desintegración a y b, pro-
ducen núcleos cuyo estado final corresponde a un estado excitado. Estos estados decaen rápidamente
hacia el estado fundamental mediante la emisión de uno o más rayos g, que son fotones de alta energía
comprendida entre los 0.1 y 10 MeV.
Consideremos el decaimiento o desintegración g de un núcleo de masa en reposo m desde un es-
tado inicial Ei a un estado final Ef. La conservación del momento lineal implica que el núcleo no pue-
de permanecer en reposo sino que debe tener un momento lineal de retroceso p y una energía cinética
correspondiente K, que si asumimos no es relativista está relacionada con el momento por K = p2/2 m.
La conservación de la energía total y el momento nos dan que:
Ei = Ef + Eg + K (106)
r r
0= p+ p g (107)
La conservación del momento lineal establece que el momento lineal del núcleo debe ser igual y
opuesto al del rayo g:
r r
p = – pg (108)
Llamando DE = Ei – Ef y utilizando la relación relativista entre la energía y el momento Eg = c pg, se
tiene que:
E g2
DE = E g + (109)
2mc 2
La solución de esta ecuación es:
é DE ù
E g = mc 2ê–1± 1+ 2 2 ú (110)
ë mc û

582 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

Las diferencias típicas DE son del orden de MeV, mientras que la energía en reposo mc2 es del orden
de A ´ 103 MeV, donde A es el número másico. Por tanto DE << mc2 y tomando el primer término del
desarrollo de la raíz cuadrada se tiene que:
( DE ) 2
E g = DE – (111)
2mc 2

Por tanto, la energía máxima de los rayos g es ligeramente menor que la máxima energía disponible
del decaimiento DE. Esta corrección de retroceso a la energía es generalmente despreciable, pues es
del orden de 10–5 que es más pequeña que el error con el cual medimos la energía.
Para rayos g de baja energía, la energía de retroceso es pequeña y tiene efectos despreciables. Para
rayos g de alta energía (entre 5 y 10 MeV) la energía de retroceso es del orden de los 100 eV, la cual pue-
de ser suficiente para sacar el átomo que retrocede de su posición en una red cristalina. Esos efectos se
conocen como daños de la radiación y tienen una gran importancia en el estudio de los sólidos.

4.3.4. Series radiactivas


La estabilidad de los núcleos disminuye (en término medio) al aumentar el número másico A. La
radiactividad natural de los núcleos ligeros y medios es un fenómeno poco común. Sin embargo, es
un fenómeno general para los átomos pesados con un número atómico A por encima de 200.
Estos núcleos forman 3 familias, cadenas o series radiactivas naturales, y una serie radiacti-
va artificial, que reciben el nombre del núcleo ascendiente cuya vida mitad es mayor. Estas series
son: la del uranio ( 238 232 235 237
92 U), la del torio ( 90 Th), la del actinio ( 89 U) y la del neptunio ( 93 Np), que se
obtiene artificialmente.
De los tres tipos de desintegración posibles sólo la desintegración a produce una disminución del
número atómico, además en 4 unidades. Por tanto, si una serie comienza con un núcleo de número ató-
mico A = 4 n, en donde n es un número entero, entonces todos los núclidos con número atómico A = 4n –
4, A = 4n – 8, y así sucesivamente, serán producidos hasta llegar a un núcleo estable. De forma análoga,
si el número atómico del núcleo inicial es A = 4n + 1, se obtendrán por desintegración los núcleos con
número atómico A = 4n – 3, A = 4n – 7 … hasta alcanzar un núcleo estable. También son posible una ter-
cera serie y una cuarta serie con números atómicos iniciales A = 4n +2 y A = 4n + 3. Sin embargo, una
quinta serie con A = 4n + 4 es idéntica a la serie A = 4n. Por consiguiente, como ya habíamos indicado,
son posibles cuatro series radiactivas.
El paso de un elemento de la serie al otro se efectúa por una cadena de desintegraciones sucesi-
vas a y b y termina en un núcleo estable. Estos núcleos son el 208 82 Pb para la serie 4n (serie del torio), el
209 206 207
83 Bi para la serie 4n + 1 (serie del neptunio), el 82 Pb para la serie 4n + 2 (serie del uranio) y el 82 Pb
para la serie 4n + 3 (serie del actinio). En la tabla 2 se resumen algunas características de cada una de
las series radiactivas.

Serie Nombre Núcleo inicial Núcleo final


232 208
4n Serie del Torio 90 Th 82 Pb
237 209
4n + 1 Serie del Neptunio 93 Np 83 Bi
238 206
4n + 2 Serie del Uranio 92 U 82 Pb
235 207
4n + 3 Serie del Actinio 92 U 82 Pb

Tabla 2. Series radiactivas.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 583


Volumen II. Física II

El orden de las transformaciones radiactivas en estas series se muestra en la figura 10. Las tran-
siciones diagonales hacia la izquierda corresponden a una desintegración a y las transiciones diago-
nales hacia la derecha a una desintegración b. Podemos observar que las desintegraciones b tienden a
situar la linea de la serie más cerca de la línea de estabilidad.

Figura 10.
Series radiactivas.

4.4. Radiactividad artificial


Además de la radiactividad que encontramos de forma natural, existe la posibilidad de crear isó-
topos radiactivos en el laboratorio mediante reacciones nucleares. Estos isótopos radiactivos natura-
les presentan con frecuencia un nuevo tipo de desintegración desconocido entre los elementos
radiactivos naturales que se encuentran al final de la tabla periódica. Los isótopos radiactivos artifi-
ciales se suelen desintegrar emitiendo positrones, es decir, su desintegración es b+.
Los primeros en obtener en el laboratorio un isótopo radiactivo de forma artificial fueron el ma-
trimonio Pierre Joliot e Irene Curie, en 1934. Para ello bombardearon aluminio con partículas a pro-
venientes de la desintegración natural del polonio. De esta manera obtuvieron el isótopo 230P que se
desintegraba mediante la emisión de un positrón con un período de vida mitad de 2.5 minutos. Con
relación a este experimento, escribían:
Nuestro último experimento ha mostrado un hecho sorprendente: cuando una hoja de
aluminio es irradiada con un preparado de polonio, la emisión de positrones no cesa inme-
diatamente cuando quitamos el preparado activo. La lámina permanece radiactiva y la emi-
sión de la radiación decae exponencialmente como en un radioelemento ordinario.

Por sus trabajos en la obtención de radiactividad artificial Pierre Joliot e Irene Curie fueron galardo-
nados con el premio Nobel de Química en el año 1935.
Posteriormente se supo que esta misma generación de isótopos radiactivos tiene lugar en las
transformaciones nucleares provocadas por neutrones.

584 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

5. APLICACIÓN DE LA RADIACTIVIDAD EN DIFERENTES CAMPOS


Las aplicaciones de la radiactividad son enormemente diversas y su campo de aplicación inclu-
ye la medicina, la biología, el arte, la arqueología, la ciencia de materiales, la exploración espacial, el
medio ambiente, y por supuesto el campo de la energía, que será objeto de estudio en el Tema 37.
A continuación vamos a exponer algunos ejemplos que sirvan para poner de manifiesto la am-
plia variedad de aplicaciones de la física nuclear y en concreto de la radiactividad.
– Medicina nuclear: uno de los usos más extendidos de los radioisótopos es la medicina nu-
clear. Por ejemplo, de los cerca de 30 millones de personas que se hospitalizan al año en
Estados Unidos, casi un tercio son tratados con medicina nuclear. Además se realizan alre-
dedor de 100 millones de pruebas mediante el uso de medicina nuclear.
Hay cerca de un centenar de radioisótopos cuya radiación beta o gamma se usa en medicina
nuclear en disgnósticos, terapia o investigación. Entre estos se encuentran el 60Co, 131I, 99Tc
y el 137Cs. En la actualidad, el más usado es el 99mTc, que tiene una vida mitad de 6 horas. El
131
I, que tiene una vida mitad de 8 días se usa para diagnosticar y tratar las enfermedades del
tiroides. Su aplicación tiene tanto éxito que casi ha sustituido a la cirugía en el tratamiento
de estas enfermedades.
Otros radioisótopos usados en la medicina nuclear son los emisores de positrones de corta
duración de vida, tales como el 11C, el 13N o el 18F. Estos permiten realizar tomografías deno-
minadas PET (Positron Emission Tomography). Para realizar estas tomografías se incorpora
el elemento radiactivo en sustancias químicas que migran selectivamente a órganos específi-
cos del cuerpo. El diagnóstico se hace mediante la detección de los dos rayos gamma, de
igual intensidad y direcciones opuestas, resultado de la aniquilación del positrón con un elec-
trón. Cuando ambos rayos son detectados, podemos utilizar un ordenador para reconstruir el
lugar donde se produjo la aniquilación.
Otra importante aplicación de los radioisótopos, en concreto el 60Co, es la utilización de los
rayos gamma producidos en su desintegración para destruir células cancerosas. Un incon-
veniente que presenta este tratamiento es que los rayos g distribuyen la energía uniforme-
mente tanto entre las células sanas como entre las cancerosas. Un tratamiento alternativo,
que en los últimos años ha experimentado un auge importante, es el uso de haces de iones
masivos como partículas a o protones. La ventaja de este tipo de tratamiento reside en que
la energía se transfiere justo antes de que se paren, por lo que eligiendo adecuadamente su
energía ésta se entregará a la células enfermas y no a las células sanas.
Una técnica que se encuentra en fase de desarrollo es la denominada BNCT (Boron Neu-
tron Capture Therapy). Su aplicación fundamental es la del tratamiento de glioblastoma
multiforme, un tumor cerebral que es casi imposible tratar por medio de otras técnicas. En
la BCNT, el boro es sintetizado en componentes que son selectivamente absorbidas por las
células cancerosas y no por las sanas. Posteriormente se procede a una irradiación de neu-
trones de baja energía, produciéndose la siguiente reacción de captura:
10
B + n ® 7Li + 4He (112)
Los núcleos resultantes de litio y helio pierden la energía rápidamente, por lo que estas par-
tículas destruyen las células enfermas y respetan las sanas.
– Fechado radiactivo: denominamos así a la técnica de comparar la abundancia de un isóto-
po radiactivo para determinar la edad de un material.
El isótopo radiactivo del carbono 14C es producido en las capas altas de la atmósfera en pro-
cesos de choques de neutrones con 14N. El núcleo de 14N captura un neutrón y emite un pro-
tón convirtiéndose en 14C que se combina con el oxígeno para dar lugar a 14CO2, el cual es
absorbido por las plantas y los animales. La proporción de 14C respecto de 12C es de un áto-
mo de 14C por cada trillón de 12C, y es la misma para todos los seres vivos.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 585


Volumen II. Física II

Una vez que un ser vivo muere, se detiene el proceso de intercambio continuo de carbono
con el entorno. El 14C es radiactivo y experimenta una desintegración b, siendo su vida mi-
tad 5730 años. Por consiguiente, la relación de 14C respecto al 12C que para un ser vivo es de
uno entre un trillón será de uno entre dos trillones 5730 años después de la muerte del ser
vivo y de uno entre cuatro trillones después de 11460 años. Las medidas precisas de la can-
tidad de 14C restantes en un material permiten fechar la muerte de un ser vivo.
Para los objetos inertes se puede utilizar otra técnica similar. El isótopo 40K se desintegra en
40
Ar, que puede almacenarse en las rocas, con un período de tiempo mitad de 1.3 ´ 109 años.
Por tanto, podemos medir la cantidad de 40Ar que surge de la desintegración del potasio ra-
diactivo y comparar esta cantidad con la cantidad de 40K que permanece en la roca. A partir
de esta comparación se puede estimar la edad de la roca.
Esta técnica puede usarse para determinar la edad de nuestra galaxia y la edad de la Tie-
rra. Utilizando la desintegración del uranio y del torio, podemos estimar que la edad de
nuestra galaxia está comprendida entre los 10 y los 20 billones de años, y la de la Tierra es
de 4.6 millones de años.

– Análisis por activación de neutrones: en la naturaleza hay alrededor de 50 isótopos ra-


diactivos cuyo núcleo tiene un neutrón más que el núcleo estable. Esto significa que un
método para obtener isótopos radiactivos será el bombardeo de núcleos atómicos me-
diante neutrones. La medida de la desintegración de estos núcleos nos proporcionará una
medida de su concentración. Un método como el descrito se utiliza para medir la concen-
tración de iridio en el suelo y permitió determinar un exceso de iridio en los sedimentos
del terciario cretáceo en Italia. Puesto que el iridio es un metal con escasa abundancia en
la Tierra, estas medidas llevaron a establecer que el aumento debería haber sido provoca-
do por el impacto de un asteroide de unos 10 km de diámetro con la Tierra. Posteriormen-
te se encontraron más de 100 sitios en donde se observaba esta misma anomalía en la
concentración de iridio en el terciario, y además, muchos experimentos confirmaron la
teoría del impacto. La medida de la concentración de iridio en el suelo constituye la base
de la teoría de la desaparición de los dinosuarios.

– Aplicaciones industriales: las aplicaciones de los radioisótopos en la industria es tremen-


damente amplia. Por ejemplo, se utilizan en la construcción de detectores de humo. Estos
dispositivos contienen una pequeña cantidad de 241Am que es un isótopo radiactivo produ-
cido en las reacciones nucleares. En su desintegración, este isótopo emite partículas a que
ionizan el aire, lo que genera una pequeña corriente que puede ser medida. Cuando el humo
entra en el detector, los iones se unen a las partículas de humo dando lugar a una disminu-
ción de la corriente en el detector. Esto hace que se dispare la alarma. Puesto que las partí-
culas a viajan muy poca distancia por el aire, no hay peligro de exposición a la radiación
emitida por un detector de humo. Pero, puesto que contiene material radiactivo debería ser
reciclado y ser considerado como un residuo radiactivo.
Otro isótopo es el 252Cf, que es un emisor de neutrones; se utiliza mediante la técnica de
análisis de activación de neutrones, para analizar el equipaje aéreo en busca de explosivos o
para medir el contenido de humedad del suelo.
Muchas otras aplicaciones son, por ejemplo: el chequeo de la calidad del acero utilizado en
la industria del automóvil; la medición de la densidad de la superficies de las carreteras; la
determinación del contorno de pozos y minas, etc.

– Aplicaciones en la agricultura: en la agricultura las aplicaciones de la radiactividad son


también muy variadas. Así, se utiliza en la investigación para obtener nuevos tipos de plan-
tas, en la eliminación de plagas de insectos y roedores, en la destrucción de virus y bacterias
que permiten prolongar la duración de los alimentos, etc.

586 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


El núcleo atómico. Modelos

– Aplicaciones en el arte: una aplicación muy interesante de los radioisótopos es en el cam-


po del arte y de las humanidades. El análisis por activación de neutrones es un herramienta
muy útil para determinar la composición química de de monedas, cerámica y otras piezas
de arte antiguas. Una pequeñísima partícula de un lienzo o de una pieza de cerámica es sufi-
ciente para revelar su composición. De esta manera se pueden detectar con gran fiabilidad
las falsificaciones de las obras de arte.
Estas son, claro está, sólo algunas de las aplicaciones actuales de los radioisótopos, que, sin
duda alguna, han mejorado enormemente nuestra calidad de vida y que por otra parte pue-
den servir para hacernos una idea del enorme campo de aplicación que hoy en día tiene la
física nuclear.

6. MEDIDAS DE SEGURIDAD
El conocimiento de los efectos de la radiación ionizante proviene de los estudios realizados so-
bre grupos de personas expuestos a esta radiaciones, de experimentos con animales y de los estudios
realizados a nivel celular y molecular. Como es bien conocido, la radiación ionizante tiene efectos in-
mediatos y efectos a medio y largo plazo. Una exposición a altas cantidades de radiación es mortal en
un período de tiempo de varios meses. A exposiciones medias se produce un aumento de la posibili-
dad de desarrollo de tumores en un período de 10 años. A bajos niveles de exposición, el riego de cán-
cer disminuye, pero no se conoce cuál es la relación entre riesgo de cáncer y la cantidad de radiación
recibida. Por otra parte, la exposición a la radiación ionizante de los fetos dan lugar a malformaciones
genéticas y retraso mental.
Es evidente, por tanto, que es necesario tomar un conjunto de medidas que tiendan a minimizar los
riesgos que supone la exposición a la radiación ionizante. La mayoría de países cuentan con una norma-
tiva que regula las dosis máximas de exposición tanto del público en general como de los trabajadores
de los centros en donde habitualmente se trabaja con isótopos radiactivos, no sólo en centrales nuclea-
res, sino también en centros médicos de diagnóstico o terapia nuclear y recintos de investigación.
Una primera medida básica de seguridad consiste en la construcción adecuada tanto de los apara-
tos que utilizan isótopos radiactivos como de aquellas instalaciones de uso o producción de estos radioi-
sótopos. Es necesario tener en cuenta que el poder de penetración de las partículas resultantes de la
desintegración radiactiva depende del tipo de desintegración. Así, las partículas a pierden su energía al
atravesar varios centímetros de aire, mientras que los rayos g pueden atravesar espesores de un metro de
plomo y hormigón. En consecuencia, en el diseño habrá que reforzar los contornos de aparatos e insta-
laciones de manera que pueda realizarse una confinación adecuada de la radiación resultante.
Una segunda medida básica consiste en una adecuada manipulación de los productos radiacti-
vos que permita controlar su presencia. Esto supone el diseño adecuado de los habitáculos así como el
cumplimiento de estrictas normas de conductas del personal.
Por último, es de suma importancia el control y manipulación de los residuos radiactivos resultan-
tes del uso de radioisótopos. Estos productos pueden mantener una radiación residual o bien pueden ser
a su vez radiactivos con vidas medias de miles de años. Por consiguiente, es necesario almacenarlos en
depósitos de plomo y hormigón perfectamente sellados y colocados en zonas geológicas adecuadas de
manera que se garantice su no destrucción. El problema no es, evidentemente, sencillo y es precisamen-
te la ubicación de estos cementerios radiactivos, junto con el riego de accidentes en centrales nucleares,
lo que hace del uso de la energía nuclear un tema extremadamente controvertido.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 587


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Burcham, W. E.: Física Nuclear. Reverté. Barcelona, 1974.
Eisberg, R. y Resnick, R.: Física Cuántica. Limusa. México, 1978.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall, Upper Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-
Hill, Madrid, 1991.
Krane, K. S.: Introductiry Nuclear Physics. John Wiley. New York, 1988.
Sandin, T. R.: Essential of Modern Phisics. AddisonWesley Publissing Com-
pany. New York, 1989.

588 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

36
Fuerzas fundamentales de la
naturaleza: gravitatoria,
electromagnética, fuerte y
débil. Partículas implicadas.
Estado actual de las teorías de
unificación

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. FUERZAS FUNDAMENTALES DE LA NATURALEZA


1.1. El Modelo Estándar
1.2. Fuerzas de intercambio y partículas virtuales

2. FUERZA FUERTE

3. FUERZA ELECTROMAGNÉTICA

4. FUERZA DÉBIL

5. FUERZA GRAVITATORIA

6. ESTADO ACTUAL DE LAS TEORÍAS DE UNIFICACIÓN


6.1. Modelo estándar
6.2. Teorías de Gran Unificación (GUTS)
6.3. Supersimetrías (SUSY)
6.4. Cuerdas y supercuerdas
6.4.1. Teoría de las supercuerdas

BIBLIOGRAFÍA

590 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Fuerzas fundamentales de la naturaleza

1. FUERZAS FUNDAMENTALES DE LA NATURALEZA


La noción de fuerza o de interacción es sin duda una de las más antiguas y fundamentales de la
física. En nuestro Universo actual se han identificado cuatro fuerzas o interacciones fundamentales
que determinan la interacción entre las partículas individuales y el comportamiento a gran escala de
toda la materia del Universo. Estas cuatro fuerzas tienen propiedades bastante diferentes y son: la
fuerza fuerte, la fuerza débil, la fuerza electromagnética y la fuerza gravitatoria.
La descripción teórica de las interacciones y su significado han sufrido cambios considerables li-
gados íntimamente al conocimiento de la estructura íntima de la materia. Los primeros en teorizar que
la materia estaba constituida por partículas indivisibles, que denominaron átomos, fueron los filósofos
griegos de la antigüedad. Desde entonces hasta nuestros días los esfuerzos por desvelar la composición
íntima de la materia han sido numerosos. En los últimos años la física de altas energías ha desvelado la
existencia de un auténtico arsenal de partículas subatómicas de las cuales alrededor de 30 son relativa-
mente estables con una vida media mayor que 10–10 s, y más de cien partículas con un período de vida
media extremadamente corto, del orden de 10–21 s, denominadas resonancias. Las modernas teorías so-
bre la estructura de la materia identifican un número de estas partículas como fundamentales las cuales
interactúan mediante las cuatro fuerzas fundamentales. Vamos a ver de forma breve la teoría actual so-
bre las partículas fundamentales denominada Modelo Estándar (Standar Model).

1.1. El Modelo Estándar


El Modelo Estándar es la teoría que describe las propiedades y estructura de las partículas funda-
mentales, así como sus interacciones (salvo la gravitatoria). Este modelo supone que la materia está
constituida por dos tipos de partículas:
1. Partículas de materia: leptones y quarks. La mayoría de partículas están compuestas por quarks.
2. Partículas portadoras de fuerza: cada tipo de fuerza fundamental es transportada por una partícu-
la portadora de fuerza.

Según el modelo estándar existen 6 leptones y 6 quarks, todos tienen spin 1/2 y por tanto son fer-
miones que obedecen al principio de exclusión de Pauli. Los leptones son los electrones (e), los muo-
nes (m) y los tauones (t), que tienen carga eléctrica –e, y sus tres neutrinos (ne, nm, nt), con carga
eléctrica cero. Tenemos por tanto tres grupos de leptones:
æv e ö æ v ö æv ö
ç ÷ ç m÷ ç t ÷
ç ÷ ç ÷
÷ ç ÷
(1)
èeø ç èmø èt ø

De forma análoga, la teoría supone la existencia de 6 tipos o sabores de quarks conocidos como
arriba (u), abajo (d), encanto (c), extraño (s), cima (t) y fondo (b), cuyos nombres provienen del inglés
up, down, charm, strange, top y bottom. Los nombres de los quarks son absolutamente arbitrarios y
no encierran ningún significado. En la física de los quarks es frecuente encontrar este tipo de termino-
logía caprichosa, como veremos más adelante. La carga eléctrica de los quarks es de 2e/3 para los
quarks u, c y t, y –e/3 para los quarks d, s y b:
æu ö æc ö æ t ö
ç ÷ ç ÷ ç ÷
ç ÷ ç ÷ ç ÷ (2)
èd ø ès ø èbø

Las masas de los quarks no se conocen con exactitud debido a que no se observan de forma aislada
como partículas libres, sino sólo en estados ligados formando hadrones. No obstante se estima que las ma-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 591


Volumen II. Física II

sas se encuentran entre los 300 MeV y los 5 GeV. Al igual que cada leptón tiene asociado un antileptón de
características iguales pero de carga opuesta, a cada quark le corresponde un antiquark de las mismas ca-
racterísticas pero con carga opuesta. En la tabla 1 se resumen algunas de las características de los quarks.

Nombre Símbolo Carga Extrañeza Encanto


2
Arriba (Up) u + e 0 0
3
1
Abajo (Down) d - e 0 0
3
2
Encanto (Charm) c + e 0 +1
3
1
Extraño (Strange) s - e -1 0
3
2
Cima (Top) t e 0 0
3
1
Fondo (Bottom) b – e 0 0
3

Tabla 1. Algunas propiedades de los quarks.

Aunque los quarks tienen una carga fraccionaria, ésta nunca es observada directamente debido a
que los quarks nunca se presentan solos, sino agrupados formando partículas compuestas denomina-
das hadrones, la carga de un hadrón siempre es un número entero. Por otra parte, según una teoría de-
nominada cromodinámica cuántica, además de la carga eléctrica, los quarks transportan una carga de
color que desempeña el mismo papel que la carga eléctrica en la interacción electromagnética.
Obviamente, este término no tiene nada que ver con los colores visuales, sino que es sólo una manera
conveniente de postular una propiedad de los quarks para explicar su comportamiento. Se supone que
sólo existen tres tipos de carga de color denominadas roja (r), verde (v) y azul (b), junto con las anti-
cargas de color: antiroja, antiverde y antiazul. Una combinación de tres quarks con tres colores dife-
rentes o de un quark con un antiquark con la correspondiente anticarga de color da lugar a un sistema
de color neutro o sin color (blanco). Los hadrones son combinaciones de quarks sin color.
Existen dos tipos de hadrones: los bariones y los mesones. Los bariones están compuestos por
tres quarks (u, d, s) mientras que los mesones están compuestos por un quark y un antiquark. Por esta
razón, los bariones poseen spin 1/2 o 3/2 que corresponden a las orientaciones del spin de los quarks
(­­¯) y (­­­), mientras que los mesones son bosones de spin 0 (­¯ ) o 1 (­­ ). En la tabla 2 se
muestra la estructura de algunos hadrones. Las resonancias son estados excitados de las combinacio-
nes de quarks. El modelo explica otras muchas cuestiones, como por ejemplo el hecho de que los neu-
trones que son una combinación (ddu) tienen carga eléctrica cero, pero posee un momento magnético
que resulta de combinar el momento magnético de los quarks que lo forman.

1
Bariones (spin ) Estructura Mesones (spin 0) Estructura
2
p uud p+ ud
n ddu p0 uu + dd
S+ uus p– ud
S0 uds K+ us
S– dds K0 ds
Ù0 uds h0 uu – dd
Tabla 2. Estructura de quarks de algunos hadrones.

592 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Fuerzas fundamentales de la naturaleza

En resumen, en la actualidad se consideran como partículas completamente fundamentales a los


leptones, los quarks y a las partículas portadoras de fuerza (fotones, gluones y los bosones W± y Z0).
No obstante, algunos físicos creen que los leptones y los quarks no son los componentes últimos de la
materia, sino que están formados por objetos aún más elementales. La respuesta evidentemente sólo
la podremos encontrar en el futuro.

1.2. Fuerzas de intercambio y partículas virtuales


Si bien desde el punto de vista de la física clásica, la idea bási-
ca del mecanismo de interacción entre partículas es el concepto de e -
e
-

campo (como el eléctrico, magnético y gravitatorio), la idea básica


de la moderna teoría de campos es que el intercambio de partículas
puede dar lugar a fuerzas repulsivas o atractivas. Esta fue la idea g
que propuso Yukawa para explicar la interacción fuerte. La idea de
Yukawa puede ser entendida si consideramos la fuerza electromag- -
e
nética. En la teoría de Maxwell del electromagnetismo, dos partí- e
-

culas cargadas ejercen fuerzas entre ellas a través del campo elec-
tromagnético creado por las partículas. Ahora bien, también sabe-
mos que la radiación electromagnética puede considerarse como
un haz de partículas denominadas fotones. En base a esta dualidad
onda-partícula, podemos considerar que la fuerza electromagnéti-
ca que experimenta una partícula es debido al campo electromag- Figura 1. Diagrama de
nético creado por la otra, o bien, a un intercambio de fotones entre Feynman que muestra cómo
ambas. Este es el punto de vista de la electrodinámica cuántica, y el actúa un fotón como portador
diagrama que describe la fuerza electromagnética como conse- de la fuerza electromagnética
cuencia del intercambio de fotones entre las partículas cargadas se entre dos electrones.
denomina diagrama de Feynman. En la figura 1 se muestra el dia-
grama correspondiente al caso más sencillo en el que una de las partículas emite un fotón y retrocede,
y la segunda partícula absorbe el fotón. En una interacción así, se transfiere energía y momento de
una partícula a la otra siendo el fotón el que transporta esa energía y momento. Puesto que el fotón
emitido por una de las partículas es absorbido muy poco tiempo después por la otra partícula, no se
observa. Por esta razón se le denomina fotón virtual, en contraposición a los fotones libres que sí pue-
den detectarse con los instrumentos de medida adecuados.
El intercambio de estas partículas virtuales puede dar lugar a
fuerzas atractivas o repulsivas. Así por ejemplo, un electrón repele a
otro electrón cuando uno de ellos emite un fotón y el otro lo absorbe; p n
y, de la misma forma, un electrón y un protón se atraen también me-
diante la emisión y absorción de un fotón. Este mecanismo, que a la
vista parece poco intuitivo, puede entenderse mediante un ejemplo mesón
sencillo. Supongamos dos niños patinando en una superficie helada
y supongamos que uno de ellos lleva una pelota pesada. Si uno lanza n
la pelota hacia el otro, el intercambio de momento hace que los dos p
se separen (interacción repulsiva). Sin embargo, si uno intenta arre-
batar la pelota al otro tienden a unirse (interacción atractiva).
La idea de Yukawa era similar a las expuestas anteriormente:
en analogía al intercambio de fotones como intermediarios de la
fuerza electromagnética, debía existir una partícula que fuera inter-
Figura 2. Intercambio de un
mediaria de la fuerza nuclear fuerte, responsable de mantener uni- mesón cuando un protón y un
dos los núcleos atómicos (figura 2). De la misma forma que el fo- neutrón interactúan mediante
tón es el cuanto del campo o de la fuerza electromagnética, la nue- la fuerza nuclear fuerte.
va partícula debería ser el cuanto de la fuerza nuclear fuerte. La

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 593


Volumen II. Física II

predicción de Yukawa era que la partícula debía tener una masa intermedia entre el electrón y el pro-
tón, por lo que se le denominó mesón (del griego mesos, que significa intermedio). Podemos estimar
de forma aproximada la masa del mesón como sigue. Para que se emita un mesón se debe crear su masa
de la nada, lo que violaría el principio de conservación de la energía. Ahora bien, el principio de incerti-
dumbre de Heisenberg establece que:
DEDt ³h (3)

El principio establece que para medir una energía de un estado con una incertidumbre de DE dicho
estado debe existir al menos durante un tiempo Dt ³h/DE. Por tanto, si se crea una partícula de
energía DE durante un tiempo menor que el indicado, la partícula no podrá ser observada y el prin-
cipio de conservación de la energía se mantiene. La masa del mesón estará relacionada con la ener-
gía por DE = mc2. Por otra parte, si suponemos que el mesón viaja a velocidad cercana a la de la luz,
se tendrá que Dt = R/c, siendo R la separación máxima entre los nucleones que interactúan. De esta
manera, de la expresión (3), se tiene que:
R hc
mc 2• h Þ mc 2 = (4)
c R
Si tenemos en cuenta que el valor del alcance de la fuerza nuclear fuerte es del orden de 1,5 fm =
= 1,5 ´ 10–15 m, de la expresión anterior se tiene que:
(1,05 ´ 10–34 J× s) (3 ´ 108 m / s)
mc 2 = = 2,2 ´ 10–11 J = 130 MeV (5)
1,5 ´ 10–15 m

Lo que acabamos de ver es una característica de todas las partículas virtuales que se intercambian en
los procesos de interacción: el tiempo entre la emisión y la absorción es tan corto que no puede detec-
tarse la no conservación de la energía. En el caso de los fotones, puesto que el alcance de la fuerza
electromagnética es infinito R = ¥, según lo que acabamos de ver su masa en reposo debe ser cero.
Al igual que los fotones existen como partículas libres, se esperaba que los mesones también exis-
tieran como partículas libres y pudieran ser observados directamente. En 1937 se descubrió una partícu-
la en los rayos cósmicos cuya masa era igual a 106 MeV. Su valor era cercano al predicho por Yukawa,
pero se encontró que esta partícula, a la que se denominó mesón m o muón, no interactuaba fuertemente
con la materia, por lo que era imposible que pudiese actuar como intermediaria de la fuerza nuclear
fuerte. La partícula predicha por Yukawa fue descubierta en 1947 y se le denominó mesón p o pión. El
pión presenta tres estados de carga positiva, negativa o neutra. Los mesones p+ y p– tienen una masa
igual a 139,6 MeV , y el pión p0 una masa igual a 135 MeV. Después de su descubrimiento en los rayos
cósmicos, los piones fueron producidos en los aceleradores de partículas en las colisiones pro-
tón-protón. Algunas de las reacciones observadas son:
0
p+p®p+p+p (6)
+
p+p®p+n+p (7)
+ –
p+p®p+p+p +p (8)

El número de piones producidos depende de la energía cinética de los protones.


En los años posteriores se descubrieron otros mesones a los que se consideró también interme-
diarios de la fuerza nuclear fuerte. En la actualidad, y como hemos visto más arriba, las más recientes
teorías y experimentos sugieren que tanto los nucleones como los mesones están constituidos por par-
tículas más elementales denominadas quarks y la fuerza nuclear fuerte puede ser entendida como una
manifestación residual de una fuerza fuerte cuya partícula virtual fundamental intermediaria de la
fuerza se denomina gluón. La teoría cuántica de campos que trata de las interacciones entre quarks se
denomina cromodinámica cuántica (QCD) (Quantum Chromodynamics).

594 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Fuerzas fundamentales de la naturaleza

De la misma manera que en electrodinámica cuántica la fuerza electromagnética viene del inter-
cambio de fotones virtuales entre las partículas eléctricamente cargadas que interactúan, en cromodi-
námica cuántica la interacción fuerte surge del intercambio de gluones virtuales entre las partículas
con carga de color. Al hacer este intercambio estas partículas con carga de color quedan pegadas. La
diferencia principal entre la fuerza electromagnética y la fuerza de color es que los gluones poseen
ellos mismos carga de color, mientras que los fotones no tienen carga de color ni carga eléctrica. Dos
o más quarks cercanos entre sí intercambian rápidamente gluones, creando un campo de fuerza de co-
lor. Los gluones transportan pares de color/anticolor. Si bien existen 9 combinaciones posibles de pa-
res color/anticolor debido a consideraciones de simetría se elimina una, con lo que un gluón puede
transportar una de las ocho posibles combinaciones de color/anticolor. La carga de color se conserva
siempre, así, cuando un quark emite un gluón el color del quark cambia de manera que se conserve la
carga de color. Así, cuando un quark rojo emite un gluón rojo/antiazul se transforma en un quark azul
y el color neto sigue siendo el rojo. Dentro de los hadrones, los quarks emiten y absorben gluones
muy rápidamente, de modo que no es posible observar el color de un quark individual. En un hadrón,
los dos quarks que intercambian un gluón cambian de color de forma que el sistema se mantenga en
un estado de color neutro.
Cuando quarks y antiquarks se combinan para formar hadrones, ya no pueden ser separados, y a
esta propiedad se le denomina confinamiento de los quarks. Esto se debe a que los gluones producen
una fuerza que aumenta rápidamente con la distancia. De esta manera se explica por qué no hay
quarks libres en el universo, porque fueron confinados poco después de la Gran Explosión.
Al igual que ocurre con la fuerza electromagnética y la fuerza nuclear fuerte, las otras dos fuer-
zas fundamentales de la naturaleza, la fuerza nuclear débil y la fuerza gravitatoria, son también el re-
sultado del intercambio de partículas virtuales. La fuerza nuclear débil, responsable de la desintegra-
ción b y de otras reacciones en las que intervienen neutrinos, es una fuerza de corto alcance causada
por el intercambio de partículas virtuales masivas denominadas bosones W+, W– y Z0. Estas partícu-
las fueron descubiertas en 1983 en el laboratorio europeo del CERN en Ginebra en el transcurso de
experimentos de colisión protón-antiprotón. Los leptones no poseen carga de color e interactúan en-
tre sí y con los quarks mediante la interacción electromagnética y débil intercambiando bosones g,
W± o Z0. Ambas interacciones se pueden combinar en lo que denominamos teoría electrodébil, esta-
blecida a mediados de los años sesenta por Weinberg, Glashow y Salam. Los quarks que sí tienen car-
ga de color interactúan entre ellos a través de la interacción fuerte intercambiando gluones. En estos
procesos, los quarks cambian de color pero no de sabor, mientras que los procesos debidos a las inte-
racciones débiles pueden cambiar de sabor pero no de color.
En cuanto a la fuerza gravitatoria, al igual que la fuerza electromagnética, es una fuerza de largo
alcance. Para este tipo de fuerzas se requiere que Dt sea mucho más grande y DE mucho más pequeño
que para las fuerzas de corto alcance como la fuerza nuclear. De hecho, la teoría cuántica de campos es-
tablece que las fuerzas de largo alcance son debidas a partículas de masa en reposo cero. Así, la fuerza
electromagnética es producida por el intercambio de fotones virtuales, y la fuerza gravitatoria es causa-
da por el intercambio de unas partículas virtuales denominadas gravitones, todavía no detectadas.
En la tabla 3 se muestran las fuerzas fundamentales de la naturaleza, ordenadas en función de su
intensidad relativa, y se especifica la partícula virtual (bosón gauge) que provoca la interacción.

Fuerza Intensidad relativa Partícula virtual


Nuclear fuerte 1 Gluones
Electromagnética 10–2 Fotón
Nuclear débil 10–13 W± y Z 0
Gravitatoria 10–40 Gravitón

Tabla 3. Fuerzas fundamentales de la naturaleza.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 595


Volumen II. Física II

A continuación vamos a estudiar las características de cada una de estas interacciones funda-
mentales y haremos mención a las partículas portadoras de fuerza asociadas a cada una de ellas.

2. FUERZA FUERTE
La fuerza fuerte, también denominada fuerza nuclear fuerte, es
la que mantiene unidos los protones y neutrones que componen los
n
p núcleos atómicos y contrarresta la repulsión mutua entre los proto-
nes cargados positivamente que tienden a separar los núcleos. Es la
fuerza fundamental más intensa y es de corto alcance, del orden de
10–15 m, es decir el diámetro de un núcleo de tamaño medio.
p n
Ya que los protones y neutrones que forman los núcleos están
p
constituidos a su vez por quarks y se considera que los quarks se
mantienen unidos mediante la fuerza de color, la fuerza fuerte pue-
de ser considerada como una fuerza de color residual.
La partícula de intercambio en la interacción fuerte son los piones
(mesones p) como se muestra en la figura 3. Estas partículas son meso-
Figura 3. Diagrama de nes (partículas de masa intermedia) que están compuestas por un quark
Feynman para la interacción y un anti-quark. Como todos los mesones, el pión es un bosón que son
fuerte. partículas que tienen spin entero y por tanto no están limitados por el
principio de exclusión de Pauli. En la tabla (4) se muestran las caracte-
rísticas fundamentales de estas partículas.

Masa en
Partícula Símbolo Antipartícula Constituyentes Vida media Decaimiento
reposo

Pión p+ p– ud 139,6 2,6 ´ 10–8 m + nm

uu + dd
Pión p0 p0 135,0 0,83 ´ 10–16 2g
2

Tabla 4. Características de los piones.

Los piones interactúan con los núcleos y transforman un


verde
neutrón en un protón y viceversa:
azul
verde-antiazul
p + + AZ N ® p +AZ– 1 N (9)

verde
azul
p – + AZ N ® n+ AZ –– 11 N (10)

Como hemos dicho anteriormente, la fuerza nuclear fuerte


puede considerarse como una fuerza residual de color. Esta
fuerza sería la que mantiene unido a los quarks. Esta interac-
Figura 4. Diagrama de ción entre quarks tiene lugar mediante una partícula virtual de-
Feynman en una interacción nominada gluón. Los gluones generan un cambio de color en
entre quarks. los quarks como se muestra en la figura 4.

596 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Fuerzas fundamentales de la naturaleza

3. FUERZA ELECTROMAGNÉTICA
Desde el punto de vista macroscópico es la fuerza, junto con la gravitatoria, que experimenta-
mos en la vida diaria. Es la segunda fuerza en intensidad, pero aun así es el 1% de intensa que la fuer-
za nuclear fuerte. La fuerza electromagnética se manifiesta a través de la fuerza entre cargas (ley de
Coulomb) y de la fuerza magnética, ambas aglutinadas en la fuerza de Lorentz. Ambas fuerzas son
manifestaciones de una fuerza de intercambio en la que se producen intercambio de fotones.
La fuerza electromagnética es inversamente proporcional al cuadrado de la distancia y por con-
siguiente es de alcance infinito. Es la responsable de la fuerza de atracción que mantiene unidos a los
electrones con los protones formando los átomos. Por otra parte, las fuerzas electromagnéticas resi-
duales entre átomos eléctricamente neutros son también las responsables de unir átomos para formar
moléculas. A distancias atómicas y moleculares la fuerza electromagnética es más intensa que las
otras tres fuerzas fundamentales, cuyos efectos pueden despreciarse en la determinación de la estruc-
tura atómica y molecular.
La partícula de intercambio responsable de la interacción elec-
tromagnética es el fotón. Es decir, los fotones (o partículas g) son
las partículas portadoras de la fuerza electromagnética. Así, por e- g e-
ejemplo, la fuerza entre dos electrones puede visualizarse en térmi-
nos de los diagramas de Feynman como se muestra en la figura 5. El
alcance infinito de la fuerza electromagnética es consecuencia de
que la masa en reposo de los fotones es cero. Pero si bien su masa en e- e-
reposo es cero, el momento de los fotones es finito, por lo que puede
ejercer una fuerza. Por otro lado, los fotones son partículas de spin
igual a la unidad. Por tanto, en aquellos procesos electrónicos en los
que se produzca la emisión de un fotón el resultado debe ser la dis-
minución del momento angular del sistema en una unidad. Esto
constituye una de las reglas de selección que permiten establecer Figura 5. Diagrama de
qué transiciones electrónicas pueden producirse y qué transicio- Feynman para la fuerza
nes no pueden tener lugar. electromagnética.

4. FUERZA DÉBIL
La fuerza débil ocurre para todas la partículas fundamentales excepto para los gluones y fotones
e implica el intercambio y la producción de bosones intermedios W o Z. Puesto que las masas de estas
partículas es del orden de 80 GeV, el principio de incertidumbre establece que el alcance de esta fuer-
za es del orden de 10–18 m, es decir, alrededor de la centésima parte del diámetro de un protón. Debido
a este alcance muy corto los efectos de la fuerza débil son despreciables en la materia ordinaria, sin
embargo juegan un papel crucial en la estructura del universo que conocemos hoy. Así, se tiene que:
1. El Sol no podría quemarse sin ella, ya que la interacción débil es la responsable de la transmuta-
ción de los protones en neutrones de manera que se puede producir deuterio que puede fusionarse.
2. Es necesaria para la formación de los núcleos pesados.

El papel tan importante que representa la interacción débil es debido a que esta fuerza débil es la
responsable de los cambios de sabor de los quarks: cualquier tipo de quark puede convertirse en otro
tipo con una carga eléctrica diferente emitiendo o absorbiendo un bosón W. Es decir, que hay unas
pautas en el decaimiento de los quarks: un quark de carga +2/3 (u, c, t) se transforma en un quark de
carga –1/3 (d, s, b), y viceversa. Esto se debe a que el proceso tiene lugar por el intercambio de boso-
nes W cargados, los cuales deben cambiar la carga en una unidad. Por otra parte, la pauta general es

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 597


Volumen II. Física II

que los quark decaen desde un quark masivo a otro menos masivo, pero de entre todos estos al quark
más masivo posible. Esto se debe a que el proceso contrario violaría el principio de conservación de
la energía. Sin embargo, en los procesos de dispersión se pueden producir los procesos inversos con
tal de que se disponga de suficiente energía.
En la figura 6 se indican esquemáticamente las probabilidades de las diferentes posibles transicio-
nes entre quarks y a continuación se dan algunos de los procesos en los que tienen esas transiciones:
+ +
p + p ® p n + e + ne (u ® d + W ) (11)

n ® p + e– + n e (d ® u + W – ) (12)

K– ® p 0 + e– + n e (s ® u + W – ) (13)

-1/3 2/3 Carga


1 u
d
10
Decaimientos:
Masa (MeV/c2)

2
10 s
Más probable
3
Raro 10
c
b
Muy raro 104
105
t

Figura 6. Transiciones entre quarks.

El papel de la interacción débil en la transmutación de los quarks hacen que esta interacción se
vea involucrada en muchos procesos de decaimientos de partículas nucleares que requieren el cambio
de sabor de un quark. Cualquier proceso en el que el número de partícula menos el número de antipar-
tículas de un tipo de quark o leptón dado cambia es un proceso de decaimiento débil en el que se pro-
duce un intercambio de bosones W. El decaimiento débil es, así, el responsable de que la materia
ordinaria esté compuesta de quarks arriba y abajo y de electrones. La materia que contiene quarks
más masivos o leptones más masivos sería inestable.
Los procesos que involucran bosones Z son todavía más difíciles de encontrar y no fueron reco-
nocidas hasta que la teoría electrodébil predijo su existencia a principios de los años setenta. A partir
de entonces, cuidadosas investigaciones encontraron procesos que sólo podían explicarse mediante
este tipo de interacción. El descubrimiento en 1983 de los bosones W y Z confirmó las teorías electro-
débil que conectan la fuerza débil con la electromagnética.
La interacción débil fue reconocida por primera vez cuando se intentó catalogar los tipos de ca-
denas de decaimiento radiactivo nuclear como el decaimiento a, b y g. Los decaimientos a y g pueden
entenderse en términos de otras interacciones conocidas (residual fuerte o electromagnética, respecti-
vamente), pero el decaimiento b era imposible de explicar sin la introducción de otro tipo de interac-
ción, denominada débil. Un proceso de decaimiento b es un proceso en el que un neutrón desaparece
y se produce un protón, un electrón y un antineutrino del electrón. De acuerdo con el modelo estándar
el neutrón se compone de un quark arriba (up) y dos quarks abajo (down) mientras que el protón está
formado por dos quarks arriba y uno abajo. Por consiguiente, en el decaimiento desaparece un quark
abajo y se producen un quark arriba y un bosón W. El bosón entonces desaparece dando lugar al elec-
trón y al antineutrino del electrón. Este proceso es el que se produce en la figura 7a. En ella podemos
ver los diagramas de Feynman de otros procesos en el que se producen intercambios de bosones W o
Z. En la figura 7b se representa la interacción de un neutrón y de un neutrino mediante el intercambio
de un bosón W– de manera que el neutrón se transforma en un protón y el neutrino en un electrón. Este

598 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Fuerzas fundamentales de la naturaleza

mismo proceso se representa en la figura 7c en el que se obtiene el mismo resultado. Vemos que la ab-
sorción del bosón W– por el neutrino es equivalente a la absorción del bosón W+ por el neutrón. Por
último en la figura 7d se muestra cómo el neutrón o protón puede interactuar con un neutrino o anti-
neutrino por medio del intercambio de un bosón Z0.

_ n, p _
n _
_
e n, n
e _
e
n p p
- Z0
W -
p W
n n W+ n
p, n _
n, n
a) b) c) d)

Figura 7. Diagramas de Feynman para algunos procesos


de decaimiento mediante la interacción débil.

5. FUERZA GRAVITATORIA
La fuerza gravitatoria es la más débil de las cuatro fuerzas fundamentales de la naturaleza y es
una fuerza de largo alcance. La interacción gravitatoria tiene lugar entre dos objetos que tienen ener-
gía, siendo la masa una de las formas de esta energía (recordemos que los fotones son partículas de
masa en reposo cero pero que experimentan la fuerza gravitatoria).
La interacción gravitatoria entre las partículas fundamentales es extremadamente débil (aproxi-
madamente 30 órdenes de magnitud más pequeña que la interacción débil), por lo que sus efectos son
ignorados en los procesos de la física de partículas en la que se ven involucradas un número pequeño
de éstas. Sin embargo, a escala macroscópica la fuerza gravitatoria es la responsable de la estructura
del universo y de la formación de estrellas y galaxias. La razón por la que la fuerza gravitatoria es una
fuerza importante es que no hay energía negativa, por lo que los efectos gravitatorios de todos los ob-
jetos se suman. Imaginemos por ejemplo la Tierra: las cargas eléctricas están equilibradas, por lo que
la fuerza electromagnética sobre un objeto en la superficie terrestre será pequeña; por el contrario las
masas de todos los objetos sobre la superficie terrestre se suman para dar lugar a un efecto gravitato-
rio importante sobre los objetos en la superficie. Desde el punto de vista fundamental, la fuerza gravi-
tatoria es la menos entendida de todas ellas. Se piensa que la partícula portadora de fuerza
responsable de la interacción es un bosón sin masa (como el fotón) y de spin 2 denominado gravitón.
Sin embargo, no hay hoy en día una teoría cuántica de la gravitación satisfactoria. Además, la natura-
leza extremadamente débil de la fuerza gravitatoria hace que sus efectos se vean tapados por la inten-
sidad de las otras fuerzas, por lo que resulta tremendamente difícil la detección de los gravitones.

6. ESTADO ACTUAL DE LAS TEORÍAS DE UNIFICACIÓN


El objetivo de la física es la búsqueda de principios que gobiernan el comportamiento de la ma-
teria y de sus interacciones. Ahora bien, la meta final es la explicación de la naturaleza de una forma
unificada, como lo indican los grandes avances realizados en los siglos pasados. Así por ejemplo,
Newton consiguió la unificación de la mecánica celeste y la terrestre; Maxwell, la unificación de la
electricidad, el magnetismo y la óptica; y Einstein logró la unificación de la geometría del espa-
cio-tiempo con la teoría de la gravitación.
En la actualidad es mucho lo que se conoce sobre la naturaleza del universo: existen dos tipos de
partículas fundamentales, leptones y quarks; y las interacción tiene lugar mediante cuatro fuerzas fun-
damentales, fuerte, débil, electromagnética y gravitatoria. Sin embargo, los físicos ven una excesiva
complicación en que existan dos tipos de partículas diferentes y cuatro fuerzas distintas. La creencia ge-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 599


Volumen II. Física II

neral es que en el origen del universo, cuando la temperatura era muy alta comparada con la actual, las
fuerzas fuerte, débil y electromagnética estaban unificadas en una sola fuerza. Sólo cuando la tempera-
tura descendió se produjo la separación de estas fuerzas: en primer lugar se separó la fuerte, y posterior-
mente la débil y la electromagnética. El proceso de separación de estas fuerzas se conoce como ruptura
espontánea de la simetría. Otra especulación es que a temperaturas todavía más altas (escala de Planck)
las cuatro fuerzas fundamentales estaban unidas en una sola fuerza y al descender la temperatura la gra-
vitación se separó de las otras fuerzas fundamentales. Como se puede apreciar en la figura 8 estas sepa-
raciones tuvieron lugar en instantes diferentes de la evolución del universo, a partir del big bang, y a
temperaturas muy por encima de la temperatura actual del universo (10–12 GeV). En consecuencia, los
físicos ambicionan formular una teoría que unifique todas las fuerzas fundamentales en una.

Figura 8. Cronología de la separación de las fuerzas


fundamentales.

Las teorías que postulan la unificación de las fuerzas fuerte, débil y electromagnética se denomi-
nan teorías de gran unificación, conocidas también abreviadamente como GUTs (iniciales del inglés
Grand Unified Theories). Las teorías que añaden la fuerza gravitatoria e intentan unificar las cuatro
fuerzas fundamentales se denominan teorías de superunificación (Superunified Theories).
A continuación vamos a exponer de forma breve los pasos dados en el campo de la física teórica
para encontrar esa teoría de la unificación de las fuerzas fundamentales y vamos a comentar los éxitos
parciales y los problemas encontrados en cada una de las teorías.

6.1. Modelo estándar


El primer paso para lograr la unificación de las fuerzas fundamentales lo constituyó la teoría
electrodébil formulada por Sheldon L. Glashow, Abdus Salam y Steven Weinberg que consiguió uni-
ficar las fuerzas electromagnética y débil. Esta teoría constituye la base de la teoría actual de las partí-
culas elementales y las fuerzas fundamentales, la cual se ha denominado modelo estándar. Por otra
parte, el modelo estándar también da una descripción similar de la fuerza fuerte, pero de una forma
separada. Sin embargo, ambas teorías tienen la misma forma general: son teorías gauge.
Una teoría gauge es una clase de teoría cuántica de campos (que involucra a la mecánica cuánti-
ca con la teoría especial de la relatividad) en la que hay un grupo de transformaciones de las variables
del campo (transformaciones gauge) que dejan la física básica del campo cuántico invariante. Esta
condición, denominada invariancia gauge, da a la teoría una simetría que gobierna sus ecuaciones.
Dicho de otra manera, la estructura del grupo del grupo de transformaciones gauge en una determina-
da teoría lleva consigo restricciones generales en la forma en la que el campo descrito por la teoría in-
teracciona con otros campos y con las partículas elementales.

600 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Fuerzas fundamentales de la naturaleza

La primera teoría gauge fue la teoría electromagnética de Maxwell. El carácter de la simetría que
hace que la teoría de Maxwell sea una teoría gauge puede ser entendido con un ejemplo sencillo. Su-
pongamos que en un laboratorio tenemos una distribución de cargas y que medimos el campo electro-
magnético producido por la distribución. Es evidente que si las cargas son estacionarias no habrá
campo magnético. Si ahora elevamos todo el sistema a un potencial más alto y se repiten las medidas
no se observará ningún cambio en el campo eléctrico, puesto que el campo eléctrico depende de la di-
ferencia de potencial y no del valor absoluto del potencial eléctrico. Esta propiedad de la teoría del
campo electromagnético de Maxwell corresponde a una simetría: el campo eléctrico es invariante
respecto a la suma de un potencial constante arbitrario. Un aspecto interesante que merece la pena
destacar es que la simetría descrita anteriormente es de tipo global y no local. Si se aumentara el po-
tencial en una región del laboratorio y en otra no, los resultados experimentales serían distintos. Aho-
ra bien, la teoría electromagnética de Maxwell estudia no sólo las distribuciones estáticas de carga
sino también las cargas en movimiento, que dan lugar a campos magnéticos. Son precisamente los
efectos del campo magnético los que hacen que la teoría electromagnética sea simétrica localmente.
La moderna teoría que explica la interacción electromagnética es la electrodinámica cuántica,
conocida abreviadamente como QED, de las iniciales en inglés de Quantum Electrodynamics. El sis-
tema matemático que describe la teoría está relacionado con un grupo de simetría que se designa por
U(1). Esta simetría refleja dos hechos: la conservación de la carga y que el fotón no tenga masa. El 1
significa que el fotón sólo interacciona con una clase de partículas en un instante. Según esta teoría la
interacción protón-protón constituye una medida de la intensidad mínima de la interacción electro-
magnética. Esta cantidad se denomina constante de acoplamiento electromagnética y constituye una
medida de la interacción electromagnética. Esta constante de acoplamiento se designa por aE.
La electrodinámica cuántica ha sido el modelo utilizado para construir las teorías que abordan
las otras fuerzas de la naturaleza. Es el caso, por ejemplo, de la teoría que hoy prevalece para la fuerza
fuerte, denominada cromodinámica cuántica o QCD que se construyó sobre los mismos principios
que la QED. Ahora bien, la electrodinámica cuántica es una teoría más compleja debido a que en la
fuerza fuerte actúan tres clases de fuerza de color. La cromodinámica cuántica es una teoría SU(3), en
donde el 3 se refiere a los tres colores que se transforman en las interacciones a través de los gluones y
la S indica que la suma de la carga de color en cada familia SU(3) es nula. La simetría de la teoría está
relacionada con la conservación de la carga de color y con el hecho de que los gluones carecen de
masa. Al igual que en la QED, la intensidad de la fuerza fuerte viene dada por un parámetro de aco-
plamiento designado por as que disminuye con la distancia, o lo que es lo mismo disminuye confor-
me aumenta la energía.
Para el análisis de la fuerza débil es necesario tener en cuenta el momento angular de spin. Tanto
leptones como quarks son partículas de spin 1/2, por lo que el momento angular sólo puede tener dos
orientaciones posibles. Cuando el momento de spin está alineado con la dirección del movimiento de
la partícula se dice que la partícula es dextrógira, mientras que en el caso contrario se dice que es levó-
gira. En general, una partícula tiene componentes dextrógiro y levógiro y deben distinguirse los esta-
dos de diferente helicidad debido a que la fuerza débil actúa de diferente manera sobre las componen-
tes dextrógiras y levógiras. Al igual que el resto de fuerzas, la intensidad de la fuerza débil se puede
definir mediante una constante de acoplamiento designada por aw. También de forma análoga a las
demás fuerzas, la fuerza débil se encuentra asociada a una carga, sin embargo es poco usual debido a
que la carga depende de la helicidad. Desde el punto de vista de la teoría de grupos, la fuerza débil se
describe mediante una teoría SU(2), debido a que la fuerza débil actúa sobre dobletes de partículas en
la que los dos miembros del doblete pueden transformarse entre sí.
Las relaciones encontradas entre la teoría electromagnética y la teoría de la fuerza débil llevaron
a formular una teoría unificada para ambas fuerzas denominada teoría estándar electrodébil y desig-
nada por el producto de los grupos de simetría que incorpora: SU(2) U(1). Para poder llegar a esta
conclusión era necesario aclarar el mecanismo por el que el fotón (mediadores de la interacción elec-
tromagnética) llega a tener masa cero, mientras que los bosones W y Z (mediadores de la interacción
débil) tienen una masa grande. La respuesta más aceptada es que efectivamente la fuerza electrodébil

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 601


Volumen II. Física II

es simétrica y originalmente todos los mediadores son de masa cero, pero la estructura no simétrica
del vacío es la que rompe espontáneamente la simetría, dando lugar a que los mediadores de la fuerza
débil adquieran masa, mientras que el fotón sigue con masa nula. Sin embargo, la teoría electrodébil
es una teoría de unificación parcial puesto que incluye todavía dos fuerzas diferentes, cada una con su
grupo de simetría y su propia constante de acoplamiento, siendo el cociente de ambas constantes un
parámetro libre que se elige para ajustar los datos experimentales.
El modelo estándar hace muchas previsiones, las cuales están siendo chequeadas en los acelera-
dores de partículas, pero presenta algunas deficiencias importantes. Por ejemplo: no predice los valo-
res de las constantes de acoplamiento, no explica por qué hay tres generaciones de leptones y quarks y
tampoco predice las masas de los leptones y de los quarks. Por otra parte hay algunas cuestiones que
permanecen abiertas como son la posible existencia de una relación entre la fuerza fuerte y electrodé-
bil, la relación entre leptones y quarks, y por supuesto la incorporación de la gravedad a las demás
fuerza fundamentales. La respuesta a estas cuestiones va mas allá del modelo estándar y nos lleva a
las teorías de gran unificación, las teorías supersimétricas y la teoría de las supercuerdas.

6.2. Teorías de Gran Unificación (GUTS)


0,15
Las teorías de gran unificación pretenden
aglutinar en una única fuerza las interacciones elec-
Intensidad de la Fuerza

trodébil (electromagnética y débil) con la fuerza


0,10 fuerte. En este caso, todas las interacciones serían
aspectos diferentes de una sola fuerza y por con-
Fuerte
Débil siguiente, en la unificación, los valores de las di-
0,05 ferentes constantes de acoplamiento deberían ser
el mismo. La extrapolación de los datos actuales
Electromágnetica indican que las constantes de acoplamiento con-
0,00 fluirían en un mismo valor si la energía de las par-
4 8 12 18
10º 10 10 10 10 tículas fuese del orden de 1016 GeV (figura 9). A
la energía de la gran unificación las cosas serían
Figura 9. Constantes de acoplamiento de las altamente simétricas, rompiéndose esta simetría a
distintas fuerzas en función de la energía. energías más bajas y dando lugar al desacopla-
miento de las diferentes fuerzas.
Por consiguiente, la tarea de construir una teoría de gran unificación consiste en encontrar una
superestructura que englobe las teorías de la fuerza fuerte y de la electrodébil. Esta superestructura
debería tener la forma de una simetría mayor que relacionara íntimamente a los leptones con los
quarks. La teoría más simple es denominada SU(5) y fue propuesta en 1973 por Sheldon L. Glashow
y Howard Georgi. En esta teoría se necesitan 24 partículas intermedias que den cuenta de todas las
transformaciones posibles. De estas partículas 12 son ya conocidas y permiten explicar todas las inte-
racciones observadas hasta ahora: el fotón, los bosones intermedios de la fuerza débil (W+, W– y Z0) y
8 gluones de intercambio de la fuerza fuerte. La teoría incluye otras 12 partículas: 2 con carga eléctri-
ca 1/3 y color (YR, YG, YB), 3 con carga eléctrica 4/3 y color (XR, XG, XB), y 6 antipartículas. Estos 12
bosones X e Y se denominan leptoquarks y serían los responsables de la transformación de leptones en
quarks y viceversa.
Una consecuencia de este modelo es la desintegración del protón. Los cálculos realizados a par-
tir de esta teoría establecerían una vida media de los protones del orden de 1032 años. Varios experi-
mentos se han puesto en marcha para detectar la desintegración del protón. Evidentemente uno no
puede estar observando un protón y esperar 1032 años para observar su desintegración, por lo que el
planteamiento es ligeramente diferente: se trata de observar 1032 protones durante un año y ver si se
produce una desintegración. Los resultados de los experimentos actuales no han dado muestra de de-
sintegración alguna. Otra de las consecuencias de la teoría de la gran unificación es la existencia de
monopolos magnéticos, algo que todavía no ha sido observado.

602 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Fuerzas fundamentales de la naturaleza

En la actualidad, las teorías de gran unificación no se consideran la mejor vía de conseguir la


unificación de las fuerzas fundamentales. Entre sus fallos están los que hemos comentado más arriba,
y, algo más importante todavía, que la teoría no predice nada nuevo en un margen de energía com-
prendido entre los 100 GeV y los 1016 GeV. Además, se plantea un problema denominado problema
de jerarquía que manifiesta la enorme diferencia entre las masas de las partículas y la escala natural de
energía de la gran unificación.

6.3. Supersimetrías (SUSY)


La necesidad de entender la diferencia de energías entre la escala natural de unificación y la
energía de las partículas llevó a los físicos teóricos a plantear diversas teorías que dieran una explica-
ción natural al problema de jerarquía. Una de estas teorías se conoce como supersimetría.
La supersimetría es una simetría que relaciona bosones y fermiones según la cual cada fermión
tiene un supercompañero bosónico y viceversa. Así por ejemplo, los quarks fermiónicos son compa-
ñeros de squarks bosónicos. Es decir, que los quarks y los squarks pertenecen a la misma representa-
ción irreducible de la supersimetría. Análogamente, los gluones bosónicos son los compañeros de los
gluinos fermiónicos. Los nombres de estos compañeros se construyen añadiendo una s al comienzo
del nombre del fermión correspondiente o añadiendo el sufijo ino a los nombres de los bosones co-
rrespondientes. Los símbolos de los supercompañeros se obtienen colocando una tilde (~) sobre el
símbolo de la partícula. En la tabla (5) se muestran algunos de los supercompañeros de las partículas
del modelo estándar.

Nombre partícula Símbolo Nombre supercompañero Símbolo


electrón e selectrón ~
e
quark q squark q~
fotón g fotino ~
g
gluón g gluino g~
~
bosón W W wino W
~
bosón Z Z zino Z

Tabla 5. Nombres y símbolos de algunos supercompañeros


de las partículas del modelo estándar.

Las partículas que están emparejadas por la supersimetría deben tener la misma masa. Puesto
que las partículas que se conocen en la actualidad no se producen en parejas con la misma masa, la su-
persimetría debe romperse a alguna escala energía. Por encima de esta energía la supersimetría se
pondría de manifiesto pero no por debajo de ella. En consecuencia, los supercompañeros deberían ser
observados en aceleradores de partículas que operen a energía por encima de la energía límite.
Hay algunos indicios que apuntan a que la supersimetría tendría lugar a una energía del orden del
TeV, de manera que las masas de las partículas supercompañeras de las partículas del modelo estándar
sería del orden de los TeV o menor. Por una parte, esto explicaría el problema de la jerarquía puesto que
la ruptura de la simetría que da lugar a las masas de las partículas tiene lugar muy por debajo de la ener-
gía de la unificación de las fuerzas fundamentales. Por otro lado, esto supone una predicción importante
puesto que la próxima generación de experimentos diseñados en el Fermilab y el CERN explorarán un
rango de energía en el que deberían aparecer estos primeros supercompañeros. No obstante, antes del
año 2020 en el Large Hadron Collider deberían ser descubiertas y en un par de décadas conoceremos si
la supersimetría se produce a esas energías. Desde luego, el descubrimiento de estos supercompañeros

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 603


Volumen II. Física II

de las partículas del modelo estándar supondría un éxito de la física teórica, que ha predicho su existen-
cia muchos años antes de que puedan ser descubierta experimentalmente.
La supersimetría presenta ciertas ventajas que son las siguientes:
1. Los problemas de cálculos se resuelven introduciendo partículas supercompañeras de signos
opuestos.
2. Unifica fermiones y bosones.
3. Pueden ser extendidas para incluir la geometría del espacio tiempo y por consiguiente la gravedad.

El único fallo es que no hay evidencia experimental alguna sobre toda la teoría.

6.4. Cuerdas y supercuerdas


Si las partículas son de dimensiones finitas no son fun-
damentales y deben estar compuestas de otra cosa. Las par-
tículas fundamentales son puntuales y no tienen un tamaño
medible, pero los objetos puntuales conducen a infinitos.
Cuerda abierta Por ejemplo, el campo eléctrico en la superficie de una par-
tícula de radio a y carga Q viene dado por E = Q/4pe0a2,
que tiende a infinito cuando el radio tiende a cero. La teoría
de las cuerdas se basa en la idea de que las partículas funda-
mentales no son puntuales sino que son como cuerdas, y pue-
den ser abiertas o cerradas como se muestra en la figura 10.
Cuerda cerrada Estas teorías están formuladas en un espacio de 10 o más di-
mensiones y se basan en los trabajos de Kaluza y Klein que
Figura 10. Las cuerdas como datan de los años veinte.
constituyentes últimos de la materia.
Al igual que una partícula tiene una masa intrínseca,
una cuerda tiene una tensión intrínseca; y al igual que las par-
tículas están sujetas a la teoría de la relatividad especial, las cuerdas deben ser también relativistas.
Por último, se tiene que disponer una mecánica cuántica de las cuerdas, de la misma forma que se tie-
ne una mecánica cuántica para las partículas. La presencia de una tensión intrínseca define la escala
de energía a la cual llegan a ser importantes los efectos de las cuerdas (efectos asociados a las oscila-
ciones de las cuerdas).
Una cuerda cuántica debería tener una infinidad de modos de oscilación discretamente espacia-
dos, de forma análoga a las cuerdas de un instrumento musical. Estos modos estarían localizados en la
inmediación de las cuerda y se comportarían como partículas fundamentales con masas diferentes re-
lacionadas con las frecuencias de oscilación. De esta manera, una sola especie de cuerda podría pro-
ducir todo un conjunto de excitaciones asociadas a diferentes partículas.
Un aspecto poco agradable de esta teoría relativista de cuerdas fue que sólo podrían existir en un
mundo de 26 dimensiones (25 espaciales y el tiempo). Además otra consecuencia no muy aceptable
de la teoría era que el espectro de las excitaciones de las cuasi-partículas incluía una cuya masa es un
número imaginario, denominada taquión. Sin embargo, algo que pareció interesante fue que otra par-
tícula del espectro de las oscilaciones era una partícula de spin 2 y de masa en reposo cero (por tanto
asociada a una fuerza de alcance infinito). Esta partícula era la que podía ser el gravitón, la partícula
mediadora de la fuerza gravitatoria. Por consiguiente, a pesar de las 26 dimensiones y del taquión, la
teoría de cuerdas se convirtió en la teoría que podía dar una solución a la incorporación de la teoría de
la gravedad en una teoría de unificación de las fuerzas fundamentales.

604 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Fuerzas fundamentales de la naturaleza

6.4.1. Teoría de las supercuerdas


El que la teoría de las cuerdas podría convertirse en la candidata para lograr la unificación de las
fuerzas fundamentales adquirió un relevado énfasis cuando se consiguió una mejor y más refinada
teoría que no contenía taquiones y no necesitaba un número tan alto de dimensiones como 26. Esta
teoría mantenía unidas diversas ideas: supersimetría, unificación y las propuestas de Kaluza-Klein.
Estas teorías se denominan de supercuerdas.
El objeto fundamental de la teoría de las supercuerdas es una supercuerda: una cuerda con gra-
dos extras de libertad que la hace supersimétrica. El postulado básico de la teoría de supercuerdas es
que las vibraciones de un único tipo de cuerda conduce a una multitud de partículas fundamentales.
Ahora bien, la existencia de supersimetría elimina la posibilidad de existencia de taquiones y además
el número de dimensiones se reduce a 10. Por otra parte, en este tipo de teorías se mantiene la presen-
cia del gravitón, por lo que es una teoría de la gravedad, o mejor dicho de la supergravedad o de la ex-
tensión simétrica de la gravedad.
Desde 1985 hasta 1995 (período conocido como primera revolución de las supercuerdas), se
han desarrollado 5 teorías diferentes de supercuerdas, cada una de las cuales requiere 10 dimensio-
nes (9 espaciales y el tiempo) y supone una descripción consistente en el término de una expansión
en serie de potencias en un parámetro denominado constante de acoplamiento. Estas cinco teorías
se denominan: tipo I, tipo IIA, tipo IIB, heterótica E(8) ´ E(8) y heterótica SO(32). Estas teorías
difieren en el número de supersimetrías que poseen y en el tipo de cuerdas utilizadas, abiertas o ce-
rradas, no orientadas u orientadas.
Los últimos años han sido de gran actividad en el campo de las supercuerdas y en 1995 E. Witten
presentó evidencias suficientes de que las cinco teorías desarrolladas en la primera revolución eran
parte de una teoría inherentemente cuántica y no perturbativa conocida como teoría M (inicial que se-
gún las propias palabras de Witten puede significar, según los gustos, magia, misterio o membrana)
que se desarrolla en un espacio de 11 dimensiones. Las diversas teorías están conectadas mediante
una serie de simetrías, denominadas dualidades U, S y T, que a su vez requieren de la existencia de
nuevos objetos conocidos como D-branas, que son las superficies en varias dimensiones en donde
pueden terminar los extremos de las cuerdas. Estas D-branas han encontrado aplicaciones muy inte-
resantes, pero la más notoria de todas se refiere al estudio de los agujeros negros. Diversos trabajos
han mostrado que las D-branas pueden ser utilizadas para contar los estados cuánticos asociados a las
configuraciones clásicas de los agujeros negros y han conseguido reproducir los resultados predichos
por Bekenstein y Hawking.
A pesar de los muchos progresos que se han producido en los últimos años (segunda revolución
de las supercuerdas) en el conocimiento de la teoría de las supercuerdas hay muchas cuestiones de
gran importancia cuya respuesta es todavía desconocida. Como por ejemplo, ¿cómo y por qué se
rompe la supersimetría?, ¿por qué es la constante cosmológica que caracteriza la densidad de energía
del vacío tan pequeña o cero?, ¿qué implicaciones cosmológicas tiene la teoría?, y, sobre todo, ¿por
qué se comporta el universo como lo hace? Desde luego, para encontrar respuestas a estos interrogan-
tes debemos esperar algunos años.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 605


Volumen II. Física II

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano, Bogotá, 1971.


Eisberg, R. y Resnick, R.: Física Cuántica. Limusa, México, 1978.
Fishbane, P. M. , Gasiorowicz, S. y Thornton, S.T.: Physics for Scientist and
Engineers. Prentice Hall, Upper Saddle River, New Jersey, 1996.
Gettys, W. E., Keller, F. J. y Skove, M. J.: Física clásica y moderna. McGraw-Hill,
Madrid, 1991.
Sandin, T. R.: Essential of Modern Phisics. Addison-Wesley Publissing Com-
pany, New York, 1989.

606 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


TEMA

37
Energía nuclear. Principio de
conservación masa-energía. Fisión
y fusión nuclear. Su utilización.
Situación actual. Problemática
de los residuos nucleares

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. REACCIONES NUCLEARES: PRINCIPIOS DE CONSERVACIÓN


1.1. Leyes de conservación
1.2. Energía en las reacciones nucleares
1.3. Núcleo compuesto
1.4. Sección eficaz

2. FISIÓN NUCLEAR
2.1. Descubrimiento de la fisión nuclear
2.2. Fundamentos del proceso de fisión
2.3. Características de la fisión nuclear
2.3.1. Fragmentos de la fisión y distribución de masa
2.3.2. Neutrones emitidos en la fisión nuclear
2.3.3. Cadenas radiactivas de los productos de la fisión
2.3.4. Sección eficaz de fisión
2.3.5. Energía liberada en la fisión
2.4. Reacciones en cadena

3. FUSIÓN NUCLEAR
3.1. Procesos básicos de fusión
3.2. Energía liberada
3.2.1. Sección eficaz de fusión
3.3. Fusión solar

4. UTILIZACIÓN DE LA ENERGÍA NUCLEAR Y SITUACIÓN ACTUAL


4.1. Reactores nucleares de fisión
4.2. Reactores de fusión nuclear
4.3. Armas nucleares

5. PROBLEMÁTICA DE LOS RESIDUOS NUCLEARES

BIBLIOGRAFÍA

608 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

1. REACCIONES NUCLEARES: PRINCIPIOS DE CONSERVACIÓN


La desintegración de los núcleos radiactivos son procesos nucleares aleatorios que ocurren es-
pontáneamente si Q > 0. Sin embargo, existen otros tipos de reacciones nucleares que pueden ocurrir
incluso si Q < 0. Estas reacciones no aleatorias pueden utilizarse para producir isótopos radiactivos,
para producir energía por fisión o fusión y para muchos otros propósitos.
En lo que sigue, nos centraremos en aquellas reacciones nucleares de baja energía. Para iniciar
una reacción de baja energía, una partícula incidente de masa pequeña y con una energía menor de
100 MeV debe chocar con un núcleo en reposo. Las partículas típicas de masa pequeña son los proto-
nes, los neutrones, los deuterones y las partículas a. El resultado de una reacción nuclear es otra partí-
cula de masa pequeña y otro núcleo. La partícula incidente la representamos por x; por X, el núcleo en
reposo; por Y, el núcleo resultante de la reacción; y por y, la partícula de masa pequeña resultante. La
reacción nuclear se escribe como:

x+X®Y+y (1)

o, de forma simplificada, como:

X(x,y)Y (2)

La primera reacción nuclear fue detectada por Rutherford en el año 1919. Bombardeó 14 7 N con
partículas a y obtuvo 178 O y protones. Es decir, Rutherford transmutó el nitrógeno-14 en oxígeno-17:
4
2 He + 147 N® 17
8 O + 11 H (3)

Las reacciones nucleares se pueden clasificar de muchas maneras. Si la partícula incidente y la


partícula resultante es la misma (y, por tanto, también lo son los núcleos X e Y), decimos que el proce-
so es de dispersión (scattering). Si Y e y están en su estado fundamental, decimos que es elástico, e
inelástico si Y o y se encuentran en un estado excitado (del cual, generalmente, decae rápidamente
emitiendo rayos g). En una reacción de transferencia, uno o dos nucleones son transferidos entre el
proyectil y el blanco. Las reacciones también pueden clasificarse por el mecanismo que gobierna el
proceso. Una reacción es directa si en la reacción intervienen pocos nucleones, permaneciendo los
otros como meros espectadores. En el otro extremo se encuentra el mecanismo del núcleo compuesto,
en el que la partícula incidente y el núcleo que hace de blanco se unen momentáneamente compar-
tiendo completamente la energía antes de emitir el nucleón saliente de la reacción.

1.1. Leyes de conservación


En una reacción nuclear, hay una serie de magnitudes que se conservan en el proceso, es decir,
que tienen el mismo valor antes y después de la reacción. Estas magnitudes son:

– El número de nucleones y la carga. En las reacciones de baja energía también se satisface la


conservación del número de protones y neutrones separadamente.
– La energía total.
– El momento lineal.
– El momento angular total.
– La paridad.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 609


Volumen II. Física II

1.2. Energía en las reacciones nucleares


La ley de conservación de la energía relativista total establece que:
2 2 2 2
mxc + Kx + mXc + KX = myc + Ky + mYc + KY (4)
en donde K es la energía cinética de las partículas. En el caso de reacciones de baja energía, se puede
utilizar la aproximación no relativista K = mu2/2.
El valor Q de la reacción se define de forma análoga a como se define en el caso de los procesos
radiactivos, como la diferencia entre la energía de masa de los elementos iniciales y la energía de
masa de los productos de la reacción:
2
Q = (mx + mX – my – mY)c = Ky + KY – Kx – KX (5)

El valor Q puede ser positivo, negativo o cero. Si Q > 0, la masa inicial es mayor que la masa final y la
energía cinética de los productos es mayor que la energía cinética de las partículas iniciales. Es decir,
que parte de la masa nuclear se transforma en energía cinética de los productos de la reacción. A este
tipo de reacciones se les denomina exoérgicas o exotérmicas. Si Q < 0, la reacción se denomina en-
doérgica o endotérmica y parte de la energía cinética de las partículas iniciales se transforma en masa
nuclear o energía de enlace.
Las reacciones endoérgicas sólo tendrán lugar si la energía cinética de la partícula incidente es
mayor que una cierta cantidad que se denomina energía umbral de la reacción. Calculemos, a conti-
nuación, el valor de esta energía umbral en el caso de que el blanco se encuentre en reposo. La reac-
ción de mínima energía es aquélla en la que x y X forman y e Y, los cuales se mueven conjuntamente
después de la reacción. Llamemos m = mx + mX y m´ = my + mY. La conservación de la energía total es-
tablece que:
2 2
mc + Kth = m´c + K´ (6)
Por otro lado, la conservación del momento lineal implica que:
px = p´ (7)
Por otra parte, sabemos que:
2
Ex = Kth + mxc (8)
y
E x2 = p x2 c 2 +( mx c 2 ) 2 (9)
y análogamente:
2
E´ = K´ + m´c (10)
y
2 2 2 2 2
E´ = p´ c + (m´c ) (11)
De las ecuaciones (10) y (11) se tiene que:
2 2 2 2 2 2
(K´ + m´c ) = p´ c + (m´c ) (12)
Por tanto, elevando al cuadrado la expresión (6) y teniendo en cuenta el resultado anterior, se tiene
que:
2 2 2 2 2 2
(mc + Kth) = p´ c + (m´c ) (13)

610 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

Por otra parte, de las ecuaciones (8) y (9) se tiene que:

p x2 c 2 = K th2 + 2K th mx c 2 (14)

Y teniendo en cuenta la conservación del momento dada por (7):

p' 2 c 2 = K th2 + 2K th mx c 2 (15)

Sustituyendo ahora esta expresión en (13):

( mc 2 + K th ) 2 = K th2 + 2K th mx c 2 + ( m' c 2 ) 2 (16)

Agrupando términos y despejando, se tiene que:

( m2 – m' 2 ) 2
K th = – c (17)
2( m – mx )

Si tenemos en cuenta ahora que m – mx = mX, y escribiendo la diferencia de cuadrados como el pro-
ducto de la suma por la diferencia, se tiene que:
( m+ m' )
K th = – ( m – m' )c 2 (18)
2mX

Ahora bien, m – m’ = mx + mX – my – mY, por lo que, teniendo en cuenta la definición del valor de Q
dada por (5), la expresión anterior la podemos escribir como:
mx + mX + m y + mY
K th = –Q (19)
2mX

En el caso de reacciones de baja energía, en las que Q es mucho más pequeña que las energías en
reposo de las partículas, de la expresión (5) se tiene que mx + mX • my + mY, por lo que la expresión (19)
se reduce a:
mx + mX
K th = –Q (20)
mX

1.3. Núcleo compuesto


Se tiene evidencia experimental de que las reacciones de baja energía tienen lugar en dos etapas:
1. La partícula incidente se combina con el núcleo X para formar un núcleo simple en un estado ex-
citado que se denomina núcleo compuesto.
2. Posteriormente, el núcleo compuesto decae en el núcleo Y emitiendo una partícula y.

El núcleo compuesto tiene una vida aproximada de 10–14 s, la cual es demasiado pequeña para
que se pueda medir de forma directa en la actualidad. Una de las razones fundamentales para usar el
modelo del núcleo compuesto es que se forman en la misma proporción los mismos productos de di-
ferentes reacciones, aun cuando se usan diferentes partículas iniciales x y X. Es decir, el núcleo com-
puesto olvida cómo ha sido formado y decae gobernado por reglas estadísticas.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 611


Volumen II. Física II

En la representación de una reacción nuclear, un núcleo compuesto en un estado excitado se re-


presenta mediante un asterisco. Así, por ejemplo, se escribe:
4
2 He + 147 N ® 18
9 F* ® 17
8 O + 11 H (21)

1.4. Sección eficaz


Cuando una partícula x se acerca a un núcleo X, hay una cierta probabilidad de que se produzca
una reacción nuclear. En física nuclear, la probabilidad de que se produzca una reacción se describe
por medio de una sección eficaz definida como un área que es proporcional a dicha la probabilidad.
Las secciones eficaces se definen experimentalmente como sigue. Supongamos una muestra so-
bre la que incide una corriente Ix de partículas x, y sea N el número de núcleos por unidad de área ex-
puestos al haz incidente. Si el número de partículas y que salen de la reacción por unidad de tiempo es
Ry, la sección eficaz de la reacción viene dada por:
Ry
s( x, y ) = (22)
IxN

De la definición vemos que tiene las dimensiones de una superficie por núcleo. La sección eficaz se
suele expresar en barn (b), siendo 1 b = 10–28 m. Cada proceso para el mismo núcleo tiene su propia sec-
ción eficaz. Así, por ejemplo, existe una sección eficaz para dispersión elástica, otra para dispersión
inelástica, otra para captura de neutrones, etc.
Para una partícula incidente x, pueden resultar varias partículas salientes diferentes (y, y´, y´´ que
corresponden a diversos canales de la reacción, cada uno de los cuales tiene su propia sección eficaz
s(x,y), s(x,y´)... La sección eficaz total de la reacción para una partícula incidente x es:

s(x) = st = s(x,y) + s(x,y´) +... (23)

La sección eficaz depende del tipo de reacción y es también una función de la energía de las par-
tículas incidentes. A menudo, la sección eficaz presenta picos muy pronunciados denominados reso-
nancias, que corresponden a los valores de la energía para los cuales la reacción está más favorecida o
es más probable y que están íntimamente relacionados con los niveles de energía del núcleo com-
puesto. En la figura 1 se muestra la sección eficaz de captura de neutrones para el aluminio.

20
Sección eficaz (mb)

16 –4

12 –3

8 –2

4 –1

0 0
0 50 100 150 200 250 300 350 400 450 500

E (keV)

Figura 1. Sección eficaz de captura de neutrones para el aluminio.

612 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

2. FISIÓN NUCLEAR
La fisión nuclear es la ruptura del núcleo de un átomo en dos núcleos más ligeros. Principalmente,
suele ocurrir en el caso de núcleos pasados y puede producirse de forma espontánea o de forma inducida
por la excitación de los núcleos mediante el bombardeo con una serie de partículas tales como neutro-
nes, protones o partículas a, o bien mediante la radiación electromagnética en la forma de rayos g.
En un proceso de fisión nuclear, como resultado se obtienen productos radiactivos, se libera una
cierta cantidad de energía y se produce la emisión de neutrones. Estos neutrones pueden, a su vez, in-
ducir el proceso de fisión en núcleos vecinos de material que pueda experimentar el proceso de fisión,
lo cual produce, a su vez, la emisión de nuevos neutrones. Este proceso puede repetirse dando lugar a
una reacción en cadena en la que se fisiona un gran número de núcleos y en la que se libera una gran
cantidad de energía. Si este proceso en cadena es controlado, se puede utilizar para proporcionar
energía utilizable por la sociedad. Los procesos no controlados dan lugar a una explosión de una fuer-
za destructiva impresionante.

2.1. Descubrimiento de la fisión nuclear


El origen del desarrollo de la física nuclear fue el descubrimiento del neutrón por James Chad-
wick en 1932. A partir de este momento, parecía natural estudiar el comportamiento de los núcleos
cuando se exponían a estas partículas. Enrico Fermi y sus colaboradores realizaron una serie de expe-
rimentos con el objeto de estudiar las reacciones nucleares producidas por el bombardeo de muchos
núcleos con neutrones. Descubrieron que muchos, tras la captura de neutrones, decaían mediante la
emisión de partículas b–: el núcleo intentaba compensar el aumento de neutrones convirtiendo un
neutrón en un protón, y el resultado era un núcleo con un número atómico mayor en una unidad.
El paso siguiente consistió en utilizar esta técnica de incrementar el número atómico para obte-
ner elementos transuránicos, es decir, elementos con número atómico mayor que el elemento más pe-
sado encontrado en la naturaleza, que es el uranio. Enrico Fermi y sus colaboradores encontraron que,
al bombardear uranio con neutrones lentos, se obtenían al menos cuatro especies radiactivas que emi-
tían partículas b–-. En principio, pensaron que se trataba de isótopos de elementos transuránicos ines-
tables con número atómico 93, 94 e incluso superior. Sin embargo, los esfuerzos en separar estos ele-
mentos químicamente para estudiar sus propiedades condujo a resultados que causaron perplejidad.
Esta confusión perduró hasta 1939 cuando Otto Hahn y Fritz Strassmann, siguiendo una idea sugeri-
da por Irene Joliot-Curie y Pavle Savir, demostraron definitivamente que lo que se pensaba que eran
elementos transuránicos eran radioisótopos del bario, del lantano y de otros elementos de mitad de la
tabla periódica. Esta idea ya había sido avanzada por el químico alemán Walter Noddak en 1934, pero
no fue tomada en serio puesto que suponía un alejamiento de las ideas de la física nuclear de la época
y, además, no había ninguna evidencia química que pudiera mantener dicha idea.
Tomando como base los inequívocos resultados de Hahn y Strassmann, Lise Meitner y Otto
Frisch utilizaron el modelo de gota líquida del núcleo para dar una explicación cualitativa del proceso
de división del núcleo atómico, proceso al que denominaron fisión. Por otra parte, Meitner y Frisch
incidieron en la cantidad de energía liberada en los procesos de fisión. Inmediatamente, se confirma-
ron estas previsiones en docenas de laboratorios de todo el mundo.
Aunque los primeros experimentos de fisión se hicieron con uranio ordinario, pronto se determinó
que el proceso de fisión con neutrones lentos era producido por el isótopo 235U. La presencia de este isó-
topo en el uranio natural es aproximadamente del 0,71%, mientras que el isótopo más abundante es el
238
U. Posteriormente, se descubrió que este isótopo experimentaba el proceso de fisión cuando se bom-
bardeaba con neutrones de energía superior a 1 MeV. Además, se encontró que otros elementos pesados
como el torio y el protactinio también se fisionaban con neutrones rápidos, y que otras partículas como
protones, deuterones y partículas a, junto con rayos g, resultaban efectivos para producir la fisión.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 613


Volumen II. Física II

En 1939, Frederic Joliot-Curie, Hans von Halban y Lew Kowarski encontraron que, en el proce-
so de fisión del 235U se emitían varios neutrones, lo que condujo a la posibilidad de reacción en cade-
na automantenida. Enrico Fermi y sus colaboradores comprendieron la importancia de este tipo de
reacción si se tuviese un control adecuado sobre la misma. El 2 de diciembre de 1942 lo consiguieron,
y pusieron en marcha el primer reactor nuclear del mundo, conocido como pila. Este dispositivo con-
sistía en una disposición de bloques de uranio y grafito y fue construido en el campus de la Universi-
dad de Chicago.

2.2. Fundamentos del proceso de fisión


El proceso de fisión puede entenderse a partir de la estructura y la estabilidad de los núcleos. Estos
consisten en un conjunto de nucleones, cuyo número es igual al número másico A del núcleo. La masa
de un núcleo es siempre menor que la suma de las masas de los nucleones libres que lo componen, sien-
do la diferencia la masa equivalente de la energía de formación del núcleo. Esta energía está relacionada
con la masa a través de la relación de Einstein E = mc2, en donde E es la energía equivalente de una masa
m y c es la velocidad de la luz. La diferencia de masa se conoce con el nombre de defecto de masa y es
una medida de la energía de enlace del núcleo. En la figura 2 se muestra esta energía de enlace para al-
gunos núcleos. Cuanto mayor sea la energía de enlace, mayor será la estabilidad del núcleo, lo que ocu-
rre para un número másico A • 56. Por tanto, un núcleo pesado se convierte en un sistema más estable si
se divide en dos núcleos ligeros con energías de enlace mayor. Así, por ejemplo, si un núcleo de 238U
que tiene una energía de enlace por nucleón aproximada de 7,6 MeV se dividiera en dos fragmentos de
número másico A • 119, su energía media por nucleón sería de 8,5 MeV. El cambio de energía en el
proceso consistiría en pasar de un sistema, el 238U con energía de –238 ´ 7,6 = –1809 MeV, a otro siste-
ma formado por dos núcleos de 119Pd con energía de –2 ´ 119 ´ 8,5 = –2033 MeV. Por lo tanto, la con-
servación de la energía implica que el estado final debe incluir una energía extra de 214 MeV, que suele
aparecer como energía cinética de los productos de la fisión (neutrones, partículas b o rayos g).

10

6
B/A

0
0 50 100 150 200 250
Figura 2. Energía de enlace por
A nucleón para diversos núcleos.

En base a este análisis energético, podríamos esperar que todos los núcleos buscasen una confi-
guración más estable con una energía más baja dividiéndose en núcleos más ligeros. Sin embargo,
esta fisión espontánea no aparece debido a la existencia de unas barreras energéticas que producen
otros factores. El modelo de gota líquida proporciona una explicación cualitativa del proceso de fi-
sión. La fuerte fuerza nuclear entre pares de nucleones es de corto alcance y actúa sólo sobre los veci-
nos más cercanos. Como los nucleones de la superficie de la gota tienen menos vecinos que los del in-
terior, aparece una tensión superficial que tiende a que la gota adopte forma esférica en orden a mini-

614 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

mizar la energía del sistema. Por otra parte, los protones del núcleo ejercen entre sí una fuerza repulsi-
va de Coulomb. Así, para núcleos con un número de nucleones mayor de 40, el número de protones
debe ser diluido con un exceso de neutrones para mantener cierta estabilidad del núcleo. Cuando el
núcleo es excitado por algún estímulo, se deforma, con lo que aumentará su superficie y, por consi-
guiente, aumentarán las fuerzas superficiales que tienden a mantener la forma esférica. Por otra parte,
la fuerza de Coulomb entre protones disminuye con la distancia y, por tanto, disminuye cuando el nú-
cleo se deforma. El resultado es que la energía del sistema es de la forma indicada en la figura 3, en
donde se representa la energía del sistema en función de la deformación de la gota. En la figura, ob-
servamos la aparición de una barrera de energía. Al principio, la energía aumenta debido a que au-
menta la tensión superficial. Ahora bien, la fuerza de Coulomb disminuye con la deformación más rá-
pidamente que lo hace la tensión superficial, y las dos se igualan en el punto P, el cual nos da la altura
de la barrera de fisión, denominada energía de activación. A partir de este punto, la repulsión de
Coulomb entre los protones hace que el núcleo aumente su deformación hasta que se divide en dos en
un punto S denominado punto de escisión. Energía potencial

Energía de
activación

P
Separación entre fragmentos
Figura 3. Energía de activación
para la fisión nuclear.

La altura y la forma de la barrera de fisión depende de cada núcleo en particular. El proceso de fi-
sión puede ser inducido excitando el núcleo a una energía superior a la de la barrera de fisión mediante
la absorción de partículas de energía adecuada. Esto se puede conseguir mediante rayos g, proceso de-
nominado fotofisión, o bien mediante la captura de partículas tales como neutrones, protones o partícu-
las a, proceso denominado fisión inducida por partículas. El valor de esta barrera de energía permite ex-
plicar porqué, por ejemplo, el 235U puede ser inducido a la fisión por neutrones lentos, mientras que,
para inducir la fisión en el 238U, es necesario la captura de neutrones de energía de al menos 1 MeV.
Las leyes de la mecánica cuántica predicen que un sistema confinado en una barrera de poten-
cial pueda atravesar dicha barrera mediante el efecto denominado efecto túnel. Por tanto, un núcleo
que se encuentra en un estado energético inferior al valor de la barrera de fisión tiene cierta proba-
bilidad, aunque sea pequeña, de atravesar dicha barrera. Este proceso se denomina fisión espontá-
nea, puesto que no depende de ninguna excitación exterior. Así, por ejemplo, la probabilidad de
que el 238U experimente un proceso de fisión espontánea es muy pequeña y la vida media para tal
proceso es de 1015 años. La probabilidad de fisión espontánea aumenta para los núcleos más pesa-
dos conocidos y para algunos llega a ser el modo de desintegración predominante. Por esta razón, el
proceso de fisión espontánea establece un límite para la formación de núcleos superpesados.

2.3. Características de la fisión nuclear


En este apartado, vamos a tratar algunos de los aspectos más interesantes del proceso de fisión,
tales como la distribución de los fragmentos de la fisión, el número de neutrones emitidos, los proce-
sos radiactivos de los resultados de la fisión y la energía liberada en el proceso.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 615


Volumen II. Física II

2.3.1. Fragmentos de la fisión y distribución de masa


Cuando un núcleo pesado sufre una fisión, puede formarse una serie de pares de fragmentos de-
pendiendo de la distribución de neutrones y protones entre ellos. La probabilidad de formación de un
determinado fragmento se denomina rendimiento de la fisión y corresponde al porcentaje de fisio-
nes que lo producen.
Una típica reacción de fisión inducida por neutrones de energía térmica (neutrones lentos) es:
U + n ® Rb +
235 93 141
Cs + 2n (24)
Los productos de la fisión no están determinados unívocamente, sino que hay una distribución de
masa de los dos fragmentos de la fisión como la mostrada en la figura 4.
10

1
Rendimiento

0.1

0.01
70 80 90 100 110 120 130 140 150 160 Figura 4. Distribución de masa
de los fragmentos de la fisión
A 235
del U.

El comportamiento de esta distribución es uno de los resultados más sorprendentes del proceso de fi-
sión y depende de la masa del núcleo que se fisiona y de la energía de excitación a la que se produce la fi-
sión. Como se muestra en la figura, en el caso de fisión inducida por neutrones de baja energía, para cada
fragmento pesado hay un fragmento ligero correspondiente (división asimétrica de la masa), pero note-
mos que la fisión en fragmentos iguales o casi iguales (división simétrica de la masa) es mucho menos
probable que otras distribuciones. En concreto, la probabilidad de obtener dos fragmentos de masa simila-
res es 600 veces menor que la máxima probabilidad de tener un núcleo con número másico A1 • 95 y el
otro con A2 • 140. Sorprendentemente, no se ha encontrado una explicación convincente para esta distri-
bución de masa típica de los procesos de fisión inducidos por neutrones lentos.
Por otra parte, en los procesos de fisión con neutrones pesados, la probabilidad de tener una se-
paración simétrica de masas aumenta mientras que disminuye la probabilidad de que se produzca una
división asimétrica. De esta manera, el valle entre los dos picos de máximo rendimiento, típico de la
distribución de masa en fisión con neutrones lentos, aumenta su probabilidad y, en el caso de excita-
ción alta, la distribución de masa se transforma en una curva con un solo máximo.

2.3.2. Neutrones emitidos en la fisión nuclear


El número promedio v de neutrones emitidos en el proceso de fisión inmediatamente después de
la escisión depende del núcleo que se fisiona. Estos neutrones reciben el nombre de neutrones inme-
diatos, pues se emiten en un período de 10-16 segundos después de la fisión, y su número es aproxima-
damente igual a 2, en el caso de la fusión espontánea del 238U. En el caso de fisión inducida por neu-

616 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

trones térmicos, los valores observados experimentalmente son de n = 2,48 para el 233U, n = 2,42 para
el 235U y n = 2,86 para el 239Pu.
Además de estos neutrones inmediatos, a menudo se emiten otros neutrones, denominados neu-
trones retardados, en los procesos de fisión. Estos neutrones son emitidos como consecuencia de los
procesos de desintegración b de los fragmentos de la fisión, los cuales pueden dar lugar a un estado
excitado del núcleo hijo, el cual emite un neutrón. El tiempo de retraso de estos neutrones es del orden
de segundos y su intensidad es alrededor del 1% de los neutrones inmediatos. Aunque el número de
neutrones retardados es pequeño, son muy importante para el control de las reacciones en cadena de
un reactor nuclear.

2.3.3. Cadenas radiactivas de los productos de la fisión


Los fragmentos resultantes de la fisión nuclear son altamente radiactivos y se desintegran hacia
isóbaros estables mediante la emisión de radiaciones b y g que contribuyen a la energía liberada en la
reacción. Algunas de estas cadenas de desintegración son las siguientes:
106 a
Rb ¾ ¾® 93 Sr ¾ ¾ ¾® 93 Y ¾ ¾¾® 93 Zr ¾ ¾¾® 93 Nb
93 6s 7 min 10h

Cs ¾ ¾¾® 141 Ba ¾ ¾ ¾
¾® 141 La ¾ ¾
¾® 141 Ce ¾ ¾¾® 141 Pr
141 25 s 18 min 4h 33 d

Estos productos son los materiales de desecho de los reactores nucleares. Algunos de ellos se desinte-
gran rápidamente, mientras que otros tienen una vida media muy larga, en especial, aquéllos que se
encuentran muy cercanos al núcleo estable de la serie.

2.3.4. Sección eficaz de fisión


En la figura 5 se muestra la sección eficaz para el proceso de fisión inducida por neutrones para el
235
U y para el 238U. La región térmica muestra una dependencia típica de la sección eficaz de la forma
1/u, y, en la región entre 1 y 100 eV, se observan numerosas resonancias. Por otra parten observamos
que la sección eficaz para neutrones térmicos es 3 órdenes de magnitud mayor que para neutrones rápi-
dos, por lo que, si queremos utilizar estos para producir reacciones de fisión en cadena, es necesario mo-
derar su energía hasta la de los neutrones térmicos con objeto de aumentar la sección eficaz. Para el
238
U, no se produce fisión en la región térmica, la cual sólo se producirá para neutrones rápidos. Esta di-
ferencia de comportamiento entre los dos isótopos del uranio se debe a la relación entre la energía de ex-
citación del núcleo compuesto y la energía de activación para sobrepasar la barrera.
4
10
3
Sección eficaz (b)

10
584 b
2
10
1
10 235 U
0
10
–1
10 238 U
–2
10 0,025 eV
–3
10 –3 –2 –1 0 1 2 3 4 5 6 7
10 10 10 10 10 10 10 10 10 10 10

Figura 5. Sección eficaz para la fisión


E (MeV)
inducida por neutrones. (Energía del neutrón)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 617


Volumen II. Física II

2.3.5. Energía liberada en la fisión


Cuando un núcleo de 235U captura un neutrón para formar el estado 236U*:

U+n®
235 236
U* (25)

la energía de excitación es:


236 236 2
Eex = [m( U*) – m( U)]c (26)

Si suponemos que la energía cinética de los neutrones es pequeña (neutrones térmicos) y, por tanto, la
podemos despreciar, se tiene que:
236 235
m( U*) = m( U) + mn = 235,043924 u + 1,008665 u = 236,052589 u (27)

Eex = (236,052589 u – 236,045563 u) 921,502 MeV/u = 6,5 MeV (28)

Por otra parte, la energía de activación para el 236U se calcula que es 6,2 MeV. Por tanto, la energía ne-
cesaria para excitar al núcleo a un estado en que se pueda producir la fisión (energía de activación) es
menor que la energía que se gana añadiendo un neutrón al núcleo 235U. Esto significa que el 235U pue-
de fisionarse con neutrones de cero energía.
Un cálculo similar realizado para la formación del estado 239U* a partir del 238U:

U+n®
238 239
U* (29)

nos da que la energía de excitación es Eex = 4,8 MeV, la cual es más pequeña que la energía de activa-
ción calculada para el 239U*, que resulta ser de 6,6 MeV. Por consiguiente, se necesitará un neutrón de
al menos una energía de Mev para que se produzca la fisión del 238U. Esto explica que la diferencia en
el comportamiento del 235U y el 238U ante la fisión se encuentra en la diferencia entre sus energías de
excitación: 6,5 y 4,8 MeV, respectivamente.
Este resultado puede explicarse a su vez por el valor de la energía de apareamiento D de la fór-
mula semiempírica de la masa (Tema 35, eq. 52), y es común a todos los núcleos que tienen un núme-
ro par de neutrones o un número impar de neutrones. La captura de neutrones por un núcleo con un
número impar de neutrones conduce a configuraciones más estables con un aumento de la energía de
excitación; mientras que la captura de neutrones por núcleos con un número par de neutrones condu-
ce a una reducción de la energía de excitación. Por tanto, los núcleos con N impar requieren neutrones
menos energéticos para la fisión que los núcleos con N par.
Calculemos, a continuación, la energía liberada en un proceso de fisión típico. Para ello, consi-
deremos la reacción:

U+n® U* ® Rb +
235 236 93 141
Cs + 2n (30)

Utilizando las masas de 93Rb (92,92172 u) y de 141Cs (140,91949 u), el valor Q de la reacción se es-
tima que es 181 MeV. Otras reacciones con diferentes productos finales, y probablemente con dife-
rente número de neutrones emitidos, da una energía liberada aproximadamente de la misma magni-
tud. Por lo general, se suele tomar como una cifra media razonable de la energía liberada en la fi-
sión del 235U un valor de 200 MeV. La fuerza de repulsión de Coulomb separará los fragmentos de
la fisión convirtiendo la energía potencial en energía cinética. En la figura 6 se muestra la distribu-
ción de energía observada para los fragmentos de la fisión. Hay dos valores de probabilidad alta de
los fragmentos, aproximadamente a 66 y 98 MeV, que corresponden al fragmento pesado y ligero
respectivamente.

618 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

1600

Número de casos
93.1 MeV
1200
61.4 MeV
800

400
Figura 6. Distribución de
energía de los fragmentos de 0
235
fisión del U. Las energías 50 60 70 80 90 100 110
deducidas son unos 5 MeV
más bajas. E (MeV)

Puesto que los neutrones tienen un momento pequeño, la conservación del momento requiere
que los fragmentos de la fisión tengan un momento igual y opuesto:
m 1 u1 = m 2 u2 (31)
De aquí es fácil deducir que la relación entre las energías cinéticas de los fragmentos ha de ser:
1
m1 u 21 m2
2
= (32)
1
2 m2 u 2
2
m1

Es decir, que la relación entre las energías cinéticas de los fragmentos es inversa a la proporción entre
sus masas.
La relación entre las energías cinéticas es 66 MeV/98 MeV = 0,67, que es consistente con la rela-
ción de las masas más probables de los fragmentos (140/95)–1 = 0,68. Por consiguiente, parece que la
distribución de la energía es una característica de la distribución de la masa de los fragmentos y que
aproximadamente el 80% de la energía liberada en la fisión se transforma en energía cinética de los
fragmentos.
En cuanto a los neutrones emitidos en la fisión, en la figura 7 se muestra la distribución de los
neutrones inmediatos correspondientes a la fisión del 235U. La energía media es alrededor de 2 MeV y
el número de neutrones emitidos es aproximadamente n = 2,5 por cada fisión. La energía promedio de
los neutrones en la fisión es de 5 MeV. Por tanto, vemos que el momento de los neutrones es mucho
más pequeño que el de los fragmentos, lo que justifica la aproximación realizada más arriba.

1000

N(E) a [exp (–E/0,965)]g/nh 2.29E


Abundancia

100
N(E) a E exp (–E/129)

10

0 1 2 3 4 5 6 7 8 9 10 11 12
E (MeV)
Figura 7. Espectro de energía de los neutrones emitidos en
235
la fisión del U.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 619


Volumen II. Física II

Las demás energías en el proceso de fisión son:

– Rayos g inmediatos, 8 MeV


– Desintegración b de los fragmentos radiactivos, 16 MeV
– Desintegración g de los fragmentos radiactivos, 7 MeV

Evidentemente, las cifras dadas anteriormente son sólo estimaciones y sus valores exactos dependen
de la naturaleza exacta de los fragmentos y de sus desintegraciones.

2.4. Reacciones en cadena


La emisión de varios neutrones en el proceso de fisión proporciona la posibilidad de producir
una reacción en cadena si al menos uno de estos neutrones induce la fisión en otro núcleo, el cual, a
su vez, al fisionarse, emite otros neutrones que mantienen la reacción en cadena. Si el número de
neutrones efectivos para inducir la fisión de otros núcleos es mayor que uno, la cadena se multiplica
rápidamente.
La condición para una reacción en cadena se expresa en términos de un factor multiplicador k,
definido como la razón entre el número de fisiones producidas (o de neutrones generados) en un paso
de la cadena de fisión y el número de fisiones producidas (o neutrones generados) en el paso anterior.
Si k es menor que uno, la reacción no se puede mantener y decae; decimos que el sistema o el montaje
es subcrítico. Si k = 1, la reacción en cadena se mantiene a un ritmo constante y decimos que el siste-
ma es crítico. Si k es mayor que uno, el número de fisiones aumenta a cada paso, dando lugar a una
reacción en cadena divergente; en este caso, decimos que el sistema es supercrítico. Un ejemplo te-
rrorífico de una reacción supercrítica provocada deliberadamente es la bomba atómica.
Es conveniente definir el factor multiplicador k¥ para un medio infinito en el que se puede ignorar
la pérdida de neutrones por filtración en la superficie. Para calcular el factor k¥, deberemos seguir el
destino de un conjunto de neutrones térmicos de una generación a otra, es decir, de una fisión a la si-
guiente. Supongamos, por tanto que se dispone de un número N de neutrones en un paso de la reacción
en cadena. Aunque el promedio de neutrones emitidos es n, no se tiene nN neutrones de fisión rápidos
inmediatamente, ya que no todos los neutrones originales producirán un proceso de fisión. Algunos de
los neutrones serán absorbidos en otros procesos, como reacciones (n,g). Se define h como el número
medio de neutrones de fisión producidos por los neutrones térmicos. Está claro que h < n, ya que no to-
dos los neutrones térmicos pueden producir un proceso de fisión. Si llamamos sf a la sección eficaz de
fisión y sa a la sección eficaz para otros procesos de absorción, ambas evaluadas para neutrones térmi-
cos; la probabilidad relativa de que un neutrón produzca un proceso de fisión es sf/(sf + sa), y, por tanto,
se tiene que:
sf
h= n (33)
s f +s a

Para una mezcla natural de uranio en la que la presencia de 235U es del 0,72% y de 238U es del 99,28%,
se calcula que h = 1,33, mientras que, para una mezcla enriquecida en la que la proporción de 235U lle-
ga hasta el 3%, el valor de h = 1,84.
De los N neutrones térmicos, una parte será absorbida en otros procesos nucleares y el resto, hN
neutrones rápidos, podrán producir un proceso de fisión. Algunos de estos neutrones rápidos pueden
encontrar en su camino un núcleo de 238U, los cuales tienen una sección eficaz de fisión pequeña. Esto
puede dar lugar a la fisión de estos átomos y a un pequeño incremento del número de neutrones. Por
tanto, introducimos un nuevo factor e, el factor de fisión rápida, que tenga en cuenta esta posibilidad.

620 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

El valor de e es aproximadamente de 1,03 para el uranio natural. Por consiguiente, el número de neu-
trones rápidos en el sistema será ahora heN.
Los neutrones rápidos tienen una sección eficaz de fisión pequeña, por lo que es conveniente
moderar su velocidad a velocidades térmicas en las que su sección eficaz es mayor. Este proceso de
moderación se realiza intercalando con el material combustible un material moderador ligero como
puede ser carbón, normalmente en la forma de grafito, o agua pesada. En este proceso, los neutrones
deben pasar por la región de 10-100 eV en la que el 238U presenta muchas capturas por resonancia (fi-
gura 8), con secciones eficaces muy grandes mayores que las de fisión del 235U. Por lo tanto, si quere-
mos tener neutrones térmicos para producir fisión, debemos encontrar un mecanismo para que los
neutrones eviten la captura por resonancia. Para lograr esto, lo que se hace es aumentar el tamaño de
los trozos del material moderador de manera que los neutrones pasan a la región térmica (se termali-
zan) a través de muchas dispersiones dentro del moderador sin abandonarlo y, por tanto, sin encontrar
ningún átomo de 238U. La distancia media que necesitan los neutrones para moderar su velocidad has-
ta las regiones térmicas es del orden de 19 cm en grafito. Por consiguiente, podremos minimizar la
pérdida de neutrones por captura resonante si separamos el material combustible (uranio) mediante
bloques de 19 cm de grafito. Evidentemente, todavía algunos neutrones podrán moverse por la super-
ficie del grafito y alcanzar algún átomo de 238U antes de que estén termalizados, por lo que la captura
resonante no se puede evitar completamente. Para tener en cuenta este efecto, introducimos un factor
p, la probabilidad de escape resonante, de manera que el número de neutrones disponibles después de
la termalización es hepN. Un valor típico para la probabilidad de escape resonante es p = 0,9.
4
10
Sección eficaz total

3
10

2
10

10

1
10 20 30 40 50 60 70 80 90 100 110 120 130

E (MeV)
Figura 8. Resonancias en la sección eficaz de capturas
238
de neutrones para el U.

Una vez que los neutrones se encuentran termalizados, están disponibles para producir la fisión
de los átomos de uranio. Ahora bien, tenemos que tener en cuenta que hay una probabilidad de que es-
tos neutrones sean capturados por el grafito o por cualquiera de los materiales que componen el reac-
tor. El factor de utilización térmica f nos da la proporción de neutrones térmicos disponibles para la fi-
sión del 235U y del 238U, y su valor es aproximadamente 0,9. Por consiguiente, el número de neutrones
que sobreviven a la captura por parte del moderador y otros materiales del reactor es hepfN. La criti-
calidad del sistema dependerá de que este número sea mayor, menor o igual que N.
El factor multiplicador será entonces:
k¥ = hepf (34)
Esta expresión es conocida, por razones obvias, como la fórmula de los cuatro factores. Utilizando
los valores estimados para el uranio natural, se tiene que k¥ = 1,11.
Este valor del factor multiplicador corresponde a un sistema ideal de masa infinita. Para un siste-
ma real, debemos tener en cuenta el escape de neutrones a través de la superficie, tanto para los neu-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 621


Volumen II. Física II

trones térmicos como para los neutrones rápidos. Si denominamos lf y lt a las fracciones de los neutro-
nes rápidos y termalizados que se pierden, el factor multiplicador para un sistema real finito queda
como:
k = hepf (1 – lf)(1 – lt) (35)

Conforme el sistema sea mayor, menor será la relación entre su superficie y su volumen y, por tanto,
menor será la fracción de los neutrones que se escapan por la superficie. Si lf y lt son pequeños, enton-
ces se tendrá que:

k¥ – k • k(lf + lt) (36)


La proporción total de neutrones que escapan por la superficie (lf + lt ), disminuirá al aumentar la su-
perficie y aumentará conforme sea mayor la distancia que un neutrón puede recorrer antes de que se
produzca su absorción. Esta distancia se denomina longitud de migración M e incluye dos contribu-
ciones: la longitud de difusión de los neutrones térmicos Ld, que es la distancia que un neutrón térmi-
co puede viajar en promedio antes de su absorción, y la distancia Ls en la que los neutrones rápidos
disminuyen su velocidad hasta alcanzar energía térmica:
M = ( L2d + L2s ) 1 2 (37)
Para el grafito, estos valores son: Ld = 50,8 cm y Ls = 18,7 cm.
Si suponemos que el sistema es esférico y su radio es R (o cúbico de arista R), es razonable supo-
ner que k¥ – k µ R–2 y también que depende de M. Entonces, mediante un análisis dimensional, se tie-
ne que:
M2
k¥ – k µ (38)
R2
Existirá un tamaño crítico del sistema Rc para el que k = 1, que vendrá dado por:
M
Rc µ (39)
k¥ – 1

La constante de proporcionalidad depende de los factores geométricos del sistema. Para una disposi-
ción esférica, se tiene que:
pM
Rc = (40)
k¥ – 1

Para un reactor de uranio natural, se estima que el tamaño crítico es Rc = 5 m. Es decir, una red esféri-
ca formada por bloques de uranio y de grafito debería ser crítica. Este tamaño se puede reducir si se
rodea el sistema con un material que refleje hacia dentro los neutrones que se escapan de él.
Para terminar este análisis de las condiciones necesarias para obtener una reacción en cadena
controlada, vamos a considerar la constante de tiempo involucrada en el proceso de multiplicación de
neutrones. Los neutrones se caracterizan mediante una constante de tiempo t que incluye el tiempo
necesario para la moderación (10–6 s) y el tiempo de difusión a energías térmicas antes de su absor-
ción (10–3 s). Si el factor multiplicador es k y el número de neutrones en un instante de tiempo t es N,
entonces, en promedio, habrá kN neutrones en el instante de tiempo t + t, k2N neutrones, en el instante
de tiempo t + 2t, y, así, sucesivamente. En un intervalo de tiempo corto dt, el aumento en el número
de electrones será:
dt
dN = ( kN – N ) (41)
t

622 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

Por lo tanto, se tiene que:


N ( t ) = N 0 e ( k – 1) t / t (42)

Si k = 1, el número de neutrones permanece constante en el tiempo; si k < 1, el número de neutrones


decae exponencialmente con el tiempo, y si k > 1, el número de neutrones crece exponencialmente
con el tiempo.
Con el objeto de controlar el número de electrones en un paso de la cadena y evitar que se pro-
duzca una explosión, se introducen en el sistema barras de cadmio u otro material que sea altamente
absorbente de neutrones térmicos. Esta barras de cadmio se controlan mecánicamente, de manera que
se insertan o se quitan del sistema. Si el sistema se diseña para que sea ligeramente subcrítico para los
neutrones inmediatos, el pequeño número de neutrones retardados puede ser usado para alcanzar el
estado crítico, y, puesto que el tiempo de retraso de estos neutrones es de segundos o minutos, se pue-
den manipular las barras de control para obtener una reacción constante.

3. FUSIÓN NUCLEAR
La fusión nuclear es el proceso por el que reacciones nucleares entre dos núcleos ligeros producen un
núcleo más pesado (hasta el hierro) y que da lugar, en la mayoría de los casos, a una liberación de energía.
Como fuente de energía, la fusión nuclear presenta claras ventajas frente a la fisión nuclear: los
núcleos ligeros son abundantes y fáciles de obtener, y los productos de la fusión son, por lo general,
núcleos estables y no radiactivos, como los obtenidos en el proceso de fisión. Sin embargo, hay una
clara desventaja frente a proceso de fisión: para que se produzca un proceso de fusión, los núcleos de-
ben vencer la fuerza de repulsión de Coulomb entre ellos. Los procesos de fisión inducida por neutro-
nes no deben vencer ninguna barrera de Coulomb y, por tanto, podemos utilizar partículas de baja
energía. Además, la sección eficaz de fisión para el 235U aumenta conforme disminuimos la energía
de los neutrones. Sin embargo, la sección eficaz para reacciones con partículas cargadas tiende a dis-
minuir con el aumento de la energía.
Acelerar los núcleos de modo que se alcance la energía suficiente para producir la fusión no supo-
ne ningún problema. El inconveniente surge de que los haces que se pueden obtener en los aceleradores
son del orden de los nanoamperios o microamperios. Si disponemos de un haz de un microamperio, y
aun suponiendo que todas las partículas del haz produjeran un proceso de fusión (algo improbable, ya
que los procesos de dispersión son varios órdenes de magnitud más probables que la fusión), la potencia
de salida que se obtendría sería de 2 W, potencia absolutamente ridícula.
Una alternativa es calentar las partículas hasta que su energía térmica sea lo suficientemente
grande como para que exista una probabilidad real de que las partículas tengan energía suficiente para
que se produzca la fusión. La energía cinética media de la partículas de un gas es 3kT/2, que, a tempe-
ratura ambiente, es kT • 0,025 eV. Para una temperatura de 106 K es de 130 eV y para T = 108 K es de
13 keV. A estas energías, las secciones eficaces de reacción de los núcleos ligeros ya no son despre-
ciables y, por tanto, hay una probabilidad de que se produzcan procesos de fusión. Ahora bien, estas
temperaturas extremas crean problemas, ya que no se conoce ningún material que las soporte.
A pesar de estos claros inconvenientes, la energía de fusión es uno de los campos en los que se
investiga intensivamente, con el objeto de perfeccionar las técnicas de calentamiento del material fu-
sionable y para aumentar su densidad de manera que el número de reacciones de fusión sea lo sufi-
cientemente grande para que la potencia de salida sea comparable a la obtenida en los reactores de fi-
sión en los que se obtiene una potencia del orden de 109 W.
Por otra parte, la fusión nuclear constituye la fuente fundamental de energía de las estrellas, in-
cluido el Sol. Por consiguiente, un entendimiento de la fusión nuclear es de suma importancia para

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 623


Volumen II. Física II

conocer los productos finales de las reacciones estelares, cuando el material de combustión se agote y
la estrella pase por una etapa de nova o supernova y acabe como una masa de ceniza cósmica, como
una estrella de neutrones o un agujero negro.

3.1. Procesos básicos de fusión


El proceso de fisión nuclear no es un proceso natural, debido a las limitaciones impuestas por la
barrera de Coulomb que hay que vencer para que tenga lugar.
Las reacciones típicas de fusión son:
H + H ® He + n
2 2 3
Q = 3,3 MeV (43)
H + H ® He + p
2 2 3
Q = 4,0 MeV (44)
denominadas reacciones deuterio-deuterio o reacción D – D.
Por supuesto, cuanto más estable sea el producto final de la fusión, mayor es la energía liberada
en la reacción. Así, una reacción cuyo producto sea 4He liberará una mayor cantidad de energía:
H + H ® He + n
2 3 4
Q = 17,6 MeV (45)
Reacción denominada deuterio-tritio o D-T.

3.2. Energía liberada


En la mayoría de procesos de fusión, desde los reactores de fusión controlada hasta los procesos
estelares, las partículas iniciales tienen energías cinéticas comprendidas entre 1 y 10 keV. Esta ener-
gía cinética es así más pequeña que las masas en reposo de los núcleos que intervienen y puede des-
preciarse en primera aproximación en el estudio del balance energético de la reacción.
Supongamos, por ejemplo, la reacción de fusión:
H + H ® He + n
2 3 4
(46)
La conservación de la energía establece que:
2 2 3 2 4 2 2
m( H)c + m( H)c = m( H)c + mnc + KHe + Kn (47)
Por tanto, se tiene que:
2 3 4
Q = [m( H) + m( H) – m( H) – mn] = KHe + Kn (48)
Si tenemos en cuenta los valores de las masas en reposo de los núcleos que intervienen en la reacción,
obtenemos que:
Q = (2,014102 + 3,016049 – 4,002603 – 1,00866501) 931,5 MeV = 17,59 MeV (49)

Del principio de conservación del momento lineal, si despreciamos el movimiento inicial de los
núcleos, antes de la reacción se tiene que:
mHeuHe = mnun (50)

624 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

De las expresiones (50) y (52) se tiene que:


1 Q
K He = mHe u He
2
= (51)
2 1+ mHe / mn

1 Q
K n = mn u n2 = (52)
2 1+ mn / mHe

Y la relación entre las energías cinéticas es:


K He m
= n (53)
Kn mHe

Por tanto, se tiene que el neutrón tiene el 80% de la energía liberada en la reacción. En el caso de la
reacción D – D, los cálculos realizados dan que el protón o neutrón resultante de la reacción lleva el
75% de la energía.

3.2.1. Sección eficaz de fusión


En la figura 9 se muestra la sección eficaz del proceso de fusión en algunos casos en función de
la energía de la partícula incidente.

10

4
T(d,n)He
1
Sección eficaz

–1
10 3
D(d,p)T + D(d,n)He

–2
10

3 4
–3
He (d,p)He
10

–4
10

–5
10
20 40 60 80 100

E (keV)
Figura 9. Sección eficaz de la fusión.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 625


Volumen II. Física II

3.3. Fusión solar


El sol constituyen un prototipo de reactor termonuclear automantenido de gran éxito. El proceso
básico que tiene lugar en el sol es la fusión de núcleos de hidrógeno para producir helio.
Todas las reacciones en un ciclo de fusión son interacciones de dos cuerpos debido a que la coli-
sión simultánea de tres cuerpos es altamente improbable. El primer paso en un proceso de fusión debe
ser la combinación de dos protones para formar un núcleo estable de dos nucleones:
H+ H® H+e +n
1 1 2 +
Q = 1,44 MeV (54)

Este paso en el ciclo de fusión solar se denomina frecuentemente de embotellamiento o cuello de bo-
tella, debido a que es la reacción más lenta y menos probable.
El paso siguiente a la formación de deuterones es:
H + H ® He + g
2 1 3
Q = 5,49 MeV (55)
La reacción D – D es menos probable debido a que la cantidad de deuterones formada es pequeña en
relación al número de protones existentes (1 deuterón por cada 1018 protones).
La reacción de los núcleos de helio con protones no es posible:
He + H ® Li ® He + H
3 1 4 3 1
(56)
4
El isótopo Li no existe como un sistema estable y, por consiguiente, se divide tan pronto como se for-
ma. Por otra parte, la reacción del 3He con 2H es también poco probable, ya que la presencia de 2H es es-
casa y, además, reacciona muy rápidamente con 1H para formar 3He. Por tanto, el siguiente paso es la
reacción:
He + He ® He + 2 H + g
3 3 4 1
Q = 12,86 MeV (57)

El proceso completo se denomina ciclo protón-protón (figura 10) y la reacción neta es la conver-
sión de 4 protones en helio:
4 H ® He + 2e + 2n
1 4 +
(58)
El factor Q se calcula que es Q = 26,7 MeV.

p p
2 3
H He
p g p
e+ n
4
He
e+
n p
p g
2 3
H He
Figura 10.
p p Ciclo protón-protón.

Una reacción alternativa para los núcleos de 3He es:


He + He ® Be + g
3 4 7
(59)

626 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

seguida a continuación por:


Be +e ® Li + n
7 – 7
(60)
y
Li + p ® 2 He
7 4
(61)
o quizás por la secuencia:
Be + p ® B + g
7 8
(62)
B ® Be + e + n
8 8 +
(63)
Be ® 2 He
8 4
(64)

El valor Q de estas tres reacciones es el mismo, y que se produzca una u otra depende de la com-
posición de la estrella y de su temperatura. En el caso del sol, es posible chequear estas tres alternati-
vas observando los neutrinos. En el primer caso, se tiene una distribución continua de neutrinos con
un máximo de energía igual a 0,42 MeV. En el segundo caso, de captura electrónica por parte del 7Be,
se produce un neutrino de energía 0,862 MeV. Mientras que en el tercer caso, la desintegración del 8B
da una distribución continua de neutrinos con una energía límite de 14 MeV.
La observación de los neutrinos es un método para conocer el interior del sol. La luz del sol que
llega a la Tierra es característica de su superficie y representa los rayos g de las reacciones en el inte-
rior, que luego son dispersados muchas miles de veces en su viaje a la superficie. Quizás esta radia-
ción tarda millones de años en alcanzar la superficie, de manera que la luz que vemos es el resultado
de procesos solares que tuvieron lugar hace millones de años. Por otra parte, los neutrinos llegan a no-
sotros directamente desde el interior del sol a una velocidad igual a la de la luz. No obstante, los expe-
rimentos realizados en la detección de neutrinos están en desacuerdo con la teoría y, por tanto, es ne-
cesario imaginar otros experimentos que sean sensibles al espectro completo de neutrinos.
Además del hidrógeno y de helio, en el interior de las estrellas hay elementos pesados, por lo que
se puede producir una serie de reacciones de fusión. Una de estas series es el denominado ciclo del
carbón o ciclo CNO:
C+ H ® N+g
12 1 13

N ® C+e +n
13 13 +

C+ H ® N+g
13 1 14

N+ H ® O+g
14 1 15

O ® N+e +n
15 15 +

N+ H ®
15 1 12 4
C + He (65)

En este caso, el 12C ni se crea ni se destruye, sólo actúa como catalizador para ayudar en el proceso de
fusión. El proceso neto de esta serie es 41H ® 4He + 2e+ + 2n, exactamente el mismo que en la serie pro-
tón-protón y con el mismo valor de Q. El ciclo del carbón puede ser más rápido que el ciclo pro-
tón-protón debido a que no tiene un proceso semejante al del cuello de botella del deuterio. Sin embar-
go, la barrera de Coulomb es 6 ó 7 veces mayor en las reacciones protón-carbón que en las reacciones
protón-protón. Por lo tanto, el ciclo del carbón será el ciclo dominante a altas temperaturas, donde se ne-
cesita energía térmica adicional para aumentar la probabilidad de penetrar la barrera de Coulomb.
La radiación solar media que alcanza la Tierra es aproximadamente de 1,4 ´ 103 W/m2. Si supo-
nemos que está distribuida uniformemente por el espacio, esto significa que la potencia radiada por el

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 627


Volumen II. Física II

sol es de 4 ´ 1026 W. Si cada proceso de fusión produce una energía de 25 MeV, el número de fusio-
nes por segundo es alrededor de 1038, que suponen un consumo de 4 ´ 1038 protones por segundo. En
esta proporción, el sol podrá continuar quemando su hidrógeno alrededor de otros 1010 años.
Una vez que el sol consuma su hidrógeno, se pueden producir otras reacciones de fusión, como
34He ® 12C, a más altas temperaturas para penetrar la barrera de Coulomb. Estas reacciones de fusión
de núcleos ligeros pueden continuar hasta llegar al 56Fe, a partir del cual no se puede obtener ganancia
de energía mediante fusión. Este razonamiento es útil para explicar algunas de las categorías de estre-
llas que se observan y nos ayuda a entender la abundancia relativa de las especies atómicas. Así, por
ejemplo: los átomos ligeros con número atómico par, resultados de sucesivas capturas de partículas a
por parte del 12C, son más abundantes que sus vecinos con números atómicos impares; casi todos los
elementos por encima del Fe son menos abundantes que los elementos por debajo de él.

4. UTILIZACIÓN DE LA ENERGÍA NUCLEAR Y SITUACIÓN ACTUAL


La gran cantidad de energía que se libera en los procesos de fisión o fusión nuclear hizo plantear-
se la posibilidad de utilizar estos procesos como fuente de energía.
En la actualidad, nuestro conocimiento científico y técnico nos ha permitido la construcción de
reactores nucleares para la obtención de energía a partir del proceso de fisión. Sin embargo, todavía no
ha sido posible la construcción de reactores que hagan efectiva la utilización controlada de la energía li-
berada en los procesos de fusión. Es por ello por lo que se trata de uno de los campos de investigación
actuales en los que se realizan grandes esfuerzos. Aunque los resultados positivos se obtienen lenta-
mente, se cree que la utilización de la energía de fusión pudiera ser una realidad a medio plazo.

4.1. Reactores nucleares de fisión


Un reactor nuclear consta fundamentalmente de los siguientes elementos:
1. El combustible o material escisible.
2. El moderador para termalizar los neutrones.
3. Un reflector que rodea el núcleo del reactor en donde se encuentra el combustible y el modera-
dor, cuyo objetivo es evitar las pérdidas o fugas de neutrones y, por tanto, reducir el tamaño críti-
co del reactor.
4. Blindaje, para evitar las fugas de rayos g y neutrones.
5. Refrigerante para enfriar el núcleo del reactor.
6. Sistema de control, para controlar el nivel de potencia y mantenerlo constante durante la operación.
7. Sistemas de emergencia para evitar una operación descontrolada en caso de fallo de los sistemas
de control o de refrigeración.

Tipos de reactores
La primera clasificación de los reactores nucleares puede hacerse atendiendo al uso para el que
están diseñados. Tomando como base este criterio, podemos clasificar los reactores nucleares en tres
grupos: reactores de potencia, reactores de investigación y reactores de conversión.
– Reactores de potencia: estos reactores se diseñan con el objetivo de extraer la energía ciné-
tica de los fragmentos de fisión como calor y convertir la energía térmica en energía eléctri-
ca. Normalmente, se hace calentando agua y haciendo funcionar una turbina mediante el

628 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

vapor generado. La construcción de estos reactores se hace atendiendo tanto a los aspectos
nucleares como a los aspectos termodinámicos de la eficiencia de la máquina térmica. El
montaje que contiene el combustible nuclear representa una pequeña fracción del coste de
la central. Lo realmente costoso son los sistemas de blindaje y de almacenamiento de los re-
siduos radiactivos, así como el sistema de generación eléctrica. Estos reactores tienen una
eficiencia termodinámica algo inferior a las plantas de combustible fósil.
– Reactores de investigación: se diseñan generalmente para producir neutrones para la inves-
tigación nuclear o en el campo del estado sólido. Normalmente, operan a un nivel de poten-
cia bajo entre 1 y 10 MW.
– Reactores de conversión: se diseñan para convertir material que nos es escindible con neu-
trones en material que sí lo es. Las conversiones típicas que se generan son la de 238U a
239
Pu y la del 232Th a 233U.

Energía de los neutrones


Los reactores nucleares se pueden diseñar para que trabajen con neutrones térmicos (lentos),
neutrones intermedios y neutrones rápidos. Una ventaja de utilizar neutrones de energía intermedia es
que se necesita menos volumen que para un reactor con neutrones térmicos, por lo que se diseñan fun-
damentalmente para utilizarlos como sistemas de propulsión, por ejemplo, en submarinos. Los reac-
tores de neutrones rápidos no requieren moderador, por lo que, aunque debido a la menor sección efi-
caz necesitan del orden de 10 a 100 veces más combustible, su núcleo es mucho más pequeño que el
de los reactores térmicos.
Tipos de combustible
Los combustibles usados más comúnmente son el uranio natural (0,72% de 235U), uranio enri-
quecido (más del 0,72% de 235U), plutonio 239Pu y 233U.
Moderador
Los moderadores ideales son aquéllos que son los más abundantes y baratos, los que sean quími-
camente estables, tengan masas cercanas a uno y así puedan absorber la máxima energía en la coli-
sión con los neutrones, sea sólido o líquido para que su densidad sea alta, y tenga una mínima sección
eficaz para la captura de neutrones. El carbón en su forma de grafito cumple satisfactoriamente estas
condiciones. El único inconveniente es que su masa no es cercana a la unidad, por lo que no absorben
mucha energía por colisión. Esto se compensa aumentando la cantidad de grafito en el reactor. Otra
sustancia que satisface adecuadamente las condiciones anteriores es el agua normal. El inconveniente
es que los protones del agua tienen una sección eficaz muy grande para la captura de neutrones. El
agua pesada tiene una sección eficaz muy pequeña para la captura de neutrones, pero presenta el in-
conveniente de que estas capturas conducen a tritio radiactivo. En los reactores con uranio natural, se
utiliza agua pesada como moderador, mientras que la absorción extra de neutrones por el agua normal
requiere el uso de uranio enriquecido como combustible.
Montaje
Los reactores se clasifican normalmente en heterogéneos, cuando el combustible y el moderador
se colocan en trozos separados, y homogéneos, cuando se encuentran mezclados. Los reactores homo-
géneos pueden tratarse matemáticamente de forma más sencilla que los heterogéneos, para los cuales es
difícil calcular el factor de utilización térmica f y el de escape resonante p. Por otra parte, un reactor ho-
mogéneo de uranio-grafito no puede ser crítico, mientras que un heterogéneo sí puede llegar a serlo.
Refrigerante
El refrigerante es uno de los elementos esenciales de los reactores de fisión. Sin este componen-
te, el calor generado en el núcleo del reactor haría que éste se fundiera. Una característica fundamen-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 629


Volumen II. Física II

tal de los reactores de potencia es la capacidad del refrigerante de transferir calor de forma eficiente.
Los refrigerantes pueden ser gases, como el aire, el helio o el CO2, o puede ser agua u otro líquido.
Los reactores que utilizan agua como refrigerante pueden mantenerla en su estado líquido a presiones
muy altas. Estos son los denominados reactores de agua a presión. En la figura 11, se muestran los es-
quemas de los dos tipos de reactores que utilizan agua como sistema de refrigeración. El reactor de la
figura 11a se denomina reactor de agua en ebullición, el agua circula a través del núcleo y actúa tam-
bién como moderador. Se necesita un contenedor que soporte las altas presiones que alcanza el vapor.
Aunque el agua pura no llega a ser radiactiva, las impurezas, aún de partes por millón, son altamente
radiactivas y circulan fuera del contenedor del núcleo. De este tipo es el reactor de la central de Co-
frentes. El reactor de la figura 11b es de agua a presión y elimina este peligro intercambiando el calor
entre el agua a presión que circula por el núcleo y el circuito de vapor que llega a la turbina. De este
tipo son los de las centrales de Almaraz, Ascó y Trillo.

Recipiente de presión

Vapor Turbina
a)
Condensador
Agua
Combustible
Barras de control
Barras de control

Vapor

b) Agua
Agua

Figura 11. Tipos de reactores de


Combustible fisión: a) de agua en ebullición,
b) de agua a presión.

Los reactores que utilizan grafito como moderador son reactores heterogéneos y utilizan gas
como refrigerante. Su construcción se hace para que el gas pueda circular fácilmente por el núcleo
y obtener una buena transferencia de calor. Estos son los reactores que funcionan normalmente en
Gran Bretaña.

4.2. Reactores de fusión nuclear


La cuestión fundamental para poder disponer de un reactor de fusión es poder calentar el com-
bustible termonuclear a temperaturas del orden de 108 K, manteniendo la densidad de partículas a un
nivel adecuado y durante un tiempo suficientemente grande como para que el número de procesos de
fusión también lo sea y así poder obtener la energía deseada.
A estas temperaturas, los átomos se encuentran ionizados y, por consiguiente, la materia consis-
te en una mezcla de nubes de iones positivos y electrones negativos. Este nuevo estado de la materia
se denomina plasma. Uno de los principales problemas es el confinamiento del plasma para evitar
que intercambie calor con el recipiente, lo cual tendría dos efectos: el enfriamiento del plasma y la fu-
sión de las paredes del recipiente, que no podría soportar temperaturas tan elevadas. En la actualidad,
hay dos maneras de confinar el plasma: confinamiento magnético y confinamiento inercial. En el

630 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

confinamiento magnético, el plasma es confinado mediante un diseño adecuado de campos magnéti-


cos; cuando la intensidad de éstos es suficiente, el plasma se comprime adiabáticamente y su tempe-
ratura aumenta hasta que se produce la fusión. En el confinamiento inercial, un cápsula muy pequeña
(del orden del milímetro) que contiene deuterio y tritio se somete a haces de láser que provienen de
muchas direcciones. Los haces calientan y comprimen la cápsula hasta alcanzar una densidad de alre-
dedor de 10000 veces su densidad normal, en un proceso conocido como implosión. A estas tempera-
turas, se produce la fusión.
El confinamiento magnético no es absoluto, ya que hay muchas maneras en las que el plasma
pierde energía. El primer mecanismo es por radiación de las cargas aceleradas. La aceleración más
grande la sufren las partículas más ligeras, los electrones. Pero como el sistema se encuentra en equi-
librio termodinámico, una pérdida de energía de los electrones produce una pérdida de energía en los
iones, que de esta manera tendrán menos probabilidad de vencer la barrera de Coulomb y dar lugar a
un proceso de fusión.
El reactor de fusión tendrá una ganancia de energía si la energía liberada excede a la energía per-
dida por radiación y a la energía consumida para calentar el plasma hasta la temperatura de operación.
La energía liberada por unidad de volumen en las reacciones de fusión del plasma es:
1 2
Ef = n su Qt (66)
4
en donde se asume que la densidad del deuterio D y el tritio T es igual a n/2, Q es la energía liberada
por reacción de fusión (17,6 MeV para D-T) y t es el tiempo en el que el plasma está confinado y, por
tanto, puede producirse la reacción. Por otra parte, ásuñ es el valor medio de la sección eficaz y la ve-
locidad relativa de las partículas que interaccionan.
La energía térmica por unidad de volumen que se necesita para alcanzar una temperatura T es
3nkT/2 para los iones y 3nkT/2 para los electrones (suponiendo que la concentración de iones y elec-
trones sea la misma). Por tanto, la energía térmica que se necesita es:
Eth = 3nkT (67)

Por tanto, si suministramos una energía Eth al plasma y lo confinamos durante un tiempo t, podemos
extraer una energía Ef. El reactor tendrá una ganancia de energía (despreciando la energía perdida por
radiación) si:
Ef > Eth (68)
Teniendo en cuenta las expresiones (68) y (69), esta condición se escribe como:
12kT
n t> (69)
su Q

Para una temperatura de operación de 10 keV para la reacción D-T, como se tiene que ásuñ • 10–22 m3/s,
resulta que nt » 1020 s/m3. Este valor estimado del producto de la concentración de iones y el tiempo de
confinamiento se conoce como criterio de Lawson y es la meta a alcanzar en los diseños de los reactores
nucleares de fusión.
El confinamiento magnético más sencillo consiste en un campo magnético uniforme en el que
las partículas cargadas se mueven en espiral alrededor de la dirección del campo. Para evitar la pérdi-
da de partículas a lo largo del eje, se pueden utilizar dos soluciones: utilizar una estructura toroidal o
utilizar espejos magnéticos que reflejen las partículas. En una estructura toroidal real, el campo mag-
nético es menos intenso conforme el radio de la trayectoria de las partículas es mayor, lo que hace que
las partículas tiendan a acercarse a las paredes de la estructura. Con el fin de evitar esto, se introduce
un campo magnético a lo largo de la superficie, denominado campo poloidal. Esto se puede hacer ha-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 631


Volumen II. Física II

ciendo pasar una corriente a lo largo del eje de la estructura, con lo cual también puede utilizarse para
calentar el plasma. La estructura básica de un dispositivo de este tipo se denomina tokamak, nombre
que viene del acrónimo en ruso de cámara toroidal. El tokamak (figura 12) es en la actualidad uno de
los dos dispositivos que más posibilidades tienen de ser usados en el diseño de un reactor de fusión
del que podamos extraer energía.
B
I Tokamak
B I

Campo Campo Figura 12. Principios del


toroidal poloidal tokamak.

La otra posibilidad, que ya hemos mencionado, es el confinamiento inercial, en el que un cápsula


muy pequeña que contiene deuterio y tritio se somete a haces de láser que provienen de muchas direc-
ciones. Los haces calientan y comprimen la cápsula hasta alcanzar una densidad de alrededor de 10000
veces su densidad normal. El objetivo de esta técnica es alcanzar densidades y temperaturas suficiente-
mente altas para que se produzca la fusión antes de que la cápsula se expanda y explote. Para una planta
termonuclear basada en este proceso, se necesitarían del orden de 10 a 100 cápsulas por segundo y el ci-
clo de inyección compresión e ignición sería similar al de una motor de combustión. Unos cálculos
aproximados estiman que, para que se satisfaga el criterio de Lawson, se necesitaría suministrar una po-
tencia de 1014 W. Este requerimiento es evidentemente un gran inconveniente, debido a la baja eficien-
cia para transformar energía eléctrica en radiación electromagnética (entre el 1 y el 10%). No obstante,
en la actualidad se trabaja para sustituir los láseres por haces de partículas cargadas. De nuevo, los
cálculos estimativos sobre las corrientes necesarias (del orden de 104 ó 106 A) están por encima de lo
que se puede conseguir en la actualidad. Sin embargo, las investigaciones en este campo son esperanza-
doras y se cree que los haces de partículas puedan ser una alternativa a los láseres en la técnica de confi-
namiento inercial.
Una gran cantidad de investigadores trabajan en la actualidad en el desarrollo de la fusión con-
trolada y se espera que a medio plazo pueda ser una realidad.

4.3. Armas nucleares


Uno de los aspectos más negativos de la ingeniería nuclear es el uso de la energía como herra-
mienta de destrucción.
La bomba nuclear se basa en el crecimiento exponencial de la energía liberada en un sistema su-
percrítico. Cuando un sistema supercrítico de 235U o 239Pu se deja evolucionar sin control, rápidamen-
te se llega a una situación inestable. La energía liberada en el combustible debe ser disipada y se pro-
duce la explosión. Los efectos de la bomba nuclear son los de la propia explosión (la onda de choque),
la radiación térmica, la radiación nuclear directa (fundamentalmente rayos g y neutrones) y la radia-
ción nuclear indirecta que proviene de los materiales radiactivos resultantes de la fisión.
La onda de choque consiste en un frente de onda que produce un rápido aumento de la presión y
luego una disminución de la misma. La densidad de energía de este frente disminuye en la forma 1/r2,
pero, a 1 km de una explosión de 20 kilotones, el aumento de presión es del orden de 1 atmósfera, su-
ficiente para destruir los edificios de hormigón. A 2 km, el incremento de presión sería de 0,25 atmós-
feras, que es suficiente para derribar construcciones de madera.

632 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

La radiación térmica también decrece como 1/r2 y, además, por un factor exponencial debido a
la absorción y dispersión por la atmósfera. A una distancia de 2 km de la explosión de una bomba de
20 kilotones, la onda de calor, que llega 2 s después de la explosión, es todavía suficiente para produ-
cir quemaduras de tercer grado e incendiar materiales inflamables como madera o ropa.
La radiación nuclear directa también decrece como 1/r2 y exponencialmente. La distancia para
la cual la dosis de radiación es letal, para una bomba de 20 kilotones, es de 1 km. Para mayores distan-
cias, los efectos de la radiación aparecen a medio y largo plazo. Estos efectos incluyen el aumento de
los casos de cáncer, de leucemia y de malformaciones genéticas.
Los productos radiactivos de la fisión son vaporizados y caen a tierra como una lluvia radiactiva.
Algunos de estos materiales pueden permanecer en la atmósfera, produciendo nubes radiactivas que
pueden permanecer durante un año o más, hasta que caen a tierra.

5. PROBLEMÁTICA DE LOS RESIDUOS NUCLEARES


La energía nuclear es, sin duda alguna, la fuente de energía que más controversia ha generado
entre la sociedad en los últimos años. Las cuestiones que preocupan a la ciudadanía son fundamen-
talmente dos: la seguridad de los reactores nucleares y el tratamiento y almacenamiento de los resi-
duos radiactivos.
Los accidentes en las centrales nucleares de Three Mile Island (Pennsylvania, 1979), y en Cher-
nobyl (Ucrania, 1986) dispararon la preocupación por la seguridad de los reactores nucleares. El acci-
dente en la central de Pennsylvania fue consecuencia de una combinación de un equipo deficiente y
de errores de operación. Aunque el reactor quedó gravemente dañado, el escape radiactivo fue muy
limitado. El accidente de Chernobyl fue mucho más serio y una gran cantidad de isótopos radiactivos
fue lanzada a la atmósfera. La causa del accidente parece ser un diseño inadecuado del reactor. Estos
accidentes pusieron de manifiesto la poca fiabilidad de las medidas de seguridad proyectadas, tanto
en el diseño de algunos reactores como la falta de respuestas adecuadas cuando se produce el mal fun-
cionamiento de un reactor. Una de las causas fundamentales era la necesidad de una fuente de energía
externa que proporcionara la energía para las bombas del sistema de refrigeración del reactor. En
caso de accidentes, estas bombas se interrumpían y podían dar lugar a una expulsión de materiales ra-
diactivos. Muchos de estos problemas surgen por el hecho de ser reactores diseñados para proporcio-
nar una gran potencia, alrededor de 1.000 MW. En la actualidad, los nuevos diseños de reactores son
de menor potencia (de 600 MW) e incorporan medidas de seguridad pasivas, de manera que tiendan a
interrumpir o enfriar el reactor sin necesidad de intervención por parte del operador, en caso de fallos.
En la actualidad, alrededor de 435 centrales nucleares se encuentran funcionando en 35 países
de todo el mundo, con una producción de 345.000 MW de electricidad. Algunos de estos países han
apostado fuertemente por este tipo de energía: Francia genera el 70% de su energía mediante centra-
les nucleares; Bélgica, el 56%; Suecia, el 47%; Bulgaria, el 42%; Suiza, el 40%; Corea del Sur, el
36%; y Japón, el 33%. Aunque Estados Unidos sólo genera el 22% de su electricidad mediante ener-
gía nuclear, el número de centrales es de 109.
La segunda cuestión, y quizás la más importante, es el tratamiento y almacenamiento de los resi-
duos nucleares. Los materiales de desecho de una central nuclear son materiales radiactivos con una
vida media que puede ir desde semanas hasta cientos de miles de años. Por lo tanto, requieren un tra-
tamiento especial y su almacenamiento en zonas que garanticen su seguridad.
Los residuos sólidos se almacenan hasta que el nivel de radiactividad disminuya suficientemente y
luego son prensados y colocados en bidones de hormigón sellados, para su posterior almacenamiento.
Los residuos líquidos que provienen del reactor, como, por ejemplo, del refrigerante, y de otras zonas de
la planta, se someten a procesos adecuados (como evaporación) para separarlos del resto de productos.
Algunos productos se reintroducen en el reactor y otros se tratan como los residuos sólidos. Los resi-
duos gaseosos se someten a filtración y los gases inocuos se dejan escapar a la atmósfera.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 633


Volumen II. Física II

El almacenamiento de los residuos radiactivos es una cuestión extremadamente delicada debido


a la larga vida media que presentan algunos de los desechos radiactivos. En un principio estos resi-
duos se almacenan de forma provisional en la propia central. Su almacenamiento definitivo también
ha generado una gran polémica. En la actualidad, se han desechado los depósitos submarinos y su en-
terramiento se realiza en zonas geológicas altamente estables, apenas sin actividad, de manera que en
principio se garantice su no destrucción. Evidentemente, estas soluciones conllevan un riesgo a largo
plazo, por lo que éste es un campo en el que se ha de progresar.
La investigación en el uso de fuentes de energía alternativas que conduzca a un mejor aprove-
chamiento y a la obtención de mayores rendimientos debe ser una cuestión fundamental en las polí-
ticas energéticas de los países desarrollados. Ahora bien, parece lógico que, mientras no se encuen-
tren otras fuentes de energía alternativas capaces de satisfacer las necesidades actuales y ante la
perspectiva de agotamiento a medio plazo de los combustibles fósiles tradicionales, la sociedad ac-
tual debe optar, bien por un nuevo planteamiento en las condiciones de vida que conlleve una dis-
minución de sus necesidades energéticas o bien por la única fuente de energía, por ahora, capaz de
proporcionar la demanda creciente de energía, que es la energía nuclear. Un balance adecuado en-
tre los beneficios y perjuicios deberá ser el punto de partida para adoptar un criterio sobre el uso de
la energía nuclear como una de las fuentes principales de energía. Para ello, la sociedad debe cono-
cer con rigor y sin demagogia los riesgos que conlleva su uso a corto, medio y largo plazo. Algunos
países europeos como Francia, Bélgica, Suecia y Suiza se encuentran entre los que más claramente
han apostado por este tipo de energía. En Francia, por ejemplo, el 70% de la energía eléctrica con-
sumida es de origen nuclear.

634 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Energía nuclear

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Alonso, M. y Finn, E. J.: Física. Addison-Wesley Iberoamericana. Estados Unidos,
1995.
Burcham, W. E.: Física Nuclear. Reverté. Barcelona, 1974.
Bethe, H. A.: Elementary Nuclear theory. John Wiley & sons. New York, 1947.
Eisberg, R. y Resnick, R.: Física Cuántica. Limusa. México, 1978.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall, Upper Saddle River, New Jersey, 1996.
Giancoli, D. C.: Física general. Prentice Hall. México. 1984.
Krane, K. S.: Introductiry Nuclear Physics. John Wiley. New York, 1988.
Sandin, T. R.: Essential of Modern Phisics. AddisonWesley Publissing Com-
pany. New York, 1989.
Satchler, G. R.: Direct Nuclear Reactions. Clarendon Press. Oxford, 1983.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 635


TEMA

38
Partículas elementales.
Estado actual de su estudio.
Partículas fundamentales
constitutivas del átomo.
Del microcosmos al macrocosmos.
Teorías sobre la formación y
evolución del universo

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. PARTÍCULAS ELEMENTALES
1.1. Origen de la física de partículas
1.2. Partículas elementales e interacciones
1.3. Clasificación de las partículas elementales
1.4. Partículas y antipartículas
1.5. Inestabilidad de las partículas y resonancias
1.6. Leyes de conservación
1.6.1. Conservación del número de bariones
1.6.2. Conservación del número de leptones
1.6.3. Conservación del isospin
1.6.4. Conservación de la extrañeza y el encanto

2. MODELO ESTÁNDAR

3. DEL MICROCOSMOS AL MACROCOSMOS: TEORÍAS SOBRE LA


FORMACIÓN Y EVOLUCIÓN DEL UNIVERSO
3.1. El universo en expansión
3.2. El origen del universo
3.3. El futuro del universo

BIBLIOGRAFÍA

638 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

1. PARTÍCULAS ELEMENTALES
La búsqueda de lo elemental ha sido una de las cuestiones que ha ocupado al hombre desde hace
más de 2500 años. En la actualidad no tenemos una respuesta que pueda considerarse definitiva pero
hemos avanzado mucho. En esta sección vamos a ver que las partículas fundamentales no son entida-
des permanentes sino que pueden ser creadas y destruidas. En su estudio ha sido clave el desarrollo
experimentado en el campo de los aceleradores y detectores de partículas que son la herramienta ex-
perimental básica en esta fascinante tarea de la exploración íntima de la materia. Veremos también
cómo podemos clasificar estas partículas fundamentales y las leyes de conservación que se satisfacen
en las interacciones entre ellas.

1.1. Origen de la física de partículas


El primero en introducir el concepto de átomo como la partícula más elemental de la que se com-
pone la materia fue Leucipo de Mileto. Esta teoría atomista desarrollada posteriormente por Demócrito
y Epicuro fue firmemente combatida por Aristóteles y sus seguidores. Las ideas aristotélicas prevale-
cieron durante siglos y no fue hasta principios del siglo XIX cuando John Dalton (1766-1844) descubrió
que muchos fenómenos químicos podían explicarse si se consideraban los átomos de cada elemento
como los bloques indivisibles que constituían la materia. Sin embargo, la teoría atómica de Dalton no
explicaba por qué los átomos se combinaban en determinadas proporciones y no en otras. Muchos cien-
tíficos de la época no aceptaron la existencia de estas partículas elementales constitutivas de la materia,
lo que dio lugar a grandes debates entre los defensores y detractores de la teoría atómica.
El reconocimiento de la estructura íntima del átomo comenzó con el descubrimiento del electrón
a finales del siglo XIX. Años mas tarde, en 1911, Rutherford demostró experimentalmente que el cen-
tro de los átomos estaba formado por un núcleo pequeño cargado positivamente. El mismo Ruther-
ford denominó a la carga positiva del núcleo protón. Esta era la situación a finales de los años veinte,
se conocía la existencia del núcleo atómico, del electrón y del protón. En 1927 tiene lugar el descubri-
miento de la desintegración b: algunos elementos emiten electrones con un espectro de energía conti-
nuo. Ahora bien, este resultado era incompatible con las predicciones de la nueva teoría cuántica en la
que los niveles de energía son discretos. La conservación de la energía exige la existencia de otra par-
tícula que transporte el resto de energía y de momento. En 1929 Wolfgang Pauli propuso la existencia
de dicha partícula, posteriormente denominada neutrino (pequeño neutrón) por Fermi.
En 1928, Paul Dirac combinó la teoría cuántica y la relatividad en una ecuación para los electro-
nes. Esta ecuación tenía más soluciones que las requeridas, las cuales no fueron entendidas. Sólo en
1931 Dirac se dio cuenta de que estas soluciones tenían sentido físico y que describían a un electrón car-
gado positivamente, denominado positrón. Esta partícula fue descubierta ese mismo año. También en
ese año, James Chadwick descubrió el neutrón, una de las partículas que componen el núcleo atómico.
Esta era la situación a mediados de los años treinta. Se conocía que los átomos estaban integrados
por neutrones, protones y electrones, por lo que dejaron de ser los constituyentes fundamentales de la
materia y su lugar lo ocuparon el protón, el neutrón y el electrón. Además de estas tres partículas ele-
mentales se conocían otras tres partículas más: el positrón, el neutrino y el fotón, las cuales formaban un
conjunto de seis partículas elementales.
El comienzo de la física de partículas o física de alta energía puede situarse en el año 1935, cuan-
do el físico japonés Hedeki Yukawa (1907-1981) predijo la existencia de una nueva partícula que po-
dría ser el intermediario de la fuerza nuclear fuerte. Yukawa predijo que esta partícula tendría una
masa intermedia entre el electrón y el protón, razón por la que recibió el nombre de mesón que signifi-
ca en la mitad o intermedio. La partícula predicha por Yukawa se encontró finalmente en el año 1947
y se le denominó mesón pi o p o pión. La interacción débil está asociada a tres partículas portadoras,
conocidas como bosones W+, W– y Z0, observadas experimentalmente. De forma análoga, la interac-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 639


Volumen II. Física II

ción gravitatoria entre dos masas requeriría la existencia de otra partícula portadora, denominada gra-
vitón y que todavía no ha sido observada.
Desde los años sesenta se han detectado otras muchas partículas, de las cuales alrededor de 30
son relativamente estables con una vida media mayor que 10–10 s, y más de cien partículas con un pe-
ríodo de vida media extremadamente corto, del orden de 10–21 s, denominadas resonancias. El descu-
brimiento de estas partículas fue posible gracias a la construcción de aceleradores de partículas de
muy alta energía en donde se pueden obtener partículas con energías de varios GeV, y al avance reali-
zado en los sistemas para la observación y la detección de partículas. Las propiedades e interacciones
de estas partículas, así como las que deben considerarse como fundamentales o elementales es lo que
constituyó el tema de investigación de la física de las partículas elementales. En la actualidad se dis-
pone de una teoría conocida con el nombre de modelo estándar para describir las propiedades y las in-
teracciones de las partículas fundamentales.

1.2. Partículas elementales e interacciones


La idea básica de la moderna teoría de campos es que el intercambio de partículas puede dar lugar
a fuerzas repulsivas o atractivas. Esta fue la idea que propuso Yukawa para explicar la interacción fuer-
te. La idea de Yukawa puede ser entendida si consideramos la fuerza electromagnética. En la teoría de
Maxwell del electromagnetismo, dos partículas cargadas ejercen fuerzas entre ellas a través del campo
electromagnético creado por las partículas. Ahora bien, también sabemos que la radiación electromag-
nética puede considerarse como un haz de partículas denominadas fotones. Sobre la base de esta duali-
dad onda-partícula, podemos considerar que la fuerza electromagnética que experimenta una partícula
es debida al campo electromagnético creado por la otra, o bien, a un intercambio de fotones entre am-
bas. Este es el punto de vista de la electrodinámica cuántica, y el diagrama que describe la fuerza elec-
tromagnética como consecuencia del intercambio de fotones entre las partículas cargadas se denomina
diagrama de Feynman. En la figura 1 se muestra el diagrama correspondiente al caso más sencillo en el
que una de las partículas emite un fotón y retrocede, y la segunda partícula absorbe el fotón. En una inte-
racción así, se transfiere energía y momento de una partícula a la otra siendo el fotón el que transporta
esa energía y momento. Puesto que el fotón emitido por una de las partículas es absorbido muy poco
tiempo después por la otra partícula, no se observa. Por esta razón se le denomina fotón virtual, en con-
traposición a los fotones libres que sí pueden detectarse con los instrumentos de medida adecuados.

e– e–
g

e–
e–
Figura 1. Diagrama de Feynman, que
muestra cómo actúa un fotón como
portador de la fuerza electromagnética
entre dos electrones.

Un ejemplo sencillo de cómo el intercambio de partículas puede dar lugar a fuerzas de interac-
ción puede ser el siguiente. Imaginemos dos niños jugando con unas pelotas de tenis. En el primer
caso, los niños se lanzan una pelota el uno al otro. Cuando cada niño recibe la pelota lanzada por el
otro se mueve hacia atrás como consecuencia del impulso, lo que es equivalente a una fuerza repulsi-
va. Supongamos ahora que los niños se intercambian la pelota tomándose de la mano el uno del otro.
En este caso existirá una fuerza atractiva entre ellos.

640 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

La idea de Yukawa era similar a las expuestas anteriormente: en analogía al intercambio de foto-
nes como intermediarios de la fuerza electromagnética, debía existir una partícula que fuera interme-
diaria de la fuerza nuclear fuerte, responsable de mantener unidos los núcleos atómicos (figura 2). De
la misma forma que el fotón es el cuanto del campo o de la fuerza electromagnética, la nueva partícula
debería ser el cuanto de la fuerza nuclear fuerte. La predicción de Yukawa era que la partícula debía
tener una masa intermedia entre el electrón y el protón, por lo que se le denominó mesón (del griego
mesos, que significa intermedio). Podemos estimar de forma aproximada la masa del mesón como si-
gue. Para que se emita un mesón se debe crear su masa de la nada, lo que violaría el principio de con-
servación de la energía. Ahora bien, el principio de incertidumbre de Heisenberg establece que:
DEDt ³ h (1)

p mesón n

Figura 2. Intercambio de un mesón p


cuando un protón y un neutrón
interactúan mediante la fuerza
nuclear fuerte.

El principio establece que para medir una energía de un estado con una incertidumbre de DE di-
cho estado debe existir al menos durante un tiempo Dt ³ h/DE. Por tanto, si se crea una partícula de
energía DE durante un tiempo menor que el indicado, la partícula no podrá ser observada y el princi-
pio de conservación de la energía se mantiene. La masa del mesón estará relacionada con la energía
por DE = mc2. Por otra parte, si suponemos que el mesón viaja a velocidad cercana a la de la luz, se
tendrá que Dt = R/c, siendo R la separación máxima entre los nucleones que interactúan. De esta ma-
nera, de la expresión (1), se tiene que:
R hc
mc 2 • h Þ mc 2 = (2)
c R

Si tenemos en cuenta que el valor del alcance de la fuerza nuclear fuerte es del orden de 1.5 fm =
= 1.5 ´ 10–15 m, de la expresión anterior se tiene que:
(1.05´10–34 J×s ) ( 3´108 m / s )
mc 2 = = 2.2´10–11 J= 130 MeV (3)
1.5´10–15 m

Lo que acabamos de ver es una característica de todas las partículas virtuales que se intercambian en los
procesos de interacción: el tiempo entre la emisión y la absorción es tan corto que no puede detectarse la
no conservación de la energía. En el caso de los fotones, puesto que el alcance de la fuerza electromag-
nética es infinito R = ¥, según lo que acabamos de ver su masa en reposo debe ser cero.
Al igual que los fotones existen como partículas libres, se esperaba que los mesones también
existieran como partículas libres y pudieran ser observados directamente. En 1937 se descubrió una
partícula en los rayos cósmicos cuya masa era igual a 106 MeV. Su valor era cercano al predicho por
Yukawa, pero se encontró que esta partícula, a la que se denominó mesón m o muón, no interactuaba

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 641


Volumen II. Física II

fuertemente con la materia. Por lo que era imposible que pudiese actuar como intermediaria de la
fuerza nuclear fuerte. La partícula predicha por Yukawa fue descubierta en 1947 y se le denominó
mesón p o pión. El pión presenta tres estados de carga positiva, negativa o neutra. Los mesones p+ y
p– tienen una masa igual a 139.6 MeV, y el pión p0 una masa igual a 135 MeV. Después de su descu-
brimiento en los rayos cósmicos, los piones fueron producidos en los aceleradores de partículas en las
colisiones protón-protón. Algunas de las reacciones observadas son:
p+p® p+p+p
0
(4)
p+p® p+n+p
+
(5)
p+p® p+p+p +p
+ –
(6)

El número de piones producidos depende de la energía cinética de los protones. En los años posterio-
res se descubrieron otros mesones a los que se consideró también intermediarios de la fuerza nuclear
fuerte. En la actualidad, las más recientes teorías y experimentos sugieren que tanto los nucleones
como los mesones están constituidos por partículas más elementales denominadas quarks. La partí-
cula virtual fundamental intermediaria de la fuerza nuclear se denomina gluón.
Al igual que ocurre con la fuerza electromagnética y la fuerza nuclear fuerte, las otras dos fuer-
zas fundamentales de la naturaleza, la fuerza nuclear débil y la fuerza gravitatoria, son también el re-
sultado del intercambio de partículas virtuales. La fuerza nuclear débil, responsable de la desintegra-
ción b y de otras reacciones en las que intervienen neutrinos, es una fuerza de corto alcance causada
por el intercambio de partículas virtuales masivas denominadas bosones W+, W– y Z0. Estas partícu-
las fueron descubiertas en 1983 en el laboratorio europeo del CERN en Ginebra en el transcurso de
experimentos de colisión protón-antiprotón.
En cuanto a la fuerza gravitatoria, al igual que la fuerza electromagnética, es una fuerza de largo
alcance. Para este tipo de fuerzas se requiere que Dt sea mucho más grande y DE mucho más pequeño
que para las fuerzas de corto alcance como la fuerza nuclear. De hecho, la teoría cuántica de campos es-
tablece que las fuerzas de largo alcance son debidas a partículas de masa en reposo cero. Así, la fuerza
electromagnética es producida por el intercambio de fotones virtuales, y la fuerza gravitatoria es causa-
da por el intercambio de unas partículas virtuales denominadas gravitones, todavía no detectadas.
En la tabla 1 se muestran las fuerzas fundamentales de la naturaleza, ordenadas en función de su
intensidad relativa, y se especifica la partícula virtual que provoca la interacción.

Fuerza Intensidad relativa Partícula virtual


Nuclear fuerte 1 Gluón
Electromagnética 10–2 Fotón
Nuclear débil 10–13 W± y Z 0
Gravitatoria 10–40 Gravitón

Tabla 1. Fuerzas fundamentales de la naturaleza.

1.3. Clasificación de las partículas elementales


Tras el descubrimiento del mesón p en el año 1947, fueron descubiertas otras muchas partículas
subnucleares, que en la actualidad llegan a cientos. Ahora bien, estos cientos de partículas tienen cier-
tas similaridades que nos permiten agruparlas en familias o categorías. Atendiendo a sus interaccio-
nes las podemos clasificar en tres familias: los bosones portadores de fuerza o bosones gauge, los
leptones y los hadrones. En la tabla 2 se muestra una lista de las partículas estables (de vida media ma-
yor que 10–10 s. También se muestran algunas de las propiedades básicas que se utilizan para identifi-
car a la partícula como son la masa, la carga y el spin.

642 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

Categoría Partícula Símbolo Antipartícula Masa (MeV)

Bosones portadores (spin 1)

Fotón g 0
Bosón W W+ 80.4
Bosón Z Z0 91.187

1
Leptones (fermiones (spin )
2

Electrón e– e+ 0.511
Neutrino (e) ve ve 0
Muón m– m+ 106.1
Neutrino (m) vm vm 0
Tauón t– t+ 1784
Neutrino (t) vt vt 0

Hadrones

Mesones (bosones) (spin 0)


Pión p+ p– 140
p0 p0 135
Kaón K+ K– 494
KS0 KS0 498
K 0L K L0 498
Eta h0 h0 549
1
Bariones (fermiones) (Spin )
2
Nucleones Protón p 938.3
p
Neutrón n n 939.6
Hiperones
Lambda L0 L0 1116
Sigma S +
å –
1189
S 0
å 0
1192
S –
å + 1197
Xi X 0
X 0 1315
X –
X+ 1321
Omega W –
W+ 1672

Tabla 2. Partículas elementales estables.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 643


Volumen II. Física II

Los bosones portadores de fuerza están asociados a las diferentes interacciones y parecen ser
verdaderamente fundamentales, es decir, que no están compuestos por otras partículas más pequeñas.
El primer miembro de la familia es el fotón responsable de la fuerza electromagnética. La familia se
completa con los bosones W+, W– y Z0, responsables de la interacción débil. Otros bosones predichos
son el gluón de masa 0, carga cero y spin 1; y el gravitón, de masa cero, carga cero y spin 2.
Los leptones son aquellas partículas que no se ven afectadas por la interacción nuclear fuerte y
se consideran realmente fundamentales. Son algunas de las partículas más ligeras, por lo que reciben
el nombre de leptones que proviene del griego y significa ligero. Los leptones son el electrón y su
neutrino, el muón y su neutrino y el tauón o partícula tau y su neutrino.
La tercera familia es la más amplia de las tres, cuenta con más de 100 partículas, a las que se les
denomina genéricamente hadrones. Los hadrones están sometidos a las cuatro fuerzas fundamenta-
les, y a su vez se dividen en dos subcategorías: en mesones, que son partículas de masa intermedia y
no obedecen al principio de exclusión de Pauli (bosones); y bariones, que son partículas pesadas y
obedecen al principio de exclusión de Pauli (fermiones).

1.4. Partículas y antipartículas


Cada partícula tiene asociada una antipartícula. Una antipartícula se representa con el mismo
símbolo que la partícula con una barra sobre él, aunque a veces se suprima la barra por simplicidad.
Las antipartículas tienen la misma masa y el mismo spin que las partículas, pero tienen otras propie-
dades opuestas, como por ejemplo la carga y el momento magnético, entre otras. Para algunas partí-
culas como el fotón, el Z0, el p0, el h0 no existe ningún método para distinguir la partícula de la
antipartícula, es decir, son a su vez su antipartícula.
La razón de que existan las antipartículas es debida a la relatividad y a la mecánica cuántica.
Paul Dirac predijo la existencia de las antipartículas antes de que fueran observadas experimental-
mente. La primera antipartícula observada fue el positrón, la cual fue descubierta por Carl Anderson,
en 1933, cuando analizaba los rayos cósmicos con una cámara de niebla. Los antiprotones se observa-
ron por primera vez en el año 1955 y poco después se detectó el antineutrón.
En el caso del neutrino hay una propiedad importante que distingue a la partícula de la antipartí-
cula, que es consecuencia de que la masa en reposo del neutrino sea cero. Un neutrino tiene su spin
orientado en dirección opuesta a su momento, mientras que un antineutrino tiene el spin y el momen-
to orientados en la misma dirección. Se dice que el neutrino tiene helicidad negativa, –1, mientras que
el antineutrino tiene helicidad positiva, +1. Para las partículas de spin 1/2 y con masa en reposo dis-
tinto de cero, tanto la partícula como la antipartícula pueden tener helicidad positiva como negativa.
Una partícula y una antipartícula se pueden combinar entre sí, desapareciendo o aniquilándose. La
energía del sistema reaparece en forma de otras partículas. Así por ejemplo, un electrón y su antipartícu-
la se pueden aniquilar emitiendo fotones en un proceso conocido como aniquilación electrón-positrón:
– +
e + e ® 2g (7)

La razón de que se emitan dos fotones es que se debe conservar la energía y el momento. Si la energía
de los electrones es suficientemente grande se pueden producir otro tipo de procesos.
De manera inversa, se puede producir una partícula y su antipartícula simultáneamente, como
por ejemplo:
– +
g®e +e (8)

Para que se produzca este proceso, el fotón debe tener una energía que debe ser al menos igual a
2mec2 = 1.22 MeV. Por otra parte, para que se satisfaga la conservación de la energía y el momento, el
proceso ha de producirse cerca de un núcleo. Como consecuencia del acoplamiento entre el núcleo y el

644 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

par electrón-positrón, el núcleo adquirirá la energía y el momento necesario para que se conserven ambas
cantidades. La producción de pares electrón-positrón es mayor en los materiales en los que el acoplamien-
to electromagnético con el par es mayor, lo que se da en los materiales con un número atómico alto, como
el plomo. La producción de pares es uno de los principales procesos que dan cuenta de la absorción de fo-
tones de alta energía por los materiales. A energías pequeñas, el proceso más importante es el efecto fotoe-
léctrico; a energías entre 0.1 MeV y 1 MeV el proceso dominante es el efecto Compton. Si la energía es lo
suficientemente alta se pueden producir otros procesos como la producción de pares m–, m+.
Análogamente a la aniquilación de pares electrón-positrón, puede producirse la aniquilación
protón-antiprotón, que es un proceso más complicado que lleva consigo la producción de varias partí-
culas, en su mayoría piones. También es posible la producción de un par protón-antiprotón en una co-
lisión protón-protón de alta energía. Este fue el tipo de reacción utilizado precisamente en los
experimentos que condujeron al descubrimiento del antiprotón. Para que el proceso se pueda produ-
cir, la energía del protón incidente, suponiendo el otro en reposo, ha de ser al menos de 5.64 GeV.

1.5. Inestabilidad de las partículas y resonancias


Los procesos de aniquilación y creación de partículas, así como la desintegración b, ponen de
manifiesto que las partículas pueden transformarse en otras como resultado de sus interacciones. El
tiempo de vida de una partícula depende de cuál sea la fuerza más activa. Así, cuando una fuerza fuer-
te afecta a un decaimiento, éste se produce con mayor rapidez. Los decaimientos producidos por la
fuerza débil tienen tiempos de vida del orden de 10–10 s o más largos, mientras que las partículas que
decaen a través de la fuerza electromagnética tienen tiempos de vida del orden de 10–16 o 10–19 s. En la
tabla 3 se muestran los procesos de decaimiento de algunas partículas y sus tiempos de vida. Las par-
tículas que en su decaimiento involucran un fotón (g) lo hacen mediante la interacción electromagné-
tica, mientras que las otras lo hacen mediante la interacción débil. Puede observarse la diferencia del
tiempo de vida de las partículas dependiendo del tipo de decaimiento.
Se han encontrado un gran número de partículas que decaen a través de la interacción fuerte.
Estas partículas se desintegran en otras que interactúan fuertemente como el protón, neutrón o pión,
pero no en el electrón o fotón, y su vida media es muy pequeña, del orden del 10–23 s. De hecho su vida
media es tan corta que apenas pueden viajar antes de desintegrarse, con lo que no pueden detectarse.
Sin embargo, sus productos de la desintegración sí pueden ser detectados, y es a partir de ellos de
donde se deduce la existencia de dichas partículas. Mediante este procedimiento se han detectado
muchas partículas. La primera de ellas fue la partícula D. Si se dirige un haz de partículas p+ sobre un
blanco de protones con cantidades variables de energía y se mide el número de partículas p+ dispersa-
das se obtiene una gráfica como la mostrada en la figura 3. El pico alrededor de los 200 MeV resultó
mucho más alto de lo esperado y mucho mayor que a energías
cercanas. Esta situación llevó a Enrico Fermi a concluir que la
partícula p+ y el protón se combinaban momentáneamente D
N

para formar una partícula de vida muy corta antes de desinte-


grarse de nuevo. A esta nueva partícula (denominada hoy par-
tícula D) se le denomina resonancia. Cientos de otras resonan-
cias se han encontrado mediante este procedimiento, y muchas
de ellas se consideran estados excitados de los nucleones. Un
cálculo permite estimar que la masa en reposo de esta partícu-
la, dada por la anchura de la resonancia, es consistente con el 200 400 600
principio de incertidumbre. Si suponemos que el período de
K(MeV)
vida igual a 10–23 s, del principio de incertidumbre se tiene que
DE • h/Dt • 100 MeV que está de acuerdo con la observación. Figura 3. Número de p+
En realidad el proceso es el inverso: se mide la anchura de la dispersados por un blanco
resonancia y a partir de ésta y mediante el principio de incerti- (protón) en función de su energía
dumbre se determina el tiempo de vida. cinética incidente.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 645


Volumen II. Física II

Categoría Partícula Modo de desintegración Masa (MeV)

Leptones

Electrón Estable
Neutrino (e) Estable
Muón m – ® e– + vm + v e 1.52 ´ 10–6
Neutrino (m) Estable
Tauón t– ® e – + v t + v e 3.5 ´ 10–13
t– ® m – + v t + v m 3.5 ´ 10–13
Neutrino (t) Estable

Hadrones

Mesones
Pión p± ® m± + vtovm 1.8 ´ 10–8
p± ® e± + veove 1.8 ´ 10–8
p0 ® g + g 6 ´ 10–17
p0 ® g + e+ + e– 6 ´ 10–17
Kaón K+ ® m + + v m 8.56 ´ 10–9
K+ ® p + + p 0 8.56 ´ 10–9
KS0 ® p+ + p– 6 ´ 10–11
K 0L ® 2p0 6–11
KS0 ® p± + e± + ve 4 ´ 10–8
KS0 ® p± + m± + ve 4 ´ 10–8
Eta h0 ® g + g < 10–16
h0 ® p0 + g + g < 10–16
Bariones
Nucleones
Protón Estable 6 ´ 1031 años
Neutrón n ® p + e– + v e 9 ´ 102
Hiperones
Lambda L0 ® p + p – 1.76 ´ 10–10
L0 ® n + p 0 1.76 ´ 10–10
Sigma S+ ® p + p 0 5.6 ´ 10–11
S+ ® n + p + 5.6 ´ 10–11
S0 ® L 0 + g < 7 ´ 10–15
S ®n+p
– –
1.1 ´ 10–10
Xi X0 ® L 0 + p 0 2.0 ´ 10–10
X– ® L 0 + p – 1.2 ´ 10–10
Omega W– ® L 0 + K– 10–10
W– ® X0 + p – 10–10

Tabla 3. Algunos modos de desintegración de partículas.

646 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

1.6. Leyes de conservación


En los experimentos sobre interacciones de partículas realizados con los aceleradores de alta
energía se encuentra que siempre se satisfacen las siguientes leyes de conservación:
– Conservación de la energía.
– Conservación del momento.
– Conservación del momento angular.
– Conservación de la carga.

Estas leyes de conservación son principios de orden que ayudan a explicar por qué ocurren algunas
reacciones y otras no. No obstante, hay reacciones que cumplen las leyes de conservación enumeradas
anteriormente, y que sin embargo no se han observado nunca. Un ejemplo de este tipo de reacciones es:
p+n®
\ p+p+p (9)

Para explicar por qué esta y otras reacciones no se producen se han introducido otras leyes de conser-
vación que son:
– Conservación del número de bariones.
– Conservación del número de leptones.
– Conservación del isospin.
– Conservación de la extrañeza.

1.6.1. Conservación del número de bariones


A cada barión se le asigna un número cuántico bariónico B = +1, un numero bariónico B = –1 a las
partículas antibariónicas y B = 0 al resto de partículas. La ley de conservación de bariones establece que:
En cualquier proceso, el número bariónico debe permanecer constante.

Esta ley de conservación explica por qué la reacción (9) no puede ocurrir, ya que el número bariónico ini-
cial es B = 1 + 1 y el número bariónico final es B =1 + 1 – 1 = 1. Por consiguiente, la reacción violaría la ley
de conservación del número bariónico. Por el contrario, sí puede producirse la reacción dada por:
p+n®p+n+p+p (10)

En efecto, en este proceso, el número bariónico inicial y final es igual a 2. Esta reacción de creación
de un par protón-antiprotón se produce si el protón incidente tiene suficiente energía.

1.6.2. Conservación del número de leptones


El electrón, el muón, el tauón y los neutrinos se conocen genéricamente como leptones. Al igual
que para los bariones, se le asigna un número cuántico leptónico L = 1 a las partículas y L = –1 a las
antipartículas, siendo L = 0 para el resto. La ley de conservación del número leptónico establece que:
En cualquier proceso, el número leptónico total permanece constante.

Esta ley de conservación explica por qué se produce la desintegración:


n ® p + e – +v e (11)
ya que en ella el número leptónico inicial y final es igual a 0.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 647


Volumen II. Física II

Por otra parte, también se debe conservar el número leptónico por separado para cada tipo de lepto-
nes (e, m, t). Para ello, llamaemos Le al número leptónico del electrón, asignamos Le = + 1 para el electrón
(e–) y el neutrino del electrón (ve), Le = –1 para el positrón (e+) y el antineutrino del electrón (v e ) y Le = 0
para las demás partículas. Análogamente Lm = +1 para el muón (m–) y el neutrino del muón (vm), Lm = –1
para el m+ y el antineutrino v m . De esta manera, se tiene que el decaimiento del muón es:
– –
m ® e + ne + n m (12)

Se puede observar que en ambos lados se tiene que Le = 0 y Lm = 1, por lo que en el decaimiento se
conserva el número leptónico del electrón y del muón. Por el contrario, está prohibida la desintegra-
ción dada por:
– –
m ®e +g (13)
ya que no se conserva el número leptónico del electrón ni del muón.

1.6.3. Conservación del isospin


El concepto de isospin o spin isotópico fue introducido en la física nuclear por Heisenberg en
1932 cuando sugirió que el protón y el neutrón deberían ser tratados como estados de carga diferentes
de una partícula, el nucleón. Su proposición se basaba en que la fuerza nuclear fuerte entre dos neu-
trones era la misma que entre dos protones, siendo independiente de la carga.
Entre las partículas afectadas por la interacción fuerte (mesones y bariones) existen familias de
partículas con la misma masa y spin pero distinta carga. Estas familias se denominan multipletes y
podemos considerar a sus miembros como distintos estados de carga de una misma partícula. Así, te-
nemos familias de un solo componente denominadas singletes: (h0), (L0) y (W–); familias de dos
componentes, denominadas dobletes: (K+, K0), (X0, x–) y (p, n); familias con tres miembros, denomi-
nadas tripletes: (S+, S0, S–), (p+, p0, p–). Además también hay familias con más de tres miembros
como (D++, D+, D0, D–).
A cada multiplete se le asigna un número cuántico I denominado isospin de manera que 2I + 1
nos da el número de estados de carga de cada partícula, o lo que es lo mismo el número de miembros
de cada familia. Por consiguiente, los valores del isospin son I = 0, 1/2, 1, 3/2... Como vemos, el nú-
mero cuántico I tiene cierta semejanza con un momento angular J que puede tener 2J + 1 orientacio-
nes en el espacio, caracterizadas por un valor de su componente Jz. Análogamente, podemos
considerar el isospin como un vector en un cierto espacio, espacio del isospin, que tiene 2I + 1 orien-
taciones posibles en la dirección z que corresponden a los valores posibles de su componente Iz = –I,
–I + 1, –I + 2,..., I – 2, I – 1, I. El valor de la componente Iz corresponde a:
Q Q
Iz = – (14)
e e
siendo Q la carga de la partícula, Q la carga media de la familia y e la carga del electrón. Así, por ejem-
plo, el doblete correspondiente a los nucleones (p, n) tiene un isospin I =1/2 y los valores de Iz = –1/2,
1/2. El valor Iz = 1/2 corresponde al protón, ya que la carga Q = e y Q =1/2, por lo que Iz = 1 – 1/2 = 1/2.
Al neutrón, con carga Q = 0, le corresponde un valor de Iz = 0 – 1/2 = –1/2.
El isospin total de un sistema se obtiene sumando el isospin de cada uno de sus elementos, siguiendo
las mismas reglas que para la suma del momento angular. Así por ejemplo, en el sistema p + p el isospin
de cada partícula es I = 1/2, por lo que el isospin total puede ser I = 0,1. Ahora bien, como Iz = 1/2 para
cada protón, el valor de la componente z del isospin total ha de ser 1, por lo que el isospin total ha de ser
también igual a 1. Sin embargo, en el sistema p + n el isospin total puede tener el valor I = 0, 1, ya que la
componente z del isospin total es Iz = 1/2 – 1/2 = 0.

648 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

La ley de conservación del isospin establece que:


El isospin total se conserva en las interacciones fuertes.
La ley de conservación del isospin total sólo es válida en el caso de las interacciones fuertes, pero
puede ser violada en el caso de interacción electromagnética e interacción débil.
Además de la ley de conservación enunciada anteriormente, también se cumple que:
Tanto en la interacción fuerte como en la interacción electromagnética se con-
serva la componente Iz del isospin total.

1.6.4. Conservación de la extrañeza y el encanto


A principios de los años cincuenta se encontró que algunas de las partículas recientemente des-
cubiertas presentaban dos comportamientos algo extraños. En primer lugar siempre se producían a
pares y nunca una sola de estas partículas. Este tipo de producción de parejas de partículas extrañas se
denomina producción asociada. Así, por ejemplo se observaba que se producía la siguiente reacción:
– 0 0
p +p®+K +L (15)
pero, sin embargo, nunca se observaba la reacción:
– 0
p +p®+K +n (16)
Esto resultaba extraño ya que esta última reacción no violaba ninguna de las leyes de conservación
conocida y además en la reacción había suficiente energía disponible.
El segundo aspecto relativo a estas partículas extrañas, como se les denominó, era que a pesar de
producirse mediante la interacción fuerte, no decaían con la velocidad esperada. En vez de los tiempos
de vida de 10–23 s esperados para las partículas que actúan mediante la interacción fuerte, las partículas
extrañas presentaban tiempos de vida entre 10–10 y 10–8 s, que son los tiempos de vida característicos de
las partículas que interaccionan mediante la fuerza débil.
Para explicar este comportamiento se introdujo un nuevo número cuántico, la extrañeza (S); y una
nueva ley de conservación: la ley de conservación de la extrañeza. En la tabla 4 se muestran los valores
de la extrañeza de algunas de las partículas, a las antipartículas se les asigna una extrañeza opuesta a las
de las partículas. Con los valores de la extrañeza (S) mostrados en la tabla, era fácil explicar las observa-
ciones experimentales. Así, en la reacción (15) el estado inicial tiene extrañeza S = 0 + 0 y el estado final
S = 1 – 1 = 0, de modo que se satisface la conservación de la extrañeza. Por el contrario, en la reacción
(16), la extrañeza del estado inicial es S = 0, mientras que la extrañeza final es S = 1, por lo que no se
conservaría la extrañeza y, por consiguiente, esta reacción no se observa.
Para explicar el tiempo de vida de las partículas extrañas se supone que la extrañeza se conserva
en la interacción fuerte, pero no se conserva en la interacción débil. Por tanto, podemos enunciar la
ley de conservación de la extrañeza como:
La extrañeza total se conserva en los procesos debidos a la interacción fuerte y a
la interacción electromagnética.
Los números cuánticos que hemos visto hasta ahora no son todos independientes. Están relacio-
nados mediante la fórmula de Gell-Mann-Nishijima:
Q B+S
= Iz+ (17)
e 2

Los últimos descubrimientos sugirieron otro número cuántico con propiedades similares a la extrañe-
za que inhiben ciertos procesos de decaimiento. Esta propiedad se denomina encanto C. Hay mesones

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 649


Volumen II. Física II

con encanto, denominados D±, D0 y D0 , que forman un conjunto similar al de los mesones extraños
K; también hay bariones con encanto. La ley de conservación del encanto establece que:
El encanto total se conserva en los procesos debidos a la interacción fuerte y a la
interacción electromagnética.
Al igual que en el caso de la extrañeza en el caso del encanto también tiene lugar la producción
asociada de partículas. La expresión de Gell-Mann-Nishijima se modifica para el caso de partículas
con encanto y queda como:
Q B + S +C
= Iz+ (18)
e 2

Categoría Partícula Símbolo B Le Lv Lt I Iz S


Bosones portadores (spin 1)
Fotón g 0 0 0 0 0 0 0
Bosón W W+ 0 0 0 0 0 0 0
Bosón Z Z0 0 0 0 0 0 0 0
1
Leptones (fermiones (spin )
2
Electrón e– 0 +1 0 0 0 0 0
Neutrino (e) ve 0 +1 0 0 0 0 0
Muón m– 0 0 +1 0 0 0 0
Neutrino (m) vm 0 0 +1 0 0 0 0
Tauón t– 0 0 0 –1 0 0 0
Neutrino (t) vt 0 0 0 –1 0 0 0
Hadrones
Mesones (bosones) (spin 0)
Pión p+ 0 0 0 0 +1 +1 0
p0 0 0 0 0 +1 0 0
Kaón K+ 0 0 0 0 +½ +½ +1
KS0 0 0 0 0 +½ –½ +1
K 0L 0 0 0 0 +½ –½ +1
Eta h0 0 0 0 0 0 0 0

1
Bariones (fermiones) (Spin )
2 Protón p +1 0 0 0 +½ +½ 0
Nucleones Neutrón n +1 0 0 0 +½ –½ 0

Lambda L0 +1 0 0 0 0 0 –1
Hiperones Sigma S+ +1 0 0 0 +1 +1 –1
S0 +1 0 0 0 +1 0 –1
S– +1 0 0 0 +1 –1 –1
Xi X0 +1 0 0 0 +½ –½ –2
X– +1 0 0 0 +½ +½ –2
Omega W– +1 0 0 0 0 0 –3

Tabla 4. Números cuánticos de algunas partículas elementales estables.

650 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

2. MODELO ESTÁNDAR
Como ya hemos visto, las partículas observadas pertenecen a la familia de los leptones o de los
hadrones. La principal diferencia entre ambos grupos de partículas es que los hadrones interactúan a
través de la interacción fuerte mientras que los leptones no lo hacen de esa forma. Otra importante di-
ferencia entre ambos grupos es que los leptones son sólo 6 (4, en la época de los años sesenta) mien-
tras que los hadrones pasaban de cien. El hecho de que existan tantos sugiere que no todos pueden ser
elementales. Murray Gell-Mann y G. Zweig en 1963 propusieron, de forma independiente, que los
hadrones estaban compuestos por ciertas entidades básicas o partículas fundamentales. Originalmen-
te se postuló la existencia de tres quarks y tres antiquarks. Gell-Mann propuso el nombre de quark
para estas partículas elementales.
La teoría que describe las propiedades y estructura de las partículas fundamentales, así como sus
interacciones, se conoce con el nombre de modelo estándar. Este modelo supone que la materia está
constituida por dos tipos de partículas: los leptones, y los quarks, a los cuales añadimos los bosones
intermediarios de los campos de fuerza que transportan las interacciones entre las partículas. Por con-
siguiente, se supone que los leptones y los quarks no tienen estructura interna.
Según el modelo estándar existen 6 leptones y 6 quarks, todos tienen spin 1/2 y por tanto son fer-
miones que obedecen al principio de exclusión de Pauli. Los leptones son los electrones (e), los muo-
nes (m) y los tauones (t), que tienen carga eléctrica –e, y sus tres neutrinos (ve, vm, vt), con carga
eléctrica cero. Tenemos por tanto tres grupos de leptones:

æv e ö æv m ö æv t ö
ç
ç ÷ ÷ ç
ç ÷ ÷ ç
ç ÷ ÷ (19)
èe ø èmø ètø

De forma análoga, la teoría supone la existencia de 6 tipos o sabores de quarks conocidos como
arriba (u), abajo (d), encanto (c), extraño (s), cima (t) y fondo (b), cuyos nombres provienen del inglés
up, down, charm, strange, top y bottom. Los nombres de los quarks son absolutamente arbitrarios y
no encierran ningún significado. En la física de los quarks es frecuente encontrar este tipo de termino-
logía caprichosa, como veremos más adelante. La carga eléctrica de los quarks es de 2e/3 para los
quarks u, c y t, y –1e/3 para los quarks d, s y b:

æu ö æcö æt ö
ç
ç ÷÷ ç
ç÷ ÷ ç
ç ÷÷ (20)
èd ø ès ø èb ø

Las masas de los quarks no se conoce con exactitud debido a que no se observan de forma aisla-
da como partículas libres, sino sólo en estados ligados formando hadrones. No obstante se estima que
las masas se encuentran entre los 300 MeV y los 5 GeV. Al igual que cada leptón tiene asociado un
antileptón de características iguales pero de carga opuesta, a cada quark le corresponde un antiquark
de las mismas características pero con carga opuesta. En la tabla 5 se resumen algunas de las caracte-
rísticas de los quarks.
Según una teoría denominada cromodinámica cuántica, además de la carga eléctrica, los
quarks transportan una carga de color que desempeña el mismo papel que la carga eléctrica en la in-
teracción electromagnética. Obviamente, este término no tiene nada que ver con los colores visua-
les, sino que es sólo una manera conveniente de postular una propiedad de los quarks para explicar
su comportamiento. Se supone que sólo existen tres tipos de carga de color denominadas roja (r),
verde (v) y azul (b), junto con las anticargas de color: antirroja, antiverde y antiazul. Una combina-
ción de tres quarks con tres colores diferentes o de un quark con un antiquark con la correspondien-
te anticarga de color da lugar a un sistema de color neutro o sin color (blanco). Los hadrones son
combinaciones de quarks sin color.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 651


Volumen II. Física II

Nombre Símbolo Carga Extrañeza Encanto


2
Arriba (Up) u + e 0 0
3
1
Abajo (Down) d – e 0 0
3
2
Encanto (Charm) c + e 0 +1
3
1
Extraño (Strange) s – –1 0
3e
2
Cima (Top) t + e 0 0
3
1
Fondo (Bottom) b – e 0 0
3

Tabla 5. Algunas propiedades de los quarks.

De la misma manera que en electrodinámica cuántica la fuerza electromagnética viene del inter-
cambio de fotones virtuales entre las partículas eléctricamente cargadas que interactúan, en cromodi-
námica cuántica la interacción fuerte surge del intercambio de gluones virtuales entre las partículas
con carga de color. Al hacer este intercambio estas partículas con carga de color quedan pegadas. La
diferencia principal entre la fuerza electromagnética y la fuerza de color es que los gluones poseen
ellos mismos carga de color, mientras que los fotones no tienen carga de color ni carga eléctrica. Dos
o más quarks cercanos entre sí intercambian rápidamente gluones, creando un campo de fuerza de co-
lor. Los gluones transportan pares de color/anticolor. Si bien existen 9 combinaciones posibles de pa-
res color/anticolor debido a consideraciones de simetría se elimina una, con lo que un gluón puede
transportar una de las ocho posibles combinaciones de color/anticolor. La carga de color se conserva
siempre, así, cuando un quark emite un gluón el color del quark cambia de manera que se conserve la
carga de color. Así, cuando un quark rojo emite un gluón rojo/antiazul se transforma en un quark azul
y el color neto sigue siendo el rojo. Dentro de los hadrones, los quarks emiten y absorben gluones
muy rápidamente, de modo que no es posible observar el color de un quark individual. En un hadrón,
los dos quarks que intercambian un gluón cambian de color de forma que el sistema se mantenga en
un estado de color neutro. La teoría que trata de las partículas portadoras de color se denomina cro-
modinámica cuántica.
Los bariones están compuestos por tres quarks (u, d, s) mientras que los mesones están com-
puestos por un quark y un antiquark. Por esta razón, los bariones poseen spin 1/2 o 3/2 que correspon-
den a las orientaciones del spin de los quarks (­­¯) y (­­­), mientras que los mesones son
bosones de spin 0 (­¯) o 1 (­­). En la tabla se muestra la estructura de algunos hadrones. Las reso-
nancias son estados excitados de las combinaciones de quarks. El modelo explica otras muchas cues-
tiones, como por ejemplo el hecho de que los neutrones que son una combinación (ddu) tienen carga
eléctrica cero, pero posee un momento magnético que resulta de combinar el momento magnético de
los quarks que lo forman.
Los leptones no poseen carga de color e interactúan entre sí y con los quarks mediante la interac-
ción electromagnética y débil intercambiando bosones g, W± o Z0. Ambas interacciones se pueden
combinar en lo que denominamos teoría electrodébil, establecida a mediados de los años sesenta por
Weinberg, Glashow y Salam. Los quarks que sí tienen carga de color interactúan entre ellos a través

652 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

de la interacción fuerte intercambiando gluones. En estos procesos, los quarks cambian de color pero
no de sabor, mientras que los procesos debidos a las interacciones débiles pueden cambiar de sabor
pero no de color.

Bariones (spin½) Estructura Mesones (spin 0) Estructura

p uud p +
ud

n ddu p0 uu + dd

S+ uus p– ud

S0 uds K+ us

S– dds K0 ds

L0 uds h0 uu – dd

Tabla 6. Estructura de quarks de algunos hadrones.

Cuando quarks y antiquarks se combinan para formar hadrones, ya no pueden ser separados, y a
esta propiedad se le denomina confinamiento de los quarks. Esto se debe a que los gluones producen
una fuerza que aumenta rápidamente con la distancia. De esta manera se explica por qué no hay
quarks libres en el universo, porque fueron confinados poco después de la Gran Explosión.
En resumen, en la actualidad se consideran como partículas completamente elementales a los foto-
nes, los leptones, los quarks, los gluones y los bosones W± y Z0. No obstante, algunos físicos creen que
los leptones y los quarks no son los componentes últimos de la materia, sino que están formados por ob-
jetos aún más elementales. La respuesta evidentemente sólo la podremos encontrar en el futuro.

3. DEL MICROCOSMOS AL MACROCOSMOS: TEORÍAS SOBRE LA


FORMACIÓN Y EVOLUCIÓN DEL UNIVERSO
En esta sección vamos a tratar la conexión entre el origen del universo y las interacciones de las
partículas fundamentales. Pondremos así de manifiesto la sorprendente relación que existe entre la fí-
sica a la más pequeña escala explorada experimentalmente 10–18 m y la física a gran escala del orden
del tamaño del universo mismo de al menos 1026 m.

3.1. El universo en expansión


Hasta principios del siglo XX se suponía que el universo era estático: se suponía que las estrellas
se movían unas con respecto a otras pero que no había expansión o contracción alguna en conjunto.
A partir de 1912, y en los 20 años siguientes, Vesto Slipher (1875-1969), en el Observatorio Lo-
well en Flagstaff, Arizona, consiguió obtener los espectros de la luz de algunas de las galaxias cerca-
nas. Esto supuso un gran logro experimental debido a que dichos espectros son necesariamente muy
débiles y además complejos al estar formados por la luz originada por millones de estrellas cada una
con su propio movimiento dentro de la galaxia. Slipher encontró que el espectro de la mayoría de las
galaxias mostraban un desplazamiento o corrimiento medio hacia el rojo. Los astrónomos supusieron
que esto era debido al efecto Doppler como consecuencia del movimiento de las fuentes de luz. Por
consiguiente, las galaxias se alejaban de la Vía Láctea a una velocidad considerable.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 653


Volumen II. Física II

Por otra parte, Edwin Hubble (1889-1953) que se encontraba trabajando en el observatorio del
Monte Wilson en California, desarrolló una técnica que permitía determinar la distancia a las gala-
xias. Hubble combinó sus medidas con los datos de Slipher y encontró un resultado sorprendente:
para la mayoría de las galaxias, la velocidad de recesión u es proporcional a su distancia a la Tierra. El
resultado se conoce como ley de Hubble y se escribe como:
u= H 0 r (21)
en donde H0 es una cantidad experimental denominada constante de Hubble. Puesto que resulta bas-
tante difícil determinar la distancia a cualquier galaxia, se considera que la constante de Hubble varía
entre 1.6 y 3.2 ´ 10–18 s–1, con un valor promedio de 2.4 ´ 10–18 s–1. Las distancias astronómicas sue-
len medirse en años luz:
1 año luz = 9.46 ´ 10 m
15

Y la constante de Hubble puede escribirse como:


km / s
H0 • 23 (22)
millones de años luz

La conclusión del resultado de Hubble fue revolucionaria: el universo no es estático, sino que se
encuentra en expansión. Otro aspecto de las observaciones de Hubble es que en todas las direcciones,
las galaxias parecen alejarse de nosotros. Puesto que no hay razón ninguna para pensar que la Vía
Láctea se encuentra en el centro de universo, si viviésemos en otra galaxia veríamos también que
cualquier otra parecería alejarse de nosotros. Es decir, el universo se ve más o menos igual, sin impor-
tar en qué parte de él nos encontremos. Esta importante idea es lo que se conoce con el nombre de
principio cosmológico. Existen fluctuaciones locales de densidad, pero, en promedio, el universo se
ve igual desde cualquier parte, por lo que la constante de Hubble es constante en el espacio aunque no
necesariamente en el tiempo, y las leyes de la física son las mismas en todas partes.
Una explicación al resultado encontrado de que el universo se encuentra en expansión es que en
un momento determinado toda la materia del universo estaba concentrada en una pequeña región del
espacio y que el universo comenzó con una gran explosión, denominada Big Bang, dando a la materia
observable las velocidades que ahora observamos. El tiempo en que tuvo lugar la gran explosión pue-
de calcularse de forma aproximada a partir de la ley de Hubble. Según ésta, la materia a una distancia
r de nosotros se mueve a una velocidad u = H0r. El tiempo necesario para viajar esa distancia es:
r r 1
t= = = (23)
u H0r H0

Tomando el valor promedio de la constante de Hubble se tiene que:


17 10
t = 4.2 ´ 10 s = 1.3 ´ 10 años (24)

Es decir, que el Big Bang tuvo lugar hace unos 13000 millones de años. En este cálculo hemos desestima-
do la desaceleración debida a la fuerza gravitatoria y hemos supuesto que las velocidades se han manteni-
do constantes después de la gran explosión. Por lo tanto, nuestro cálculo se encuentra por debajo de la
edad real del universo, la cual se calcula que es alrededor de 20000 millones de años (2 ´ 1010 años).
El término gran explosión fue utilizado por primera vez por el inglés Fred Hoyle para describir la
magnitud y velocidad de los procesos ocurridos en los primeros instantes en la formación del universo.
Sin embargo, no es adecuado describir la expansión del universo como una explosión de materia desde
un punto concreto del espacio. En una explosión, las partículas más rápidas se mueven en el espacio va-

654 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

cío. Desde el punto de vista de la teoría de la relatividad general el concepto de espacio y de distribución
de materia están íntimamente ligados y la distribución de materia no forma un horizonte observable, las
partículas llenan todo el espacio. Es decir, desde este punto de vista debemos entender que el Big Bang
no fue una expansión en el espacio, sino que fue la expansión del espacio mismo. Por consiguiente, de
acuerdo con la teoría de la relatividad el aumento en la longitud de onda de la luz que proviene de las ga-
laxias no es causada por un desplazamiento Doppler conforme el universo se expande en un espacio va-
cío, sino que es el resultado de la expansión del espacio y de todo lo contenido en el espacio
intergaláctico, incluidas las longitudes de onda de la luz que proviene de las galaxias distantes.

3.2. El origen del universo


El desarrollo de una teoría del universo sólo fue posible muchos años después del descubrimien-
to de Hubble. La razón de esta brecha temporal es que en la época de Hubble no se conocía la física de
los procesos a altas energías que tuvieron lugar en las primeras etapas del universo. Sólo el conoci-
miento de los componentes fundamentales de la materia y de sus interacciones ha permitido desarro-
llar una teoría acerca de la evolución del universo denominada modelo cosmológico estándar o teoría
de la gran explosión (Big Bang). Como ya hemos indicado, esta teoría supone que el universo se ini-
ció como una singularidad en el espacio y el tiempo, conocida como gran explosión, y que desde en-
tonces se encuentra en un estado de expansión continua. Existen tres razones básicas que apoyan la
teoría de la gran explosión: la expansión isotrópica del universo, la radiación cósmica de fondo iso-
trópica y fría, y la abundancia cósmica relativa de hidrógeno, deuterio y litio.
Explicar la evolución de un sistema tan complejo como el universo es una tarea extremadamente
complicada. No obstante, a continuación, vamos a exponer las ideas básicas del modelo estándar.
Algunas de estas ideas están basadas en hechos experimentales sólidamente contrastados, mientras
que otras son ideas bastante complicadas y muchos de los mecanismos propuestos, sobre todo los re-
ferentes a las primeras etapas, son meras tentativas basadas en hipótesis razonables.
El primer microsegundo. De los primeros 10–43 s siguientes al Big Bang poco podemos decir. Se
asume que las energías de las partículas eran del orden de 1020 GeV o mayores, y que a estas energías y
temperaturas toda la materia interactuaba mediante una sola fuerza. Es decir, las cuatro fuerzas funda-
mentales se encontraban unificadas poco después del inicio del universo. Podemos llamar a este perío-
do el de la gravedad cuántica. En la actualidad no existe ninguna teoría capaz de unir la teoría de la
relatividad con la mecánica cuántica y que explique la interacción entre las partículas a estas energías.
En el instante de tiempo 10–43 s, denominado tiempo de Planck, la temperatura del universo era
aproximadamente de 1032 K, y la energía promedio de las partículas kT » 1019 GeV. Esta es la energía a
partir de la cual la gravedad se separa del resto de las fuerzas fundamentales, por lo que este tiempo
marcó la transición entre cualquier TOE (Teoría del Todo, unificación de las cuatro fuerzas) al período
de la GUT (Teoría de la Gran Unificación, unificación de la fuerza electrodébil y la nuclear fuerte).
Durante el período GUT entre 10–43 y 10–35 s, las fuerzas fuerte y electrodébil aún estaban unifi-
cadas y el universo consistía en una sopa de quarks y leptones que se transformaban entre sí libremen-
te, sin ninguna distinción entre ambas familias, y que se expandía contra su propia gravedad. La
teoría GUT exige la existencia de bosones superpesados con color, denotados con X, que sean porta-
dores de la interacción responsable de las transiciones entre fermiones (quarks y leptones).
En el instante 10–35 la temperatura había disminuido hasta un valor aproximado de 1027 K y la
energía promedio de las partículas era de 1014 GeV. A estas energías los bosones X no podían ser crea-
dos en estados libres mediante colisiones debido a la pérdida de energía cinética de las partículas. Los
quarks y los leptones se convirtieron en dos tipos de fermiones diferentes sin probabilidad de transicio-
nes entre ellos. En consecuencia la interacción fuerte se separó de la interacción electrodébil y el princi-
pio de conservación del número bariónico y leptónico comenzó a tener validez. En los modelos
denominados inflacionarios, esta separación de la fuerza fuerte es similar a una transición de fase como

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 655


Volumen II. Física II

la ebullición de un líquido. En consecuencia, estos modelos predicen una expansión muy rápida en la
que el universo pudo aumentar su tamaño hasta 1030, estableciéndose las condiciones para su expansión
posterior. En 10–32 s, el universo era una mezcla de quarks, leptones y bosones mediadores (gluones, fo-
tones, y los bosones débiles W± y Z0. El universo continuó expandiéndose y enfriándose.
En el instante 10–12 s, la temperatura descendió hasta 1015 K. La energía de las partículas era del
orden de 102 GeV y se produjo una nueva transición de fase o ruptura de simetría. Por debajo de esta
energía los bosones electrodébiles (W± y Z0) no pudieron crearse en estados libres y comenzaron a de-
saparecer del universo. El resultado fue la separación de la fuerza débil de la fuerza electromagnética.
El universo se redujo entonces a una mezcla de quarks, leptones, gluones y fotones.
Entre 1 ms y 100 ms. En el instante 10–6 s, la temperatura se redujo hasta unos 1013 K y la energía
típica era de 1 GeV (comparable a la energía en reposo de un nucleón). El universo entró en la era del
confinamiento de los quarks: los quarks se combinaron entre sí para formar los nucleones y los anti-
nucleones. El universo estaba compuesto mayoritariamente por protones, antiprotones, neutrones y
antineutrones, juntos con los leptones. Las partículas interactuaban con sus antipartículas dando lu-
gar a una gran cantidad de fotones g. Por otra parte, estos fotones de gran energía colisionaban entre sí
dando lugar a la creación de pares partícula-antipartícula.
Cuando la temperatura descendió a 1013 K, en un tiempo aproximadamente igual a 100 ms, los
fotones dejaron de tener la energía suficiente para producir pares protón-antiprotón y neu-
trón-antineutrón. El resultado fue la aniquilación de pares protón-antiprotón y neutrón-antineutrón
hasta que no quedaron antiprotones y antineutrones. Casi todos los protones y neutrones fueron tam-
bién aniquilados, pero no todos, evidentemente. La razón por la que no quedó antimateria es debido a
una ligera asimetría en las leyes fundamentales que dio lugar a que el número de quarks formados ori-
ginalmente fuese superior al de los antiquarks en una proporción de 1 en 109.
Entre 100 ms y 1 s. El equilibrio entre leptones y fotones resultado de las reacciones:
– +
e +e ®g+g (25)
– +
g + g® e + e (26)
se mantuvo hasta un tiempo aproximado de 1 s cuando, a consecuencia de la expansión, la temperatu-
ra se redujo hasta 6 x 109 K en la que el segundo proceso no podía tener lugar debido a la energía de
los fotones. En consecuencia, los electrones y los positrones se aniquilaron no quedando antimateria
de forma significativa.
Entre 1 s y 10 s. Las reacciones dominantes en este intervalo de tiempo fueron:

p + e ® n + ve (27)
+
n + e ® p + ve (28)

Sin embargo en el instante t = 2 s, la temperatura era lo suficientemente baja como para que no se pro-
dujeran las interacciones:

ve + n ® p + e (29)
+
ve + p ® n + e (30)

Esto dio lugar a dos efectos importantes. El primero es que el universo se hizo transparente a los neu-
trinos: los neutrinos continuaron su expansión sin interaccionar y dio lugar a una radiación de fondo
de neutrinos cósmicos que existe en la actualidad, aunque muy enfriado por la expansión. Por otro
lado, los neutrones libres son inestables y se desintegran con una vida de unos 900 s:

n ® p + e + ve (31)

656 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

Como consecuencia se produjo un desequilibrio entre el número de neutrones y protones, y al final


del período el número de neutrones descendió al 12% con respecto al número de protones.
Entre 10 y 100 s. En este período comenzó a haber una posibilidad de producir núcleos pesados
por fusión termonuclear. Hasta este tiempo, cualquier núcleo de deuterio que se hubiese formado por
medio de la reacción:
n + p ® 21 H (32)
experimentaba inmediatamente un procesos de fotodesintegración:
g + 21 H ® n + p (33)

Esto era debido a que la energía de enlace del deuterio es solamente 2.2 MeV, por lo que era imposi-
ble la formación de ningún núcleo pesado.
A partir del instante t • 100 s, la temperatura descendió por debajo del nivel necesario para que
los fotones tuviesen energía suficiente para producir la reacción anterior, por lo que se hizo posible la
formación por fusión termonuclear de 21 H, 32 He y 42 He. Sin embargo, la excepcional estabilidad del
4
2 He y la ausencia de un núcleo estable con número atómico A = 5 y A = 8 impidió la formación de nú-
cleos más pesados.
Entre 100 s y 300000 años. En este período la temperatura había descendido a un valor tal que
se podían formar los primeros átomos. Un protón podía capturar un electrón y daba lugar a un átomo
de hidrógeno. Sin embargo, la energía de los fotones era lo suficientemente alta como para producir la
ionización de tales átomos:

g + 11 H (Atómico) ® p e (34)

Finalmente, transcurridos alrededor de 300000 años, la energía de los fotones se hizo insuficiente
para ionizar los átomos. De esta manera, los electrones se combinaron con los núcleos para dar lugar
a átomos estables de hidrógeno, de helio y de litio. El universo se hizo transparente a los fotones y la
materia y la radiación se separaron. Estos fotones, enfriados por la expansión subsiguiente, forman la
radiación de fondo, la cual en la actualidad tiene una temperatura de cuerpo negro de aproximada-
mente 2.7 K. La observación de esta radiación por Robert Wilson y Arno Penzias en 1964 proporcio-
nó una de las confirmaciones experimentales más convincentes del modelo del Big Bang.
Después de los 300000 años. La separación entre radiación y materia preparó el camino para la
formación de estrellas y galaxias. Las pequeñas fluctuaciones aleatorias en la densidad en una deter-
minada región desencadenó la contracción gravitatoria alrededor de un centro de densidad ligera-
mente aumentada. La distribución de grupos de galaxias que se observa parece indicar que las
fluctuaciones en la densidad debieron producirse bastante pronto en la evolución del universo.
Tal como hemos visto, en el Big Bang sólo tuvo lugar la formación de los elementos muy lige-
ros. Los demás elementos por debajo del hierro se produjeron en los procesos de fusión termonuclear
en las estrellas. Los elementos pesados, que existen en el universo con una abundancia relativa pe-
queña, se cree que se formaron durante los procesos exóticos que tienen lugar en las supernovas.

3.3. El futuro del universo


Hemos visto cómo en base a consideraciones energéticas podemos dar una respuesta razonable
al problema del origen y evolución del universo hasta el presente.
El modelo estándar considera que el universo se originó en una singularidad del espacio tiempo
y se encuentra en expansión desde ese instante. Pero, ¿hasta cuando durará este proceso de expan-
sión? La respuesta a esta pregunta depende del valor de la densidad de masa-energía del universo. En
la actualidad, la mayoría de la energía del universo se encuentra en la forma de masa y la dinámica de

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 657


Volumen II. Física II

largo alcance es la gravitacional. Por consiguiente, la atracción gravitatoria debería frenar la expan-
sión del universo.
Si la densidad del universo es mayor que cierto valor denominado densidad crítica, la atracción
gravitatoria será lo suficientemente fuerte de manera que la expansión del universo se hará más lenta
hasta que se detenga cuando la energía cinética se haya convertido en energía gravitatoria. A partir de
este momento el universo empezará a contraerse hasta llegar a una situación que se ha venido deno-
minado Gran Contracción o Big Crunch. El universo podría entonces rebotar con un Big Bounce y
empezar todo de nuevo. Se tendría así un universo oscilante que sería un universo cerrado.
Si la densidad de masa fuese menor que la densidad crítica el universo sería plano o abierto. En
este caso, la expansión continuará indefinidamente.
La densidad crítica se estima que es del orden de rc = 2 ´ 10–26 kg/m3. Es decir, aproximadamente
de 12 nucleones por metro cúbico. La evidencia presente, basada en estimaciones de materia luminosa
(materia que interacciona con la radiación electromagnética) en galaxias, así como en el proceso de nu-
cleosíntesis, indica que la densidad de masa energía del universo es del orden de 0.05 rc, lo que favorece la
idea de que el universo es abierto. Sin embargo, existe una gran incertidumbre sobre la materia real del
universo. Algunos teóricos creen que la densidad de masa es igual a la densidad crítica. Para que esto fuera
así, debería existir una gran cantidad de materia oscura no visible en el universo. La naturaleza de esta ma-
teria oscura es en la actualidad un misterio y son varias las posibilidades. La primera son los neutrinos con
masa, la segunda los agujeros negros, y la tercera las WIMP (partículas masivas de interacción débil). La
presencia de materia oscura viene también sugerida por las recientes mediciones del efecto Doppler de los
lados opuestos de una galaxia en rotación. Las medidas indican que se requiere 10 veces más de la masa
visible para mantener unidas estas galaxias mediante la fuerza gravitatoria. Por consiguiente, podemos
decir que la naturaleza de la mayor parte de la materia de nuestro universo sigue siendo un misterio para la
ciencia. De su cantidad depende de cómo será el universo, aunque los indicios apuntan a que el universo
es abierto, o cuanto más, plano en continua expansión.

658 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Partículas elementales. Estado actual de su estudio

BIBLIOGRAFÍA

Alonso, M. y Finn, E. J.: Física. Fondo Educativo Iberoamericano. Bogotá, 1971.


Alonso, M. y Finn, E. J.: Física. AddisonWesley Iberoamericana. Estados Unidos,
1995.
Eisberg, R. y Resnick, R.: Física Cuántica. Limusa. México, 1978.
Fishbane, P. M., Gasiorowicz, S. y Thornton, S. T.: Physics for Scientist and
Engineers. Prentice Hall, Upper Saddle River, New Jersey, 1996.
Giancoli, D. C.: Física General. Prentice Hall. México. 1984.
Krane, K. S.: Introductory Nuclear Physics. John Wiley. New York, 1988.
Sandin, T. R.: Essential of Modern Physics. Addison Wesley Publisshing Com-
pany. New York, 1989.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 659


TEMA

39
Sistema solar. Fenómenos
de astronomía de posición.
Observación y medida
en astrofísica. Evolución
estelar. Estructura
y composición del universo

Jesús Ruiz Martínez


Cuerpo de Profesores de Educación Secundaria
Volumen II. Física II

ÍNDICE SISTEMÁTICO

1. EL SISTEMA SOLAR
1.1. Origen del sistema solar
1.2. Situación del sistema solar
1.3. Estructura del sistema solar
1.3.1. El Sol
1.3.2. Los planetas y sus satélites
1.3.3. Asteroides
1.3.4. Cometas

2. ASTRONOMÍA DE POSICIÓN
2.1. La esfera celeste
2.2. Movimiento aparente de los objetos celestes
2.2.1. Efecto del movimiento de rotación de la Tierra
2.2.2. Efecto del movimiento orbital de la Tierra
2.3. Coordenadas astronómicas
2.3.1. Coordenadas horizontales o altacimutales
2.3.2. Coordenadas horarias o ecuatoriales locales
2.3.3. Coordenadas ecuatoriales absolutas
2.3.4. Coordenadas eclípticas
2.4. Medidas del tiempo en astronomía
2.5. Tiempo solar
2.6. Tiempo sidéreo
2.7. Tiempo de efemérides

3. OBSERVACIÓN Y MEDIDA EN ASTROFÍSICA


3.1. Aparatos espectrales
3.2. Radiotelescopios
3.3. Observación espacial
3.4. Medición de distancias

4. CLASIFICACIÓN DE LAS ESTRELLAS Y EVOLUCIÓN ESTELAR


4.1. Luminosidad y brillo
4.2. Clasificación espectral de las estrellas
4.3. Diagrama de Hertzsprung-Russell
4.4. Evolución estelar
4.4.1. Estrellas poco masivas
4.4.2. Estrellas masivas

5. ESTRUCTURA Y COMPOSICIÓN DEL UNIVERSO


5.1. Galaxias
5.2. Origen y evolución del universo

BIBLIOGRAFÍA

662 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

1. EL SISTEMA SOLAR
La astronomía moderna tiene su origen en el estudio de nuestro sistema solar. Las grandes ci-
vilizaciones antiguas de Egipto, Grecia, China o la India fueron las primeras en encontrar grupos de
estrellas fijas, hoy denominadas constelaciones, que giraban en el cielo noche tras noche mante-
niendo la misma forma, y a los que asociaron con objetos, animales e incluso con elementos de sus
propias mitologías y cultura. Además de estas estrellas fijas, los antiguos observaron otros objetos
brillantes que se movían siguiendo esquemas regulares. Estos objetos eran algunos de los planetas
del sistema solar.
Los antiguos reconocían cinco planetas, que eran los que podían verse sin utilizar ningún tipo de
instrumento, y el objetivo último de la observación de los cuerpos celestes era eminentemente prácti-
co y estaba relacionado con la navegación o la posibilidad de construir calendarios. En aquellas épo-
cas todas las explicaciones se basaban en la idea de que la Tierra era el centro de todo el Universo y no
fue hasta el siglo XVI cuando los trabajos de Nicolás Copérnico establecieron las bases científicas de
la moderna astronomía.
En la actualidad sabemos que el sistema solar está compuesto por nueve planetas y una miríada
de objetos más pequeños como satélites, asteroides, cometas y polvo. No obstante, el descubrimiento
de nuevos objetos y nuevos tipos de objetos es continuo, por lo que nuestra visión del sistema solar es
absolutamente cambiante con los nuevos datos y observaciones realizadas. El conocimiento de nues-
tro sistema solar ha adquirido una nueva dimensión en las últimas décadas debido a la posibilidad de
realizar exploraciones interplanetarias que han proporcionado imágenes y datos de los planetas y de-
más objetos inimaginables hace algunos años. Por otro lado, los nuevos desarrollos tecnológicos y la
utilización de nuevas técnicas han permitido mejorar las observaciones realizadas desde la Tierra y
realizar nuevos descubrimientos sobre la composición y estructura del sistema solar.
En otro orden de cosas, recientemente hemos asistido a un descubrimiento de enorme importan-
cia: la detección de posible material biológico en meteoritos procedentes de Marte. A pesar de ser un
tema muy controvertido, este descubrimiento pondría de manifiesto la posibilidad de existencia de
vida en otros planetas de condiciones similares. Un tema que ha interesado a la humanidad y no sólo
desde el punto de vista científico.

1.1. Origen del sistema solar


El sistema solar nació hace aproximadamente 4600 millones de años y fue consecuencia de las
perturbaciones sufridas por una gigantesca nube de gas y polvo. Debido a una colisión con otra nube
o a una onda de choque producida por la explosión de una supernova cercana, la nube se dividió en
agregados de materia más pequeños y densos los cuales colapsaron hacia su centro debido a la grave-
dad. Uno de estos agregados, denominado nebulosa, sufrió un proceso de contracción durante 30 a
100 millones de años hasta que el núcleo fue lo suficientemente caliente como para que se produjeran
las primeras reacciones nucleares de fusión de los átomos de hidrógeno dando lugar a átomos de helio
más pesados. De esta manera se produjo el nacimiento del Sol.
El Sol así creado se encontraba rodeado de su nebulosa, la cual se extendía formando un disco
que giraba a su alrededor. La materia que caía hacia el centro consistía de gas, fundamentalmente hi-
drógeno y helio, y polvo compuesto por silicatos y hielo. Según un modelo bastante extendido, la pre-
sión creciente en el núcleo redujo la caída de materia hacia el centro provocando que estas se unieran
mediante colisiones para formar partículas más grandes. Los objetos fueron creciendo de tamaño has-
ta alcanzar el tamaño de kilómetros. Estos objetos denominados planetesimales fueron uniéndose
para formar los núcleos de los planetas.
En las zonas cercanas al Sol, la temperatura era tan elevada que el hielo se derritió y las partículas li-
geras como el hidrógeno y el helio fueron expulsadas. Por eso, esta zona fue dominada por roca y metal

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 663


Volumen II. Física II

que dieron lugar a la formación de los planetas internos: Mercurio, Venus, La Tierra y Marte. Por el con-
trario, en las zonas lejanas, las temperaturas eran lo suficientemente frías como para que existiera una gran
cantidad de hielo, que se unió a los planetesimales para dar lugar a los núcleos de los planetas gigantes: Jú-
piter, Saturno, Urano y Neptuno. Por otra parte, en las zonas lejanas la densidad de hidrógeno y helio era
aproximadamente igual a la original por lo que los planetas externos incorporaron gran cantidad de estos
elementos y aumentaron aún más su tamaño. Este modelo podría explicar el hecho de que los planetas Jú-
piter y Saturno presenten la concentración de hidrógeno y helio más alta, mientras que Urano y Neptuno
que se formaron en una región más fría contienen las cantidades de hielo más altas.

1.2. Situación del sistema solar


La Vía Láctea es una galaxia de tipo espiral de aproximadamente 100.000 años luz de diámetro
que contiene alrededor de 100.000 millones de estrellas y cuya masa se estima en 4 ´ 1011 veces la
masa del Sol.
La Vía Láctea está formada por cuatro estructuras mayores: el disco galáctico, la protuberancia
central, el halo y la corona. El disco galáctico es una estructura en rotación casi plana de unos 50.000
años luz de radio y de espesor entre 1500 y 2500 años luz. El disco contiene estrellas relativamente jó-
venes y nubes interestelares situadas en una estructura espiral de varios brazos (5 brazos pueden distin-
guirse ópticamente). En el centro del disco se encuentra la protuberancia central que tiene la forma de
un esferoide de aproximadamente 10.000 años luz de radio en el plano del disco y de 5.000 años luz en
la dirección perpendicular al disco. La protuberancia central consta fundamentalmente de viejas estre-
llas y de nubes interestelares. En el centro de esta protuberancia se encuentra el núcleo de la galaxia que
es una región bastante compleja de sólo 15 años luz de longitud y que parece tener un agujero negro de
aproximadamente 2,6 millones de veces la masa del Sol. Rodeando estas dos estructuras se encuentra el
halo que tiene la forma de un esferoide que se extiende unos 65.000 años luz desde el centro de la gala-
xia y que contiene viejas estrellas y cúmulos globulares de estrellas. La corona es como un halo todavía
más distante, entre 200.000 y 300.000 años luz, que contiene fundamentalmente materia oscura que no
es observable salvo por su efecto en la dinámica de los objetos de la galaxia. El disco gira con una velo-
cidad constante de entre 160 y 220 km/s. Esta velocidad de rotación para una órbita galáctica circular en
el plano galáctico define el estándar local de reposo (LSR) y se utiliza como sistema de referencia para
la descripción de la dinámica estelar.
El Sol se encuentra situado en el borde interno de uno de los brazos de la galaxia aproximada-
mente a una distancia de 27.000 años luz del centro de la galaxia y a una altura de entre 30 y 70 años
luz del plano central del disco galáctico. Por su parte, el sistema solar se mueve a una velocidad apro-
ximada entre 17 y 20 km/s relativa al LSR. La estrella más próxima al sistema solar es Próxima Cen-
tauri que es una estrella de masa pequeña (0,1 veces la masa solar) que a su vez es la compañera dis-
tante de Alpha Centauri que es un sistema de estrella doble formada por dos estrellas del tipo solar. En
la actualidad, la distancia del Sol a Próxima Centauri es de 1,3 pc (parsec, 1 pc = 3,26 años luz) y la
distancia entre ésta y Alpha Centauri es de 0,06 pc. La segunda estrella más cercana al Sol es la estre-
lla de Barnard, una enana roja que se encuentra a 1,83 pc del Sol.

1.3. Estructura del sistema solar


El sistema solar es el conjunto de planetas, satélites naturales, asteroides, cometas, meteoroides,
y polvo y gas interestelar bajo la acción gravitatoria del Sol.
En la actualidad, sabemos que el sistema solar está formado por el Sol, colocado en su centro, 9
planetas mayores, 63 satélites naturales o lunas, 4 sistemas de anillos, millones de asteroides de más
de 1 km de diámetro, trillones de cometas de diámetro mayor que 1 km, el viento solar, y una inmensa
nube de polvo y gas interestelar.

664 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

A continuación vamos a describir cada uno de los componentes del sistema solar.

1.3.1. El Sol
El Sol (figura 1) es una estrella ordinaria que sigue la
secuencia principal (ver apartado 4). De acuerdo con su es-
pectro, el Sol está clasificado como una estrella enana G2,
lo que significa que la parte principal de su espectro se en-
cuentra en el visible y presenta un pico en las longitudes de
onda correspondientes al amarillo.
El radio del Sol, Ru, es de 696.000 km (aproximada-
mente 109 veces el radio de la Tierra) y tiene una masa, Mu Figura 1. Imagen de rayos X del Sol.
de 1,989 ´ 1030 kg (330.000 veces la masa de la Tierra) con
una densidad media de 1,41 g/cm3. La masa del Sol supone el 99,85% de la masa del sistema solar,
pero sólo el 0,5% de su momento angular. Esto se debe fundamentalmente a la transferencia de mo-
mento angular entre el Sol y el disco de acumulación que dio lugar a la formación de los planetas y a
la pérdida gradual de momento angular debido al momento angular transportado por el viento solar.
El Sol se compone básicamente de hidrógeno (75%), helio (23%) y elementos más pesados
(2%). Debido a la fuerza gravitatoria, la masa del Sol presiona hacia dentro y para evitar el colapso de
la estrella la presión central debe ser suficiente como para soportar su peso. Esto hace que la densi-
dad, la presión y la temperatura sean diferentes a distintas distancias del centro de la estrella.
En lo que se refiere a la estructura del Sol podemos distinguir una estructura interna formada por
un núcleo, una zona de radiación y una zona convectiva; y la atmósfera solar formada por la fotosfera,
la cromosfera y la corona solar (figura 2).

Zona Zona
radiativa convectiva

Fotosfera
Núcleo

Corona

Cromosfera Protuberancia

Figura 2. Estructura del Sol.

3
– El núcleo es la zona central del sol con una densidad de aproximadamente 150 g/cm que se
6
encuentra a una temperatura aproximada de 10 K. A estas temperaturas, los átomos se en-
cuentran separados de sus electrones y debido a la enorme presión son capaces de vencer
las fuerzas electrostáticas de repulsión, colisionan con otros átomos y dan lugar a reaccio-
nes nucleares y a liberación de energía, crucial para la existencia de vida en la Tierra. Estas
reacciones nucleares son las siguientes. En primer lugar un protón se fusiona con otro pro-
tón para dar lugar a un deuterón
1 1 2 +
H + H ® D + e + n + 1,44 MeV (1)
El paso siguiente a la formación de deuterones es:
2 1 3
D + H ® He + g + 5,49 MeV (2)

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 665


Volumen II. Física II

La reacción D – D es menos probable debido a que la cantidad de deuterones formada es


18
pequeña en relación al número de protones existentes (1 deuterón por cada 10 protones).
Por último, el siguiente paso es la reacción:
3 3 4 1
He + He ® He + 2 H + g + 12,86 MeV (3)
Por consiguiente, el resultado final es que se fusionan 4 átomos de hidrógeno para dar lugar
a un átomo de helio y liberando una energía aproximada de 26.7 MeV. Esta energía toma la
forma de energía cinética de las partículas productos de la reacción, que sirve para calentar
los gases en el núcleo, mientras que el resto de energía es transportada por los neutrinos,
que desaparecen en el cosmos, y por los fotones dispersados por los núcleos atómicos del
núcleo solar. La luz del sol que llega a la Tierra es característica de su superficie y represen-
ta los rayos g de las reacciones en el interior que luego son dispersados muchas miles de ve-
ces en su viaje a la superficie. Quizás esta radiación tarda millones de años en alcanzar la
superficie, de manera que la luz que vemos es el resultado de procesos solares que tuvieron
lugar hace millones de años.
– Zona de radiación. A una distancia del centro, aproximadamente de un tercio del radio solar,
la temperatura desciende a valores tales que ya no se producen reacciones nucleares. En esta
zona los núcleos atómicos conservan la capa electrónica por lo que se produce la absorción y la
re-emisión de los fotones emitidos por el núcleo y se denomina zona de radiación, la cual tiene
un espesor de alrededor de 270.000 km. El movimiento de cada fotón en la zona de radiación es
aleatorio: el fotón es absorbido, re-emitido y desviado muchas veces siguiendo un camino alea-
torio desde el núcleo a la superficie. El movimiento aleatorio en la zona de radiación hace que el
fotón tarde aproximadamente unos 200.000 años en llegar del núcleo a la superficie.
– Zona convectiva. En la parte más externa de la esfera solar la absorción de los fotones da
lugar a un aumento del gradiente de temperatura produciéndose el fenómeno de convec-
ción. En esta región los átomos ionizados en las regiones inferiores son transportados hacia
regiones más frías por corrientes de convección como las que se producen en los líquidos
calientes. En la parte superior los átomos liberan la energía de ionización. La zona de con-
vección tiene un espesor aproximado de 200.000 km.

La atmósfera solar está formada por tres regiones: la fotosfera, la cromosfera y la corona solar.

– La fotosfera es una zona de unos 300 km de espesor en la que se produce la radiación visi-
ble de espectro continuo y es la superficie visible del Sol. En esta zona, los fotones atrapa-
dos en las regiones internas escapan dando lugar a un descenso de la temperatura que es del
orden de los 5.800 K en la superficie visible y que disminuye hasta un mínimo de 4.000 K a
una distancia de unos 500 km por encima. Cuando se observa mediante un telescopio se
pueden distinguir las corrientes de convección que se producen en la zona inferior. El mo-
vimiento continuo de materia hacia arriba y hacia abajo en la zona de convección produce
un esquema denominado granulación que le da a la fotosfera una apariencia irregular. La
duración de cada gránulo es del orden de 10 minutos y tienen una extensión de unos 2.000
km. Pero también hay células de granulación de una extensión de alrededor de 30.000 km y
que tienen una duración del orden del día.
– La cromosfera es una capa de gas en forma de anillo de color rosa de unos 2.000 km de es-
pesor que puede verse durante los eclipses cuando la fotosfera se encuentra oculta. En la
cromosfera la energía es transportada por radiación: los átomos de hidrógeno absorben la
energía de la fotosfera y la mayor parte de esta energía es emitida como luz roja. Por eso, la
cromosfera también puede verse fácilmente mediante filtros que sólo dejen pasar la luz
roja. Las medidas realizadas revelan que la temperatura de la cromosfera es del orden de
8.000 K, un poco mayor que la de la fotosfera. Por tanto, la cromosfera es la zona de transi-
ción entre la región de temperatura relativamente baja que representa la fotosfera (5.800 K)

666 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

y la región de alta temperatura (1.000.000 K) que representa la corona solar. Otro aspecto
interesante de la cromosfera es que su parte más externa presenta una serie de salientes con-
tinuamente cambiantes denominados espículas. La espículas son como llamaradas de mi-
les de kilómetros de longitud que aparecen y desaparecen de forma rápida y continua.
– La corona solar es una especie de halo que rodea a la
cromosfera y que se extiende una gran distancia alrede-
dor del Sol (figura 3). Al igual que la cromosfera, la co-
rona puede apreciarse cuando se producen los eclipses
de Sol en los que la fotosfera se encuentra oculta o me-
diante un telescopio especial que simula un eclipse cu-
briendo completamente el disco solar. La forma de la
corona está determinada principalmente por el campo
magnético del Sol. Los electrones libres se mueven a lo
largo de las líneas de campo magnético y forman es-
tructuras de muy diversa forma. En ocasiones el campo
magnético emerge de las regiones más bajas y vuelve
de nuevo hacia el Sol describiendo un arco. Puesto que
las partículas siguen el camino marcado por el campo
Figura 3. Corona solar.
magnético producen lazos y arcos dinámicos que se
pueden ver mediante telescopios especiales y que se
denominan protuberancias solares.
Las partículas de la corona también fluyen a lo largo de líneas del campo magnético que se
alejan del Sol hacia el espacio interestelar. Este flujo de partículas se denomina viento solar
y puede alcanzar velocidades de 400 km/s. Cuando el viento solar alcanza la Tierra, el cam-
po magnético terrestre en ocasiones atrapa estos electrones y protones y los arrastra hasta la
atmósfera en donde interactúan con los átomos que absorben energía y luego la liberan en
forma de luz coloreada. Este fenómeno, cuando se produce en el hemisferio norte, se deno-
mina Aurora Boreal.

1.3.2. Los planetas y sus satélites


Los planetas son cuerpos celestes que no emiten luz propia y que se mueven en órbitas alrededor
del Sol. En la actualidad se conocen nueve planetas en el sistema solar que en orden a su proximidad
al Sol son: Mercurio, Venus, La Tierra, Marte, Júpiter, Saturno, Urano, Neptuno y Plutón (figuras 4 y
5). Los planetas son visibles debido a que reflejan la luz del Sol y cinco de ellos pueden verse a simple
vista por lo que son conocidos desde la antigüedad (Mercurio, Venus, Marte, Júpiter y Saturno). En
1781 William Herschel descubrió el planeta Urano, y en 1846 J. G. Galle descubrió el planeta Neptu-
no a partir de las predicciones de U. J. J. Leverrier (e independientemente de J. C. Adams) quien ha-
biendo observado desviaciones de la órbita prevista de Urano predijo la existencia y localización
aproximada de un nuevo planeta. Durante la década de 1920, los astrónomos buscaron un noveno pla-
neta pues creían que algo estaba interfiriendo la órbita de Neptuno. Finalmente, en 1930, Clyde Tom-
baugh descubrió el planeta Plutón. Sin embargo, Plutón era demasiado pequeño para que afectara la
órbita de Neptuno. De hecho, medidas más recientes han puesto de manifiesto que no hay nada que
perturbe la órbita de Neptuno. Esto junto con el hecho de que Plutón tiene unas características muy
diferentes a los planetas más alejados del Sol, que su órbita cruza la trayectoria de Neptuno y que la
inclinación de su órbita es mucho mayor que la del resto de planetas hace que muchos astrónomos du-
den de que deba ser considerado como un planeta.
Todas las órbitas de los planetas se encuentran aproximadamente en un mismo plano conocido
como plano de la eclíptica que es el plano de la órbita de la Tierra alrededor del Sol. Además, todos
los planetas giran en sentido contrario al de las agujas del reloj, según se vería desde el polo norte de

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 667


Volumen II. Física II

la eclíptica. En primera aproximación, despreciando los efectos de los otros planetas y del resto de
materia del sistema solar, el movimiento de los planetas alrededor del Sol viene descrito por las leyes
de Kepler:
1. Los planetas describen órbitas elípticas alrededor del Sol, con éste en uno de sus focos.
2. El radio vector de un planeta respecto del Sol barre áreas iguales en tiempos iguales.
3. El cuadrado de los períodos de revolución de cada planeta alrededor del Sol es proporcional al
cubo de los semiejes mayores de las elipses.

Marte

Mercurio La Tierra

Venus Figura 4. Órbitas


alrededor del Sol de
los planetas más
cercanos.

Plutón

Neptuno

Urano

Júpiter Saturno
Figura 5. Órbitas
alrededor del Sol
de los planetas
más lejanos.

En la tabla (1) se muestran las características de las órbitas de los nueve planetas del sistema so-
lar alrededor del Sol. Las distancias se dan en unidades astronómicas (AU, 1 AU = 149.600.000 km),
y la inclinación se da en grados respecto al plano de la eclíptica.
Debido a que los planetas tienen una masa finita, su interacción gravitatoria es pequeña pero
no nula. Como consecuencia de esta interacción mutua, las órbitas de los planetas se separan de su
forma elíptica ideal y el efecto más significativo es la precesión del perihelio. Por otro lado, en un
sistema dinámico, pequeñas variaciones en las condiciones iniciales o la imposibilidad de poder es-
pecificar con precisión las condiciones iniciales pueden conducir a un error creciente con el tiempo
en las predicciones a largo plazo. Si el error crece exponencialmente se dice que el sistema es caóti-
co. Algunos estudios han demostrado que las órbitas de los planetas son caóticas. Ahora bien, esto
no significa que Júpiter y Marte pudieran cruzarse algún día, lo que quiere decir es que la posición
de cualquier planeta sobre su órbita no puede predecirse para períodos de tiempo muy largo. Por su-
puesto, esto significa que la interacción mutua entre los planetas tampoco puede predecirse a muy
largo tiempo y por tanto puede variar.

668 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Semieje mayor Excentricidad Inclinación Período


Planeta (AU) (º) (Años)

Mercurio 0,38710 0,205631 7,0048 0,2408


Venus 0,72333 0,006773 3,3947 0,6152
La Tierra 1,00000 0,016710 0,0000 1,0000
Marte 1,52366 0,093412 1,8506 1,8807
Júpiter 5,20336 0,048393 1,3053 11,856
Saturno 9,53707 0,054151 2,4845 29,424
Urano 19,1913 0,047168 0,7679 83,747
Neptuno 30,0690 0,008586 1,7692 163,723
Plutón 39,4817 0,248808 17,1417 248,02

Tabla 1. Órbitas de los planetas del sistema Solar.

La estructura interna de un planeta está formada por tres partes: el núcleo, el manto y la corteza,
y atendiendo a su composición se dividen en dos grupos: los planetas tipo Tierra o telúricos y los pla-
netas tipo Júpiter o jovianos, también denominados gigantes. En la tabla (2) se muestran las caracte-
rísticas físicas de los planetas y del Sol.

Nombre Masa Radio ecuatorial Densidad Período de Velocidad de


rotación escape
(kg) (km) (g/cm3) (días/horas) (km/s)

Sol 1,989 ´ 1030 696.000 1,41 24,65 - 34 días 617,7


Mercurio 3,302 ´ 1023 2.439 5,43 58,65 días 4,43
Venus 4,868 ´ 1024 6.051 5,20 243,018 días 10,36
La Tierra 5,974 ´ 1024 6.378 5,52 23,934 horas 11,19
Marte 6,418 ´ 1023 3.396 3,93 24,623 horas 5,03
Júpiter 1,899 ´ 1027 71.492 1,33 9,925 horas 59,54
Saturno 5,685 ´ 1026 60.268 0,69 10,665 horas 35,49
Urano 8,683 ´ 1025 25.559 1,32 17,24 horas 21,33
Neptuno 1,024 ´ 1026 24.764 1,64 16,11 horas 23,61
Plutón 1,32 ´ 1022 1.170 2,1 6,387 días 1,25

Tabla 2. Parámetros físicos de Sol y los planetas.

– Los planetas telúricos son de dimensiones moderadas


y de densidad relativamente alta. Tienen un núcleo
metálico fundamentalmente de hierro, o de hierro y ní-
quel como la Tierra, y un manto de silicatos. La corte-
za exterior de estos planetas es sólida y su aspecto de-
pende tanto de procesos externos como impactos con
objetos exteriores, como de procesos internos como
los tectónicos y volcánicos. Por otra parte, estos plane-
tas tienen unas atmósferas, probablemente debidas a
una evolución química y a un proceso de pérdida de
gases, bastante diferentes.
Ø Mercurio es el planeta más cercano al Sol y el
más pequeño (figura 6). Su atmósfera es bastante
tenue y se debe a su interacción con el viento so- Figura 6. El planeta Mercurio.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 669


Volumen II. Física II

lar del que captura iones de hidrógeno y helio. Debido a su cercanía al Sol la tempe-
ratura es del orden de los 370 ºC durante el día pero debido a su casi inexistente at-
mósfera no puede retener el calor por lo que su temperatura nocturna puede alcanzar
los –185 ºC. Esta falta de atmósfera hace que el planeta no esté protegido de impac-
tos exteriores, por lo que su superficie es bastante parecida a la de la Luna con una
gran cantidad de cráteres. Además, la imposibilidad de fenómenos atmosféricos hace
que su superficie no pueda ser erosionada.
Ø Venus es el segundo planeta más cercano al Sol (figura 7). Su superficie está domina-
da por una amplia variedad de terreno volcánico y su superficie es casi plana debido a
dos factores: la espesa atmósfera del planeta, y la actividad volcánica. La atmósfera de
Venus está compuesta fundamentalmente de CO2 y ni-
trógeno en mucha menor proporción, siendo la presión
en su superficie 94 veces la presión atmosférica terres-
tre. Esta espesa capa atmosférica rompe los pequeños
asteroides y cometas antes de que puedan golpear su su-
perficie. Por otro lado, la actividad volcánica ha dado
lugar a que la mayoría de los viejos cráteres hayan de-
saparecido bajo los materiales volcánicos. Por otro
lado, la espesa atmósfera de Venus da lugar a un inten-
so efecto invernadero: la energía solar puede llegar a la
superficie del planeta pero no puede escaparse de nue-
vo hacia el espacio exterior. Como consecuencia la
temperatura en la superficie alcanza valores de 460 ºC.
La parte media y alta de la atmósfera está compuesta
Figura 7. El planeta Venus. de nubes de ácido sulfúrico y agua que impide que la
superficie pueda ser vista desde el exterior.
Ø La Tierra (figura 8) es el único planeta que reúne las condiciones para sustentar vida
humana. Es el único planeta con placas tectónicas activas que producen el movimien-
to de grandes placas sobre la superficie del planeta cuyas colisiones dan lugar a las
montañas y a los fenómenos volcánicos. Además es el único planeta en el que la pre-
sión atmosférica y la temperatura permite la existencia de agua sobre su superficie, de
la que ocupa casi el 70%. La atmósfera de la Tierra es única puesto que contiene gran
cantidad de oxígeno libre, el cual, en otros planetas, se encuentra ligado a materiales
superficialmente oxidados. Este hecho se debe a la presencia de vida en la Tierra. Los
organismos microscópicos vivos en los océanos primitivos convirtieron los gases at-
mosféricos originales en aire. Hay indicios suficientes para creer que la atmósfera pri-
mitiva consistía principalmente de dióxido de carbono. Mientras que en la actualidad
el 78% es nitrógeno, el 21% oxígeno y el 1% restante vapor de agua y argón.

Figura 8.
La Tierra.

670 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Ø La Luna es el único satélite de la Tierra y es poco común comparada con el resto de saté-
lites naturales del sistema solar (figura 9). Mientras que casi todos los planetas son mucho
más grande que sus lunas, del orden de 40 o 50 veces, la Tierra es tan sólo 4 veces el tama-
ño de la Luna. En la actualidad está ampliamente extendida la creencia que la Luna fue el
resultado de la colisión de la proto-Tierra con otro
protoplaneta del tamaño aproximado de Marte. Esto
podría explicar, entre otras cosas, el hecho de que la
Luna está compuesta principalmente por silicatos si-
milares a los del manto terrestre y que tenga sólo un
núcleo muy pequeño de hierro. La superficie de la
Luna está cubierta de cráteres resultantes de los in-
tensos impactos con cientos de miles de meteoros
hace millones de años. El hecho de que los cráteres
lunares se hayan mantenido durante todos estos
años se debe a que la Luna no tiene atmósfera apre-
ciable, por lo que no hay lluvia o viento que puedan
erosionarlos; que en la Luna no hay volcanes acti- Figura 9. La Luna.
vos, pues su interior no está caliente; y que los movi-
mientos sísmicos son millones de veces menos in-
tensos que en la Tierra y no tienen efectos apreciables en la superficie. Tal como hemos
dicho, la Luna, como el resto de satélites naturales del sistema solar, no tienen atmósfera
apreciable. Sólo tienen una atmósfera transitoria debida a los átomos de helio del viento
solar que golpean la superficie lunar y son atrapados, y a átomos de argón liberados por
las rocas de la superficie y atrapados temporalmente durante la noche lunar. También se
han detectado algunos átomos de sodio y de potasio como resultado del arranque de ma-
teria de la superficie lunar por las partículas del viento solar. En la tabla (3) se dan las ca-
racterísticas físicas y orbitales de la Luna.

Semieje Excentricidad Inclinación Período Radio


mayor orbital orbital orbital medio
Planeta Nombre (103 km) (º) (días) (km)

La Tierra La Luna 384,40 0,0549 18-29 27,3216 1.737,4

Marte Fobos 9,38 0,0151 1,08 0,319 13´11´9,2


Marte Deimos 23,46 0,0003 1,79 1,262 7,5´6,1´5,2

Tabla 3. Parámetros físicos y orbitales de los satélites de los planetas telúricos (tipo Tierra).

Ø Marte es el planeta telúrico más lejano del Sol (fi-


gura 10). Su superficie es la segunda más horadada
por cráteres, después de Mercurio, en gran medida
por su cercanía al cinturón de asteroides y por su del-
gada atmósfera que le protege débilmente de los im-
pactos de objetos exteriores. La superficie de Marte
presenta signos de actividad tectónica y volcánica.
De hecho, el volcán más grande del sistema solar, el
Olympus Mons, se encuentra en Marte. Este volcán
se eleva casi 27 km por encima de la superficie y tie-
ne un diámetro de 600 km en su base. Además, en la
superficie de Marte se observan muestras de erosión
y por flujo de agua, habiéndose producido esta últi-
ma en la historia temprana del planeta y dejando Figura 10. El planeta Marte.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 671


Volumen II. Física II

como muestra un cañón de longitud igual al ancho de los Estados Unidos. La atmósfera
de Marte es una delgada capa de unos 35 km de espesor que está formada básicamente
por dióxido de carbono y un porcentaje pequeño de nitrógeno y de argón. En el pasado,
según los rastros geológicos comentados anteriormente, la atmósfera debió de ser más
densa y caliente de manera que permitiera la existencia de agua líquida sobre la superfi-
cie del planeta.
Marte tiene dos satélites naturales, Fobos y Deimos, que son dos cuerpos pequeños e
irregulares en órbitas relativamente cercanas al planeta. La composición superficial
de estos objetos es carbonosa, lo que ha dado lugar a la hipótesis de que son dos aste-
roides capturados. Sin embargo, esta hipótesis presenta algunas inconsistencias. Por
un lado, Marte se encuentra en el interior del cinturón de asteroides en el que predomi-
nan los asteroides de silicatos y en donde los carbonosos son muy raros; por otro, am-
bos satélites se encuentran en órbitas muy cercanas al planeta y casi circulares, lo que
es algo poco habitual en objetos capturados. En la tabla (3) se especifican las caracte-
rísticas de las dos lunas de Marte.
– Los planetas jovianos o de tipo Júpiter, también denominados gigantes, son Júpiter, Sa-
turno, Urano y Neptuno. Estos planetas se caracterizan por una menor densidad y por tener
unas atmósferas espesas de hidrógeno y de helio. Su composición es similar a la del Sol
pero con la presencia de elementos más pesados. Debido a su composición y a su tempera-
tura y presión internas, los planetas jovianos carecen de superficie sólida. Sin embargo pue-
den tener un núcleo sólido de hierro o de silicatos. Por otra parte, los planetas jovianos, a di-
ferencia de los planetas telúricos, tienen numerosos satélites naturales y están ordenados en
sistemas complejos. Otra característica de los planetas jovianos es que todos tienen una es-
tructura de anillos a su alrededor y que es diferente para cada uno de ellos.
Ø Júpiter es el planeta más grande del sistema solar (figura 11). De hecho es tan grande
que se comporta como un pequeño sol que nunca llegó a desarrollarse completamente,
pero su masa debería ser 100 veces mayor para que se pudieran producir las reaccio-
nes nucleares que se producen en las estrellas. El núcleo de Júpiter podría alcanzar los
30.000 ºC y este calor interno es lo que controla el clima del planeta, pues emite el do-
ble de la energía que recibe del Sol. Estas condiciones internas hacen que el planeta no
tenga una superficie sólida. La superficie visible de Júpiter es la capa alta de su atmós-
fera que está formada por un conjunto de muchos tipos de nubes en las que predomi-
nan las moléculas que contienen hidrógeno, como el metano, el amoníaco y el agua.
Esta nubes forman bandas de diferentes colores que hacen que el planeta se vea desde
la Tierra con el aspecto de una enorme pelota playera.
Júpiter tiene cuatro satélites mayores y doce satélites meno-
res. Los satélites mayores son Io, Europa, Ganimedes y Ca-
listo, cuyas características principales se dan en la tabla (4).
Io es el satélite mayor más interno y tiene un tamaño aproxi-
mado al de la Luna y presenta una importante actividad vol-
cánica lanzando con frecuencia polvo de azufre amarillo y
rojo hasta alturas de 300 km. La siguiente luna mayor más
cercana al planeta es Europa, que está cubierta por una capa
gruesa de hielo que podría cubrir grandes mares de agua lí-
quida. El siguiente satélite mayor en proximidad es Ganime-
des, que es el satélite más grande del sistema solar, mayor
que el planeta Mercurio. Ganimedes es otro satélite de hielo
y su superficie da muestras de haber sido recompuesta varias
veces de forma parcial en el pasado. El último de los satélites
es Calisto. Se trata de otro satélite de hielo que presenta mues-
Figura 11. El planeta Júpiter. tras de impactos de cometas y asteroides.

672 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Semieje Excentricidad Inclinación Período Radio


mayor orbital orbital orbital medio
Planeta Nombre (103 km) (º) (días) (km)

Júpiter Io 421,6 0,004 0,04 1,769 1.818


Júpiter Europa 670,9 0,010 0,47 3,552 1.560
Júpiter Ganimedes 1.070 0,002 0,21 7,154 2.634
Júpiter Calisto 1.883 0,007 0,51 16,69 2.409

Saturno Mimas 185,5 0,020 1,53 0,942 199


Saturno Encélado 238,0 0,004 0,0 1,370 249
Saturno Tetis 294,7 0,000 1,0 1,888 530
Saturno Dione 377,4 0,002 0,02 2,737 560
Saturno Rea 527,0 0,001 0,35 4,518 764
Saturno Titán 1.222 0,029 0,33 15,945 2.575
Saturno Hiperion 1.481 0,104 0,4 21,277 180´140´112
Saturno Iapeto 3.561 0,028 14,72 79,330 718
Saturno Phoebe 12.952 0,163 150 550,48 110

Urano Miranda 129,8 0,003 3,40 1,413 236


Urano Ariel 191,2 0,003 0,0 2,520 579
Urano Umbriel 266,0 0,005 0,0 4,144 585
Urano Titania 435,8 0,002 0,0 8,706 789
Urano Oberon 582,6 0,001 0,0 13,46 761

Neptuno Tritón 354,8 0,000 157 5,877 1.353

Plutón Caronte 19,4 0,0076 96,16 6,387 593

Tabla 4. Parámetros físicos y orbitales de los satélites de los planetas jovianos (tipo Júpiter).

De los 12 satélites restantes, 4 se encuentran dentro de la órbita de Io y los 8 restantes


se encuentran a distancias muy grandes del planeta. Estos ocho satélites externos están
en dos grupos de cuatro y esto sugiere que pueden tratarse de fragmentos de cuerpos
capturados. En las cercanías del planeta, la nave espacial Voyager descubrió un tenue
sistema de anillos oscuros y estrechos de rocas de varios tamaños a una distancia de
1,8 veces el radio del planeta. Además, estas rocas parecen estar moviéndose en direc-
ción al planeta, por lo que pueden ser el resultado de la desintegración de pequeños sa-
télites que se mueven dentro de los anillos. El satélite Metis está exactamente en el
límite externo de los anillos y podría ser una fuente de ese material rocoso.
Ø Saturno es el segundo planeta, en tamaño, del
sistema solar, y se caracteriza fundamental-
mente por los anillos que lo rodean (figura 12).
Saturno no es un planeta denso debido a que
está formado fundamentalmente de hidrógeno
y también de helio. Su densidad media es me-
nor que la del agua y aproximadamente una
octava parte de la de la Tierra. El enorme peso
de la atmósfera hace que la presión atmosféri- Figura 12. El planeta Saturno.
ca aumente con rapidez hacia el interior, don-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 673


Volumen II. Física II

de el hidrógeno se hace líquido. Probablemente, el interior esté formado por un peque-


ño núcleo rocoso de elementos pesados. Al igual que le ocurre a Júpiter, Saturno se si-
gue contrayendo a causa de la gravitación lo que da lugar a la generación de calor que
se irradia al espacio. Saturno cede al exterior tres veces la energía que recibe del Sol.
En lo que se refiere a la atmósfera, la de Saturno está formada por hidrógeno (88%),
helio (11%) y también de otros gases como etano. Las nubes de Saturno se alinean en
bandas horizontales alrededor del planeta debido a los vientos producidos por la rota-
ción del mismo, que en el ecuador alcanzan valores de 1770 km/h.
El sistema de satélites de Saturno es bastante diferente del de Júpiter. Se han descu-
bierto más de 20, sólo uno de los cuales, Titán, es un satélite grande de tamaño similar
a Ganimedes. Titán es el único satélite del sistema solar que tiene una atmósfera im-
portante. La atmósfera de Titán tiene un espesor de unos 300 km, y está formada prin-
cipalmente por nitrógeno y metano. Su interior puede estar formado de rocas y hielo
en las mismas cantidades. Con órbitas interiores a Titán, hay cinco satélites de tamaño
intermedio: Mimas, Encélado, Tetis, Dione y Rea. Estos satélites son más o menos de
forma esférica y están compuestos fundamentalmente de hielo. A su vez se han descu-
bierto cuatro satélites de Tetis, llamados Troyanos, y uno de Dione. Hay otros tres sa-
télites de tamaño mediano exteriores a la órbita de Titán: Hiperion, Iapeto y Phoebe.
Estos satélites están constituidos básicamente de hielo y presentan algunas caracterís-
ticas importantes. Así, Hiperion es un objeto no esférico y parece mostrar una rotación
bastante caótica. Por su parte, Iapeto es brillante en un hemisferio y oscuro en el otro,
sin que se conozca en la actualidad el motivo de este comportamiento. Por último,
Phoebes presenta una órbita retrógrada por lo que se sospecha que se trata de un come-
ta de gran tamaño capturado. Además de estos satélites se han descubierto una multi-
tud satélites de tamaño pequeño.
El planeta Saturno presenta un sistema de anillos que se extienden desde una distancia
de 1,0 a 2,3 veces el radio del planeta. Estos anillos están formados por trozos de roca,
hielo de agua y gases helados en tamaños que pueden variar desde menos de 0,0005
cm de diámetro hasta 10 m. El sistema consiste en tres anillos mayores conocidos
como A, B y C (ordenados desde fuera a dentro), un anillo difuso denominado D (den-
tro del anillo C y que se extiende hasta la atmósfera del planeta) y varios anillos estre-
chos más. Las imágenes obtenidas por la nave Voyager pusieron de manifiesto que los
anillos A, B y C estaban compuestos por miles de anillos pequeños.
Ø Urano es, como Júpiter y Saturno, un mundo de gas gigante (figura 13). Su atmósfera
está compuesta principalmente de hidrógeno y helio, parece lisa y, observado por el te-
lescopio parece ser un disco azul verdoso. Una característica de Urano es que su eje de
rotación se encuentra inclinado, por lo que gira con su eje de lado, comparado con los
demás planetas. Es posible que esto se deba a que hace mucho tiempo chocara con un
objeto gigante que debió cambiar la inclinación del planeta.

Figura 13.
El planeta Urano.

674 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

El sistema de satélites de Urano consiste en 5 satélites medianos y 12 más pequeños,


todos ellos formados de hielo. La mayor de las lunas de Urano son Titania, Oberon,
Umbriel, Ariel y Miranda. Los dos últimos satélites, descubiertos en 1997, se mueven
en órbitas excéntricas al planeta con un movimiento retrógrado y se suponen que son
objetos capturados.
Por otra parte, Urano también tiene anillos muy tenues a su alrededor, similares a los
que se encuentran alrededor de Júpiter. Estos anillos, denominados Alpha, Beta,
Gamma, Delta y Epsilon (empezando por el anillo más interno) forman un cinturón de
9.400 km de ancho, extendiéndose hasta una distancia de 51.300 km del centro del
planeta. El Voyager 2 descubrió cuatro anillos más y obtuvo imágenes detalladas del
sistema completo de anillos de Urano.
Ø Neptuno es el cuarto y más lejano de los planetas de gas gigantes (figura 14). Su at-
mósfera se compone fundamentalmente de hidrógeno y helio, pero la presencia de
más del 3% de metano da al planeta su sorprendente color azul. El sistema de satélites
de Neptuno está formado por una luna grande de hielo, Tritón, y por 7 lunas pequeñas.
Tritón es una luna rara ya que orbita al planeta en dirección opuesta de las demás lunas
(movimiento retrógrado). Hay evidencias de que ocurren erupciones de agua y meta-
no en su superficie. Debido a su órbita extraña, los astrónomos piensan que Tritón es
un objeto capturado por Neptuno, en vez de un objeto formado al mismo tiempo que el
planeta. Dentro de millones de años, la órbita de Tritón lo acercará al planeta y la gra-
vedad de éste destrozará al satélite. La sonda Voyager 2 confirmó la presencia de va-
rios anillos delgados alrededor del planeta.

Figura 14.
El planeta Neptuno.

Ø Plutón es el planeta más alejado del sistema solar y no es fácilmente clasificable como
planeta telúrico o joviano. Es bastante parecido a Tritón, el satélite más grande de
Neptuno, y a los planetesimales helados del cinturón de Kuiper que se encuentra de-
trás de la órbita de Neptuno. Es por esta y por otras razones por lo que todavía se deba-
te la consideración o no de Plutón como un planeta. Plutón está constituido de hielo y
roca en proporciones todavía desconocidas. Su superficie parece estar cubierta en
gran parte por metano helado y por nitrógeno helado, en menor medida. El planeta tie-
ne una tenue atmósfera, de nitrógeno y metano, la cual se escapa progresiva y lenta-
mente debido al pequeño campo gravitatorio del planeta. Plutón tiene un solo satélite,
llamado Caronte, cuyo tamaño es algo más grande que la mitad del planeta.

Durante mucho se tiempo se ha especulado con la posibilidad de que existiera un décimo planeta
en el sistema solar, denominado planeta X. Sin embargo, todas las observaciones realizadas y los aná-
lisis de las trayectorias de naves espaciales, como las Pioneer 10 y 11 y las Voyager 1 y 2, han resulta-
do negativos.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 675


Volumen II. Física II

1.3.3. Asteroides
Los asteroides son objetos rocosos, carbonosos o metálicos más pequeños que los planetas que
orbitan alrededor del Sol. Sus tamaños oscilan entre 1 y 1.000 km. Los más grandes tienen forma es-
férica mientras que los más pequeños suelen tener formas alargadas e irregulares. Los astrónomos
han descubierto miles de asteroides en el sistema solar y es posible que existan millones de ellos más.
No obstante, la masa de todos ellos es menor que la masa del más pequeño de los planetas, Plutón.
La mayoría de asteroides se encuentran en órbitas situadas entre Marte y Júpiter formando un am-
plio anillo que se ha denominado cinturón de asteroides. No obstante, hay otros muchos asteroides si-
tuados en otras regiones del espacio. Así por ejemplo, unos 81 asteroides, denominados de Amor, cru-
zan la órbita de Marte; unos 91, denominados asteroides de Apolo, cruzan la órbita de la Tierra; y unos
11, asteroides de Atón, tienen órbitas más pequeñas que la de la Tierra. Se estima que aproximadamente
deben haber 100 asteroides de Atón, 700 de Apolo y 1.000 de Amor. Puesto que mucho de estos asteroi-
des cruzan la órbita de la Tierra pueden colisionar con la Tierra. De hecho, algunos científicos piensan
que uno de los asteroides de Apolo pudo haber causado la extinción de los dinosaurios cuando chocó
contra la Tierra hace 65 millones de años. En 1991, uno de estos asteroides con un diámetro estimado de
10 metros pasó a una distancia de la Tierra menor que la mitad de la distancia entre la Tierra y la Luna.
Los asteroides están formados de diferentes tipos de rocas constituidas de hierro y otros metales.
Medidas de la cantidad de luz reflejada a distintas longitudes de ondas y otras técnicas, junto con el
análisis de trozos de meteoritos llegados a la superficie terrestre, han permitido clasificar a los aste-
roides en diferentes grupos de acuerdo a su composición. Se estima que el 75% de los asteroides per-
tenecen a la clase C, el 15% a la clase S, el 5% a la clase M, y el resto a una variedad muy amplia de
otras clases menores. Los asteroides de clase C están constituidos de un material relacionado con un
tipo de meteoritos conocidos como condritos carbonáceos. Estos asteroides son de color muy oscuro,
probablemente causado por su contenido en hidrocarburos, y son los predominantes en la zona media
y más externa del cinturón de asteroides. Los de clase S están relacionados con los meteoritos pé-
treos-ferrosos y contienen cantidades significativas de silicatos y metales. Estos asteroides son los
dominantes en la región interior del cinturón de asteroides. Los asteroides de clase M están relaciona-
dos con los meteoritos de níquel-hierro y están compuestos por una aleación de estos metales. Por úl-
timo, unos pocos asteroides quizá estén relacionados con la clase más extraña de meteoritos: los
acondritos. Estos asteroides parecen tener en su superficie una composición ígnea semejante a la de
muchos torrentes de lava terrestres y lunares. Estos asteroides se encuentran en la parte más interna
del cinturón a distancias inferiores a 2,6 AU.
El asteroide más grande es Ceres. Es un asteroide de la clase C, tiene un diámetro de 913 km y se
encuentra orbitando a una distancia de 2,77 AU. El segundo de los asteroides, en tamaño, es Palas. Se
trata también de un asteroide de clase C, con un diámetro de 523 km y una órbita a 2,77 AU del Sol.
El origen de los asteroides es incierto, pero los astrónomos piensan que hace millones de años,
en la época en que los planetas se estaban formando, sólo había unos cuantos asteroides muy gran-
des en el cinturón de los asteroides. La atracción gravitacional de Júpiter evitó que se unieran para
formar un planeta y en su lugar, con el tiempo, fueron colisionando produciendo así fragmentos
más pequeños. Todavía hoy siguen produciéndose colisiones que dan lugar a polvo y asteroides
más pequeños.

1.3.4. Cometas
Los cometas son objetos celestes compuestos de una parte importante de hielo y de roca. El as-
trónomo americano Fred Whipple los describió como “sucias bolas de nieve”. Los cometas son obje-
tos más pequeños que los planetas y orbitan alrededor del Sol en órbitas muy excéntricas. Debido a
esta alta excentricidad y a su origen, los cometas pasan la mayor parte de sus vidas mucho más allá de
los planetas del sistema solar. Sin embargo, cuando visitan el interior del sistema pueden conocerse

676 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

fácilmente debido al aspecto que presentan. Al acercarse al Sol el objeto se calienta y el hielo se eva-
pora de su superficie formando una nube larga y tenue que se denomina coma o cabellera. Las partí-
culas cargadas del viento solar expulsan las moléculas de la cabellera formando una cola larga y bri-
llante. Esta cola del cometa siempre se encuentra en dirección opuesta al Sol, incluso cuando el come-
ta se aleja de la estrella.
Los cometas, probablemente, se formaron al mismo tiempo que el sistema solar hace aproxima-
damente 4.600 millones de años pero debido a los efectos gravitatorios de los planetas gigantes fue-
ron lanzados lejos del Sol. Los astrónomos creen que alrededor entre 1012 y 1013 cometas se encuen-
tran en una región denominada nube de Oort que se encuentra a una distancia aproximada de un año
luz del Sol. Un segundo depósito de cometas lo constituye el denominado cinturón de Kuiper que se
extiende desde detrás de la órbita de Neptuno hasta varios cientos de AU.
Atendiendo a su período de revolución alrededor del Sol los cometas se clasifican en cometas
de período largo (más de 200 años) y los cometas de período corto (menos de 200 años). Muchos de
los cometas de período largo observados en las regiones cercanas a los planetas tienen su proceden-
cia en la nube de Oort. Algunos de los cometas de período corto, como el cometa Halley, son come-
tas que han evolucionado debido al efecto gravitatorio de los planetas y han pasado de tener un pe-
ríodo largo a tener un período corto. Este mismo efecto se ha observado en unos 60 cometas proce-
dentes del cinturón de Kuiper que debido a su interacción con Júpiter tienen períodos cortos que
varían entre 3,3 y 9 años. A estos cometas se les dice que son de la familia de Júpiter porque sus ór-
bitas pasan muy cerca de la órbita de Júpiter. Por otra parte, la alteración de sus órbitas originales
por la acción gravitatoria de los planetas puede ser tan grande que algunos cometas pueden no vol-
ver jamás al sistema solar.

2. ASTRONOMÍA DE POSICIÓN
La astronomía es la ciencia que estudia el universo en su conjunto. Se ocupa del origen, la evolu-
ción, composición, posición y movimiento de todos los cuerpos y materia del universo. La astrono-
mía se suele dividir en varias ramas: astrometría (que fue una rama importante de la astronomía a
principios del siglo XX) que estudia las posiciones y movimientos de los cuerpos celestes; la mecáni-
ca celeste, que trata del estudio matemático de los movimientos de los objetos y la astrofísica, que es-
tudia las propiedades y estructura de la materia del universo.
La astronomía de posición forma parte de la astrometría y se ocupa de describir la posición de un
objeto celeste en el cielo. Para realizar esta descripción es necesario establecer los sistemas de coor-
denadas adecuados para cada situación y conocer cómo se transforman los diferentes sistemas de
coordenadas. A estas cuestiones son a las que vamos a dedicar las próximas líneas.

2.1. La esfera celeste


Aunque los astros se encuentran a diferentes distancias de la Tierra, al estar tan alejados, un obser-
vador en la Tierra no distingue que unos están más cerca de otros, sino que los ve como si todos estuvie-
ran a una misma distancia situados en una bóveda o esfera celeste limitada por el horizonte.
Se denomina esfera celeste a una esfera imaginaria de radio arbitrariamente grande que tiene
como centro al observador situado sobre la Tierra. La intersección de la visual a cada astro (línea ob-
servador-astro) con la esfera celeste determina la posición aparente del astro. Para dar la posición de
una estrella o un astro es necesario definir uno o varios sistemas de coordenadas que permitan su in-
mediata localización en la esfera celeste. Como paso previo, vamos a dar algunas definiciones de
puntos, ejes y planos sobre la esfera celeste (figura 15) que son consecuencia del movimiento de la
Tierra y que resultan útiles en la definición de los diferentes sistemas de coordenadas.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 677


Volumen II. Física II

Si prolongamos los polos terrestres, su in-


tersección con la esfera celeste determina lo que
se llaman polos celestes. El polo celeste que en-
Cenit
Eje del Mundo cuentra encima del hemisferio norte se denomi-
Z Me r na Polo Boreal, Ártico o Norte, que coincide
idi
P an aproximadamente con la estrella Polar; el otro
Almucantarates o
Polo Norte polo se denomina Austral, Antártico o Sur. La

de
Celeste

l lu
línea que pasa por estos polos se denomina eje

gar
Paralelo celeste E del mundo puesto que a su alrededor parece gi-
rar la esfera celeste.

Me
Meridiana
S
te

ridiano
s

Horizonte
ele

La vertical del lugar es la dirección de una


rc

W
plomada en dicho lugar y corta a la esfera celeste
do
Ecua

Polo Sur en dos puntos: uno por encima del observador,


P’ Celeste denominado cenit, y otro situado por debajo del
observador, denominado nadir. El horizonte del
Z’ lugar es el círculo máximo de la esfera celeste
Nadir
perpendicular a la vertical del lugar. El horizonte
divide a la esfera celeste en dos hemisferios: el
Figura 15. La esfera celeste.
hemisferio superior que es visible y el inferior o
invisible.
Se denomina meridiano celeste a los círculos máximos resultantes de la intersección de todo pla-
no que pasa por el eje del mundo con la esfera celeste. Al meridiano que pasa por el cenit y el nadir se
le denomina meridiano del lugar. La meridiana es la recta de intersección entre el meridiano del lugar
y el plano del horizonte del lugar. Esta meridiana, también denominada línea norte-sur, corta a la es-
fera celeste en dos puntos: al más próximo al polo boreal se le denomina norte o septentrión y se de-
signa por N; y al más próximo al polo austral se le denomina sur o mediodía y se le designa por S. La
línea perpendicular a la meridiana determina sobre la esfera celeste los puntos cardinales este (E) y
oeste (W). Los círculos menores paralelos al horizonte se denominan almuncantarates.
El plano perpendicular al eje del mundo, por el centro de la Tierra, determina el ecuador terrestre y su
intersección con la esfera celeste forma el ecuador celeste. Los planos paralelos al ecuador celeste se de-
nominan paralelos celestes o círculos diurnos. Una estrella sigue la trayectoria de un paralelo celeste.
El orto de un astro es su salida por el horizonte del lugar, y el ocaso es su puesta por el horizonte.
El paso del astro por el meridiano del lugar se denomina culminación.

2.2. Movimiento aparente de los objetos celestes


La Tierra gira alrededor de sí misma en un período de tiempo aproximado de 24 horas y a su vez
se mueve en su órbita solar en un período de un año. Vamos a ver cómo estos movimientos de nuestro
planeta afectan al movimiento aparente de los objetos en la esfera celeste.

2.2.1. Efecto del movimiento de rotación de la Tierra


Desde el punto de vista de un observador en la Tierra, ésta se encuentra inmóvil y son los objetos
celestes los que se mueven de este a oeste según se mueve la esfera celeste alrededor del eje del mun-
do. De los paralelos seguidos por las estrellas, algunos cortan el horizonte y por consiguiente vemos
salir a la estrella y luego ocultarse; sin embargo, otros paralelos seguidos por las estrellas no cortan al
horizonte, por lo que a estas estrellas no las vemos salir ni ocultarse. A estas últimas estrellas se les
denomina circumpolares y un ejemplo de ellas es la estrella polar.

678 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Desde el punto de vista de un observador en el polo norte, la posición del horizonte, el cenit y el
eje del mundo es el que se indica en la figura 16. En este caso el eje del mundo coincide con la vertical
del lugar y es perpendicular al plano del horizonte.

Eje del mundo


Cenit
Eje del mundo
Cenit

Horizonte

Figura 16. La esfera Horizonte


celeste vista desde el
Polo Norte.

Puesto que los astros se mueven a lo largo de paralelos celestes, sus trayectorias son siempre para-
lelas al plano del horizonte, tal como se indica en la figura. Como se puede apreciar sólo son visibles la
mitad de las estrellas de la bóveda celeste ya que la otra mitad están siempre ocultas por el horizonte.
Supongamos ahora un observador situado en el ecuador terrestre. En este caso, la vertical del lu-
gar y el eje del mundo son perpendiculares, como se muestra en la figura 17. Los astros aparentan te-
ner trayectorias perpendiculares al horizonte.

Eje del mundo

Cenit

Cenit

Horizonte Horizonte
Eje del mundo

Figura 17. La esfera celeste vista desde el Ecuador.

Para un observador en una latitud intermedia, la situación es la que se muestra en la figura 18.
Los astros seguirían trayectorias inclinadas.

Eje del mundo

Cenit
Cenit

Figura 18. La esfera Horizonte


celeste vista desde Horizonte
una latitud cercana Eje del mundo
a la nuestra.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 679


Volumen II. Física II

2.2.2. Efecto del movimiento orbital de la Tierra


Además de su movimiento de rotación, la Tierra se desplaza alrededor del Sol en una órbita elíp-
tica de pequeña excentricidad. Se denomina eclíptica al movimiento anual aparente del Sol sobre la
esfera celeste visto desde la Tierra. Si el eje de rotación de la Tierra fuese perpendicular al plano de su
órbita, el plano de la eclíptica coincidiría con el plano del ecuador celeste (figura 19).
En este caso irreal, el Sol saldría siempre por el mismo punto del horizonte y se pondría siempre
por el mismo punto. En efecto, de la figura 19b vemos que en cualquier época del año el movimiento
del Sol tiene lugar a lo largo del ecuador celeste. Para un observador en una latitud intermedia, en
cualquier época del año, tendríamos una situación como la mostrada en la figura 20.

Polo norte
celeste Figura 19. Situación
irreal en la que
consideramos que el
eje de rotación es
Ecuador perpendicular al
celeste plano de la órbita
Eclíptica terrestre:
a) Movimiento de la
Tierra alrededor del
Sol.
b)
a) b) El plano de la
Polo sur eclíptica y del
celeste ecuador celeste
coincidirían.

Eje del mundo

Cenit
Cenit

Eclíptica Orto
Horizonte
Horizonte
Ocaso

Figura 20. Salida y puesta del Sol en una situación irreal en la que consideramos
que el eje de rotación es perpendicular al plano de la órbita terrestre.

Ahora bien, el eje de rotación de la Tierra forma un ángulo de aproximadamente 23,45º con el
plano de su órbita, el cual permanece constante, tal y como se muestra en la figura 21a. Por tanto, si
representamos el movimiento aparente del Sol sobre la esfera celeste, el plano de la eclíptica y el
plano del ecuador terrestre formarán un ángulo de 23,45 grados (figura 21b). La eclíptica tiene cua-
tro puntos importantes. El punto en el que el Sol alcanza su altura máxima sobre el ecuador de he-
misferio norte se denomina solsticio de verano y en este punto los días son más largos que las no-
ches. Siguiendo con el movimiento aparente del Sol sobre la eclíptica, el punto donde la eclíptica
corta al ecuador cuando el Sol pasa desde el hemisferio Norte al hemisferio Sur se denomina equi-

680 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

noccio de otoño o Punto Libra (W). El punto en el que el Sol se encuentra en la posición más baja se
denomina solsticio de invierno y los días son más cortos que las noches. Por último, el punto de in-
tersección de la eclíptica cuando el Sol pasa del hemisferio sur al norte se denomina equinoccio de
primavera, Punto Vernal o Punto Aries (g). En los equinoccios los días y la noches tienen la misma
duración, 12 h.

Polo norte
Equinoccio
celeste
de primavera
Solsticio Solsticio
Solsticio de invierno Equinoccio de verano
de verano
Eclíptica
de otoño
W

Ecuador
celeste
Equinoccio
de otoño g Equinoccio
Solsticio de primavera
a) de invierno
b)

Polo sur
celeste

Figura 21. Situación real del movimiento de la Tierra alrededor del Sol:
a) Movimiento de la Tierra alrededor del Sol.
b) Plano de la eclíptica y del ecuador sobre la esfera celeste.

Una consecuencia de este hecho es que los puntos de salida del Sol (orto) y de puesta de Sol
(ocaso) varían constantemente a lo largo del año. Esta situación se muestra en la figura 22. En ella se
representa la posición del Sol para un observador en una latitud media en diferentes épocas del año.
En el punto 1 se encuentra en el solsticio de verano, en los puntos 2 en los equinoccios de primavera y
otoño, y en el punto 3 en el solsticio de invierno.

Polo norte Cenit


celeste Eje del mundo 1
Movimiento
aparente del Cenit 2
Sol durante
un día. 1
2 Eclíptica NE E
SE 3
N S
2 SW
Horizonte NW W
Horizonte
3

Polo sur
celeste

Figura 22. Salida y puesta del Sol en diferentes épocas del año.

El equinoccio de primavera tiene lugar el 21 de marzo. En esta fecha, el sol sale por el este y se
pone por el oeste. Conforme van pasando los días, el orto y el ocaso se desplazan hacia el norte hasta
llegar al 21 de junio, fecha en que tiene lugar el solsticio de verano en el que el Sol alcanza la posición
más alta sobre el cielo. A partir de esta fecha, el orto y el ocaso se desplazan hacia el sur hasta llegar
de nuevo al este y al oeste, respectivamente, en el equinoccio de otoño que tiene lugar el 22 o 23 de

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 681


Volumen II. Física II

septiembre. A partir de entonces se desplazan hacia el sur hasta el 22 de diciembre en que tiene lugar
el solsticio de invierno. A partir de entonces, los puntos vuelven a desplazarse hacia el norte hasta lle-
gar de nuevo al este y oeste en el equinoccio de primavera.
Otro efecto del movimiento de la Tierra alrededor del Sol es
que, salvo las estrellas circumpolares (y por tanto las constelacio-
A nes), algunas constelaciones que se encuentran ocultas por el hori-
zonte son visibles sólo en algunas épocas del año. Por ejemplo, se
1 suele decir que Orión es una constelación de invierno, mientras que
Sagitario es una constelación de verano. Estas constelaciones pue-
den verse en la misma época del año en la misma posición en el cie-
2 lo. En la figura 23 se muestra este hecho. Cuando la Tierra se en-
B cuentra en la posición 1, durante la noche se pueden ver constelacio-
nes como la A y no las constelaciones como B que se encuentran
próximas al Sol. Cuando la Tierra se encuentra en la posición 2, las
constelaciones visibles son entonces las B, mientras que las conste-
Figura 23. Efecto del laciones A no lo son. Por consiguiente, mientras que la Tierra va gi-
movimiento de la Tierra sobre rando alrededor del Sol, unas constelaciones se hacen visibles mien-
la visibilidad de las tras que otras se van acercando al Sol y por tanto van haciéndose in-
constelaciones. visibles. El ciclo se repite anualmente.

2.3. Coordenadas astronómicas


El objeto de la astronomía de posición es determinar la posición de los astros sobre la esfera ce-
leste, independientemente de su distancia a la Tierra. Para ello se utilizan diversos sistemas de coor-
denadas que tienen en común:
1. Un eje fundamental o de referencia.
2. Un círculo máximo en un plano perpendicular al eje de referencia, denominado círculo funda-
mental.
3. Dos coordenadas, una sobre el círculo fundamental y otra sobre los semicírculos máximos que
pasan por los polos celestes.
4. Un sentido para la medición de arcos: directo, en sentido antihorario; y retrógrado, en sentido
horario.

Los sistemas de referencia más comunes son: el sistema de coordenadas horizontales, el sistema
de coordenadas horarias o ecuatoriales locales, el sistema de coordenadas ecuatoriales absolutas y el
sistema de coordenadas eclípticas. A continuación vamos a exponer cada uno de estos sistemas de
coordenadas astronómicas.

2.3.1. Coordenadas horizontales o altacimutales


Las coordenadas horizontales o altacimutales están referidas al horizonte del observador. El ori-
gen del sistema de coordenadas es un punto de la superficie terrestre (sistema topocéntrico) y el eje
fundamental o de referencia es la vertical del lugar. Tal como hemos visto anteriormente, la intersec-
ción de la vertical del lugar con la esfera celeste se denomina cenit, y el punto opuesto se denomina
nadir. El círculo fundamental de este sistema de coordenadas es el horizonte del lugar y los semi-
círculos máximos que pasan por el cenit y el nadir y un astro dado se denominan círculos verticales o
vertical del astro.

682 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Las dos coordenadas que se utilizan en este sistema Cenit


son la altura (h) y el acimut (A) (figura 24). La altura es la
distancia angular entre el horizonte y la posición del astro.
Su valor se encuentra entre 0º y 90º y puede ser positiva
para astros por encima del horizonte y negativa para astros Horizonte
por debajo del horizonte. En vez de la altura, a veces, suele h
N S
utilizarse la distancia cenital (Z) definida como la distan-
cia angular entre el cenit y el astro. Evidentemente, h y Z A
están relacionadas trivialmente: h = 90º – Z. El acimut es
Vertical
el arco del horizonte medido en sentido retrógrado desde
el punto sur hasta la vertical del astro. Su valor oscila entre
0º y 360º. Nadir

Figura 24. Coordenadas


horizontales.
2.3.2. Coordenadas horarias o ecuatoriales
locales
El sistema de coordenadas horarias o ecuatoriales locales es un sistema de coordenadas geocén-
trico cuyo origen es el centro de la Tierra. El eje fundamental es el eje del mundo y el círculo funda-
mental es el ecuador celeste.
Las coordenadas de este sistema son: el ángulo hora-
rio H y la declinación d (figura 25). El ángulo horario es el
arco de ecuador celeste medido en sentido retrógrado des- Polo Norte Cenit
o Boreal Me
rid
de el punto de intersección del meridiano del lugar con el ian
o
ecuador celeste hasta el círculo del astro. Se mide en ho-

de
l lu
ras, minutos y segundos desde las 0 horas hasta las 24 ho-

ga r
ras. La declinación es el arco del círculo horario compren-
d H
dido entre el ecuador celeste y el centro del astro. Se mide
N S
en grados y su valor oscila entre 0º y 90º y puede ser posi-
Horizonte
tiva para astros situados en el hemisferio boreal y negativa
para astros en el hemisferio austral. A veces, en vez de la Ecuador
celeste
declinación se utiliza la distancia polar (P) definida como
el arco del círculo horario medido desde el polo boreal Polo Sur
hasta el astro. Evidentemente, se tiene que P = 90º – d. Nadir o Austral
Puesto que el movimiento diurno es uniforme, el tiem-
po puede medirse en unidades angulares. Así, como 360º Figura 25. Coordenadas horarias.
corresponden a 24 horas, se tiene que 1 hora corresponde a
15º, 1 minuto a 15´ y 1 segundo a 15´´.

2.3.3. Coordenadas ecuatoriales absolutas


El sistema de coordenadas introducido anteriormente, presenta el inconveniente de que el ángu-
lo horario se mide desde el meridiano del lugar, que depende de cada observador. Para eliminar este
inconveniente se introdujo el sistema de coordenadas ecuatoriales absoluto. Este sistema, al igual que
el anterior, es un sistema de coordenadas geocéntrico cuyo origen es el centro de la Tierra y las coor-
denadas ecuatoriales absolutas están referidas al ecuador celeste. El eje fundamental es el eje del
mundo y el círculo fundamental es el ecuador celeste.
Las coordenadas ecuatoriales absolutas son la declinación (d) y la ascensión recta (a) (figura 26).
La declinación ya ha sido definida anteriormente. La ascensión recta se define como el arco del ecua-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 683


Volumen II. Física II

dor celeste medido en sentido directo (contrario a las agujas


Polo Norte Cenit
o Boreal Me del reloj) desde el Punto Aries (punto de intersección de la
rid
ian
o eclíptica con el ecuador celeste) hasta el meridiano que con-
tiene el astro. Su valor va desde 0 a 24 horas. La ascensión rec-

de
l lu
ta está relacionada con el ángulo horario por la ecuación fun-

ga r
d
damental de la astronomía de posición:
N
a
S t = a+ H (4)
Horizonte
Ecuador
celeste en donde t es el tiempo sidéreo.
Punto Aries
Eclíptica
La ventaja de utilizar este sistema de coordenadas es cla-
ra, pues se trata de un sistema de coordenadas universales. Es
Polo Sur
Nadir o Austral
decir, no dependen ni del instante ni del lugar de la observa-
ción ya que el Punto Aries es un punto fijo en la esfera celeste
Fitgura 26. Coordenadas que se desplaza con ésta en su rotación. Por el contrario, la al-
ecuatoriales. tura, el acimut, y el ángulo horario varían constantemente con
la rotación de la esfera celeste.

2.3.4. Coordenadas eclípticas


Este sistema de coordenadas, como su nombre indica, está re-
ferido a la eclíptica. El eje fundamental es el eje de la eclíptica que
corta a la esfera celeste en dos puntos denominados polos de la
Polo de la Polo Norte eclíptica. El círculo fundamental es la eclíptica y los semicírculos
eclíptica o Boreal máximos que pasan por los polos se denominan máximos de longi-
tud. El que pasa por el punto Aries se denomina primer máximo de
longitud. Los paralelos se denominan paralelos de latitud celeste.
Las coordenadas eclípticas son la longitud celeste (l) y la la-
Ecuador b titud celeste (b) (figura 27). La longitud celeste es el arco de la
celeste

l
eclíptica medido en sentido directo que va desde el Punto Aries
hasta el máximo de longitud del astro. Se mide en grados y su va-
Eclíptica g lor oscila entre 0º y 360º. La latitud celeste es el arco máximo de
Punto Aries
longitud que pasa por el astro comprendido entre la eclíptica y el
astro. Se mide en grados y su valor oscila entre 0º y 90º.
Polo Sur Polo de la
o Austral eclíptica Al igual que las coordenadas ecuatoriales absolutas, las coor-
denadas eclípticas son universales, pues no dependen ni del lugar
Figura 27. Coordenadas ni del momento de la observación. Se puede encontrar la transfor-
eclípticas. mación de coordenadas ecuatoriales a eclípticas mediante relacio-
nes entre triángulos esféricos dibujados sobre la bóveda celeste.

2.4. Medidas del tiempo en astronomía


Todas las civilizaciones han estado preocupadas por medir el tiempo y así establecer calendarios
que le permitieran conocer la duración de las estaciones. Algo que era de gran importancia para saber
cuándo era el tiempo de siembra, de las cosecha y que también aplicaban a prácticas religiosas y ritua-
les. Toda medida del tiempo lleva asociada la observación de fenómenos periódicos y ninguno parece
más básico como los ciclos del día y la noche. Por tanto, parece natural que la medida del tiempo se
base en la posición del Sol en el cielo. Pero no sólo ha sido el Sol el astro que se ha usado para el esta-
blecimiento de calendarios, también otros como la Luna han sido utilizados en muchas culturas como
la hebrea y la musulmana.

684 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

2.5. Tiempo solar


Como hemos dicho, uno de los fenómenos periódicos que parece más natural para la medición
del tiempo es el movimiento del Sol. Vamos a ver cómo podemos definir las unidades de tiempo en
función del movimiento aparente del Sol respecto de la Tierra.
Se define el día solar verdadero como el tiempo que transcurre entre dos pasos consecutivos del
Sol por el meridiano del lugar. Ahora bien, debido a que la Tierra describe una elipse alrededor del Sol y
que su velocidad a lo largo de la trayectoria no es constante, el movimiento aparente del Sol en el cielo
no es uniforme y, por consiguiente, la duración del día solar varía a lo largo del año. Con objeto de dar
consistencia a las medidas del tiempo, se introdujo el concepto de Sol Medio como un objeto ficticio
que se mueve uniformemente en el cielo alrededor del ecuador celeste. El día solar medio se define
como el tiempo entre dos pasos consecutivos de este Sol Medio por el meridiano del lugar y se le asigna
una duración de 24 horas. El tiempo local medio viene determinado por la posición del Sol Medio re-
lativa al meridiano del lugar. El tiempo de referencia son las 12:00 del mediodía cuando el Sol medio
se encuentra sobre el meridiano. Es decir, el tiempo solar es el ángulo horario del Sol más 12 horas.
La diferencia entre el tiempo solar verdadero y el tiempo local medio se conoce como ecuación
del tiempo y representa la diferencia entre el tiempo solar verdadero y el tiempo solar medio cuando
el Sol se encuentra sobre el meridiano del lugar. La diferencia puede ser hasta de 15 minutos positiva
o negativa, tal como se muestra en la figura 28.

20
Tiempo Solar Verdadero - Tiempo Solar Medio

15
10
5
May.

Nov.
Ago.

Sep.
Mar.
Ene.

Feb.

Abr.

Oct.
Jun.

Dic.
Jul.

0
Figura 28. Ecuación del -5
tiempo: diferencia entre el
tiempo solar verdadero y el -10
tiempo solar medio cuando el -15
Sol se encuentra sobre el
meridiano del lugar. -20

El tiempo local medio podía ser una buena herramienta para medir la duración de los eventos
cuando las comunicaciones y los desplazamientos eran muy lentos. Pero con la llegada del ferrocarril
y, sobre todo, del telégrafo la situación se convirtió en un problema. Para resolverlo se instituyó el
tiempo civil medio o tiempo estándar. Para su definición se dividió la superficie de la Tierra en 24 zo-
nas horarias, cada una de ellas de 15º de longitud de extensión y definiendo el meridiano central de
cada zona como un múltiplo de 15º. El tiempo de referencia para cada una de las zonas son las 12:00
horas cuando el Sol se encuentra sobre el meridiano central de cada zona. El primer país en establecer
este tiempo estándar fue Estados Unidos, que en 1883 dividió el país en 4 zonas horarias. En cada una
de estas zonas, los relojes se ajustaban al tiempo local medio de un punto geográfico de una longitud
estándar: 75º en la zona este, 90º en la zona central, 105º en la zona de las montañas y 1200 en la re-
gión del Pacífico. De esta manera cada una de las zonas difería de sus vecinas en 1 hora.
El resto del mundo pronto siguió la línea iniciada por Estados Unidos en la definición de un
tiempo estándar que sirviera para medir los eventos de la vida cotidiana. El tiempo así definido se co-
noce como tiempo universal y el tiempo de referencia se toma en un punto geográfico de longitud 0º.
Esta longitud es por definición la de una línea grabada en un placa de latón sobre el suelo del Old Ro-
yal Observatory en Greenwich, Inglaterra. De aquí que al tiempo universal se le denomine también
tiempo medio de Greenwich (GMT). La superficie de la Tierra queda dividida en 24 zonas o husos
horarios de extensión igual a 15º de longitud, salvo variaciones excepcionales para mantener fronte-
ras políticas. La diferencia entre cada zona horaria es de 1 hora y cada país puede elegir libremente re-

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 685


Volumen II. Física II

ferir su tiempo a uno o varios de estos husos horarios. Por ejemplo, España está adscrita al huso cero
de Europa occidental. En la figura 29 se muestra el huso horario internacional y las diferencias hora-
rias de cada zona con respecto a la hora universal de Greenwich.

Figura 29. Zonas


-11 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +10 +11
horarias
internacionales.

Si el día es la unidad natural de tiempo basada en la rotación de la Tierra sobre su eje, el año es la
unidad natural de tiempo basada en la rotación de la Tierra alrededor del Sol. Se define el año trópico
como el tiempo transcurrido entre dos pasos consecutivos del Sol por el Punto Aries. La duración de
este año es de 365,2422 días solares medios.
Como vemos, la naturaleza no ha querido que el año tenga un número exacto de días solares con las
repercusiones que esto tiene sobre la elaboración de calendarios. Este hecho ya era conocido por los astró-
nomos de la antigüedad que estimaban que la duración de un año era de 365 días y un cuarto. Fue Julio
César quien estableció un calendario (calendario Juliano) de años bisiestos que tuviera en cuenta este
cuarto de día. Sumando un día extra al calendario cada cuatro años se esperaba que los cambios de esta-
ciones como el comienzo de la primavera tuviera lugar siempre el mismo día del año. Evidentemente,
este calendario hubiera sido adecuado si el año hubiese tenido exactamente 365 días y un cuarto, algo
que no es así. La diferencia con el año trópico es de 11 minutos y 14 segundos al año. Este error suma al-
rededor de 3 días cada cuatro siglos y era conocido por los astrónomos de la época, pero creyeron que
era demasiado pequeño para que importara. No obstante, en el siglo XVI el primer día de la primavera
ocurría el 11 de marzo en vez del 21 de marzo. Para mejorar el calendario, el papa Gregorio XIII promo-
vió una reforma del calendario que reajustara el comienzo de las estaciones. Los puntos fundamentales
de la reforma fueron suprimir los días comprendidos entre los días 5 y 14 de octubre de 1582, ambos in-
clusive, y mantener el año bisiesto cada cuatro años excepto los múltiplos de 100 que no lo sean de 400.
Este calendario se conoce con el nombre de Gregoriano. El año Gregoriano también tiene un error, pero
éste es sólo de 26 segundos, por lo que en el año 4905 el error acumulado será de 1 día.

2.6. Tiempo sidéreo


El tiempo solar es útil para las actividades cotidianas, pero no lo es para actividades astronómi-
cas. En astronomía es necesario disponer de un tiempo que refleje el movimiento de las estrellas en la
esfera celeste. Si a una determinada hora solar observamos la posición de una estrella durante la no-
che y repetimos la observación la noche siguiente, encontraremos que las horas a las que se encuentra
la estrella en la misma posición son distintas. Es por ello por lo que se define el tiempo sidéreo.
Se define el día sidéreo como el tiempo transcurrido entre dos pasos consecutivos de una estrella
distante sobre el meridiano del lugar. Puesto que las estrellas se encuentran a una enorme distancia de

686 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

la Tierra, el movimiento de la Tierra en su órbita produce un efecto despreciable en la duración del día
sidéreo. Esto lo podemos ver en la figura 30. Supongamos un Sol medio que se mueve a una veloci-
dad constante sobre el ecuador, o lo que es lo mismo, una Tierra que se mueve a velocidad constante
sobre una órbita circular alrededor del Sol. Si tenemos en cuenta que el año trópico es de 365,2422
días, en un día la Tierra habrá girado respecto del Sol Medio un ángulo de 0,9856º, aproximadamente.

Estrella
0
0,9856
0,98560
Sol Tierra

Órbita terrestre

Figura 30. Día solar medio y día sidéreo.

Por consiguiente, en un día, la Tierra habrá girado sobre su eje un ángulo de 360,9856º.
Por el contrario, en un día sidéreo, puesto que las estrellas se encuentran muy lejos de la Tierra,
ésta habrá girado sobre sí misma un ángulo de 360º. Por tanto, si un día solar medio es de 24 horas,
para el día sidéreo tendremos una duración de:
360
1 día sidéreo » ´ 24 horas » 23 horas 56 minutos 4,09 segundos (5)
360,9856

El tiempo sideral local se define como el ángulo horario del Punto Aries. Por tanto, cuando el
Punto Aries se encuentra sobre el meridiano el tiempo sidéreo es 0:00 horas. Vemos que, por defini-
ción, el tiempo sidéreo es igual a la ascensión recta de cualquier objeto que se encuentre en el meri-
diano del lugar. Para comprobar que esto es así, observemos la figura 31. En la figura de la izquierda
el Punto Aries o Vernal se encuentra sobre el meridiano del lugar y el tiempo sidéreo es cero. En la fi-
gura de la derecha se muestra el cielo una hora después, cuando la Tierra ha girado 15º y por tanto la
esfera celeste ha girado hacia la derecha ese mismo ángulo. La hora sidérea es entonces 1:00 hora.
Observemos que la ascensión recta (a) de cualquier astro que se encuentre en el meridiano del lugar
en ese momento es precisamente 1:00 hora.

Punto Aries Punto Aries


Eclí
Eclí ptic
ptic a
a
Ecuador Celeste Ecuador Celeste
2 1 0 23 22 3 2 1 0 23
Meridiano Meridiano

Figura 31. Tiempo sidéreo.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 687


Volumen II. Física II

Se define el año sideral como el tiempo que tarda la Tierra en dar una vuelta al Sol respecto de
una estrella lejana. El año sidéreo tiene una duración de 365,2564 días solares medios o, lo que es lo
mismo:
1 año sidéreo = 365 días 6 horas 9 minutos 10 segundos (6)

2.7. Tiempo de efemérides


Tal como hemos visto, el período de tiempo del día no es constante sino que depende del movi-
miento de rotación de la Tierra. Por otra parte, este movimiento varía de forma impredecible en pe-
queñas cantidades por factores como las mareas producidas por la Luna y el Sol, el movimiento de los
materiales del interior de la Tierra, etc. Para obviar este tipo de cuestiones, los astrónomos instituye-
ron el denominado tiempo de efemérides. Este tiempo corre regularmente sin importar el movimiento
de la Tierra, como si la Tierra no existiese. El tiempo es el que se utiliza para la mayoría de los cálcu-
los celeste y predicciones, sobre todo en aquellos casos en los que están involucrados los movimien-
tos de la Luna, los planetas y otros cuerpos del sistema solar. El tiempo de efemérides se igualó al
tiempo universal en 1902 y en la actualidad el tiempo universal va detrás del tiempo de efemérides en
alrededor de 65 segundos.

3. OBSERVACIÓN Y MEDIDA EN ASTROFÍSICA


La astrofísica es la parte de la astronomía que estudia la naturaleza, la formación y la evolución de
los objetos celestes. El principal método de investigación consiste en el estudio de la radiación electro-
magnética procedente de los cuerpos celestes: su intensidad, su espectro en todas las longitudes de onda
y las variaciones a lo largo del tiempo. Estas medidas de la radiación nos permiten obtener información
sobre la naturaleza de los átomos que componen el objeto, su temperatura y su presión.

3.1. Aparatos espectrales


El análisis espectroscópico constituye una de las herramientas principales en astrofísica, pues el
conocimiento de los espectros de los cuerpos celestes proporcionan una información importantísima
para conocer su composición, temperatura, presión, etc.
Los espectrógrafos y espectrómetros permiten conocer las longitudes de onda de las componen-
tes de la radiación electromagnética, mientras que el espectrofotómetro permite determinar la intensi-
dad relativa de cada una de estas componentes.
Si una fuente de radiación se acerca o se aleja de un observador, se produce un desplazamiento
de la posición de las líneas espectrales. Si la fuente se aleja la longitud de onda se desplaza hacia el
rojo, mientras que si la fuente se acerca la longitud de onda se desplaza hacia el azul. Este efecto se
denomina efecto Doppler y permite medir con bastante precisión la velocidad relativa de cualquier
fuente de radiación. Se define el desplazamiento hacia el rojo z como:
l '– l
z= (7)
l
en donde (l) es la longitud de onda de la luz emitida por una fuente lejana y (l´) la longitud de onda de
la luz recibida. Este efecto ha sido de enorme importancia en astrofísica puesto que la determinación
de la posición de las rayas en el espectro de cualquier objeto celeste permite determinar la velocidad
con la que se mueve respecto de la Tierra. El desplazamiento hacia el rojo que se ha observado en los
espectros de las galaxias indica que el Universo se está expandiendo.

688 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Por otro lado, el efecto Doppler explica también la variación en la anchura de las líneas espectra-
les. Como sabemos, las moléculas de un gas están en movimiento constante, por lo que si realizamos
un análisis espectroscópico en un instante dado algunas moléculas se mueven hacia el espectroscopio
y otras se alejan de él. Este movimiento provoca que las longitudes de onda de algunos de los fotones
sean más cortas, y las de otros más largas. Esto da lugar a que cada línea del espectro se ensanche lige-
ramente. Al aumentar la temperatura, aumenta la agitación de las moléculas y por consiguiente, la ve-
locidad media de las moléculas se hace mayor, dando como resultado unas líneas espectrales todavía
más anchas. Por consiguiente, la medida del ancho de determinadas líneas espectrales proporciona
una indicación de la temperatura de la fuente de radiación.

3.2. Radiotelescopios
Los objetos celestes emiten radiación electromagnética en una gama de frecuencias que van des-
de los rayos gamma hasta las ondas de radio. El estudio de los cuerpos celestes mediante las medidas
de la radiación electromagnética en la zona de radio del espectro, constituye una rama de la astrono-
mía denominada radioastronomía.
Las medidas de las ondas de radio se llevan a cabo mediante los denominados radiotelescopios,
que consisten en una superficie reflectora (reflector) de forma parabólica con un receptor en el centro.
Debido a que las longitudes de onda de radio van desde 1mm hasta más de 1km, las superficies reflecto-
ras han de ser grandes si se quiere obtener una imagen clara del objeto enfocado. En la actualidad, el ra-
diotelescopio fijo más grande del mundo, con un reflector de más de 300 m de diámetro, se encuentra en
el Observatorio Arecibo en Puerto Rico. Los radiotelescopios orientables de mayor tamaño pueden te-
ner un diámetro entre 50 y 100 m. Las ondas de radio que llegan al reflector son enfocadas por la super-
ficie parabólica sobre una pequeña antena que las conduce a un receptor de radio de gran sensibilidad
(pueden detectar señales del orden de 10–17 W). En general, debido a que las longitudes de onda capta-
das son muy grandes, el poder de resolución de los radiotelescopios es bastante inferior al de los teles-
copios ópticos. Para aumentar la resolución se utilizan los radiointerferómetros que son conjuntos de
antenas conectadas a un mismo receptor, con lo que se observa un mismo objeto simultáneamente, y
que permiten obtener resoluciones de hasta 1 segundo de arco
(figura 32). El mayor radiointerferómetro es el denominado
VLA (Very Large Array) situado cerca de Socorro, Nuevo
México (Estados Unidos). Este radiointerferómetro está for-
mado por 27 radiotelescopios de 26 m de diámetro cada uno
distribuidos a largo de tres brazos de 20 km aproximadamente
configurados en forma de Y. La resolución puede mejorarse si
los radiotelescopios se sitúan a miles de kilómetros de distan-
cia. Esta técnica se denomina VLBI (Very Long Base Interfe-
rometer) y requiere la utilización de relojes atómicos de gran Figura 32. Radiointerferómetro
precisión para sincronizar las grabaciones realizadas indivi- VLA en Socorro, Nuevo México.
dualmente en cada radiotelescopio.
La radioastronomía ha permitido catalogar un gran número de radiofuentes distantes que se
han identificado con galaxias distantes. Fruto de la investigación en este campo fue el descubri-
miento de los quásares que son fuentes de radio a enormes distancias de la Tierra. Aunque en prin-
cipio se creían que se trataba de estrellas, su extaordinariamente grande desplazamiento hacia el
rojo parecía indicar que se trataba de otro tipo de objetos de ahí su nombre “Quasi stellar objets”.
En 1967 un pulso repetitivo de radiofrecuencias fue descubierto en el plano de nuestra galaxia. Al
principio incluso se pensó que podía tratarse de un radio faro de alguna civilización inteligente. En
la actualidad se le denomina púlsar y son atribuidos a estrellas de neutrones en rotación a grandes
velocidades. Las variaciones detectadas se atribuyen a pérdida de energía o también a la posible
existencia de planetas alrededor del púlsar.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 689


Volumen II. Física II

Otro de los hechos de crucial importancia, consecuencia del estudio de las ondas de radio proce-
dentes del espacio, fue el descubrimiento de la radiación de fondo del universo. En 1965, los estadou-
nidenses Arno Penzias y Robert W. Wilson encontraron una radiación de fondo uniforme en la región
de las microondas del espectro electromagnético. Esta radiación era observada en todas las direccio-
nes y mostraba una dependencia con la longitud de onda semejante a la de un cuerpo negro a una tem-
peratura de 3 K. Esta radiación de fondo ha sido interpretada como los restos de la radiación emitida
en el instante en que el universo en expansión se hizo transparente a una temperatura aproximada de
3000 K. El descubrimiento de la radiación de fondo constituyó uno de los peldaños que llevaron a la
formulación del modelo estándar del origen del universo, el modelo del Big Bang o gran explosión.

3.3. Observación espacial


Al igual que el estudio de la región de radio del espectro dio lugar al nacimiento de la radioastro-
nomía, el estudio de otras zonas del espectro, como la correspondiente a la radiación infrarroja, ultra-
violeta o de rayos X, han constituido otras ramas de la astronomía denominadas astronomía de infra-
rrojo, astronomía ultravioleta y astronomía de rayos X.
El estudio de los rayos infrarrojos ha proporcionado una información valiosa sobre la composi-
ción atmosférica de los planetas del sistema solar y también sobre la temperatura de las estrellas y
otros aspectos de la estructura de nuestra galaxia. Por su parte, el estudio de la radiación ultravioleta
ha servido, entre otras cosas, para ampliar nuestro conocimiento sobre la naturaleza de la materia in-
terestelar y de las capas exteriores de las estrellas.
No obstante, la atmósfera terrestre ha sido un obstáculo para la obtención de datos en estas re-
giones del espectro. Sin embargo, el desarrollo de la tecnología espacial y de la instrumentación cien-
tífica ha permitido a los astrofísicos obviar este problema. Desde la década de los setenta se han laza-
do numerosos satélites de observación que han proporcionado una información de gran valor para el
entendimiento del universo. Por ejemplo, el satélite IRAS (Satélite Astronómico de Infrarrojos) ha
llevado a cabo una exploración minuciosa del espacio que ha servido para crear un mapa infrarrojo de
todo el cielo. El Explorador Internacional Ultravioleta (lanzado en 1978) permitió conocer que nues-
tra galaxia está rodeada de un halo de gas caliente y consiguió medir el espectro ultravioleta de la su-
pernova que apareció en la Gran Nube de Magallanes en 1987.
En 1990, dentro de un programa de cooperación entre la NASA y la Agencia Espacial Europea
(ESA), se lanzó al espacio el Telescopio espacial Hubble que suponía el primer observatorio en órbita de
uso general. El Hubble estaba equipado para realizar observaciones en las regiones visible y ultravioleta.
Tras las reparaciones realizadas después de detectar, una vez puesto en órbita, un fallo de fabricación en el
espejo principal, el telescopio ha facilitado imágenes detalladas de algunos fenómenos, como la forma-
ción de estrellas. Pero, sin duda, las imágenes más espectaculares fueron las de la colisión de los fragmen-
tos del cometa Shoemaker Levy 9 con la atmósfera de Júpiter. Estos datos han servido para conocer la
composición de la atmósfera de Júpiter. Por otro lado, el Hubble va equipado con tres sensores para reali-
zar medidas de gran precisión de distancias entre estrellas. En misiones espaciales posteriores, se ha am-
pliado la instrumentación del telescopio dotándole de un detector de radiación infrarroja que permitirá,
entre otras cosas, la observación de estrellas en formación. Entre las últimas observaciones realizadas por
el Hubble se encuentra lo que parece ser el primer planeta encontrado fuera del sistema solar.

3.4. Medición de distancias


Una de las medidas básicas en astrofísica es la distancia de los objetos celestes a la Tierra. El mé-
todo más sencillo es la determinación de la paralaje también llamado desplazamiento paraláctico, que
es el ángulo bajo el cual se vería desde este astro una distancia convencionalmente elegida. Para los
objetos del sistema solar se utiliza como distancia de referencia el radio ecuatorial de la Tierra. En
este caso el ángulo que forman la línea que une el astro con el centro de la Tierra y la que une al astro
con un punto sobre la superficie terrestre se denomina paralaje diurno.

690 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Para el caso de una estrella se utiliza como distancia de referencia el radio medio de la órbita te-
rrestre alrededor del Sol. Se obtiene así el paralaje anual de la estrella (figura 33).

Figura 33. Paralaje Tierra


anual de una estrella. d
R
Sol p

Tierra R = 1 AU (Unidad astronómica)


(6 meses
después)

Por consiguiente, para medir la distancia de una estrella basta determinar el paralaje. Una vez
determinado éste la distancia D de la estrella a la Tierra vendrá dada por:
R
d= (8)
sen p

en donde R es el valor medio del radio de la órbita de la Tierra alrededor del Sol y p es el paralaje.
En astronomía, la distancia media de la Tierra al Sol, es decir, el radio medio de la órbita terres-
tre se denomina unidad astronómica AU (UA) y es igual a 149.600.000 km. Se define el parsec (pc)
como la distancia de una estrella cuyo paralaje anual es de 1 segundo de arco. Teniendo en cuenta la
relación anterior:
1 pc = 206,265 AU (9)

El parsec es una unidad de distancia que se utiliza frecuentemente en astronomía junto con la
unidad astronómica y el año luz, definido como la distancia recorrida por la luz en el vacío en un pe-
ríodo de tiempo de un año.
De la definición queda claro que cuanto más lejana se encuentra una estrella menor es el parala-
je. Ahora bien, la medida de paralajes muy pequeños es bastante complicada y difícil, por lo que este
método de determinación de las distancias estelares no es adecuado. Se utilizan entonces otros méto-
dos directos o indirectos basados en la determinación de la intensidad de la luz de la estrella o, como
para el caso de galaxias distantes, el efecto Doppler junto con la ley de Hubble.

4. CLASIFICACIÓN DE LAS ESTRELLAS Y EVOLUCIÓN ESTELAR


Las estrellas son objetos celestes masivos que brillan por sí solos y emiten radiación electromag-
nética como resultado de las reacciones nucleares que tienen lugar en su interior. Las estrellas son los
objetos celestes más abundantes en el universo y en muchas ocasiones se presentan en parejas, en sis-
temas múltiples o en racimos (cluster). Las estrellas de estos grupos estelares tienen un origen común
y se encuentran unidas por su interacción gravitatoria. En muchas ocasiones algunas estrellas que son
similares y tienen un origen común no tienen la masa suficiente para mantenerse unidas por efectos
gravitatorios y aparecen en asociaciones estelares.
Sólo en la Vía Láctea, la galaxia a la que pertenece el Sol, se ha calculado que el número de es-
trellas es de cientos de miles de millones. Por otra parte, la Vía Láctea sólo es una de los varios cientos
de millones de galaxias visibles mediante los potentes telescopios modernos.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 691


Volumen II. Física II

4.1. Luminosidad y brillo


Una magnitud básica observable de una estrella es su brillo. Los antiguos griegos inventaron un
sistema para clasificar las estrellas por su brillo y decidieron denominar estrellas de primera magni-
tud a las estrellas más brillantes y estrellas de magnitud 6 a las estrellas menos brillantes en el límite
de visibilidad sin utilizar ningún instrumento. Los astrónomos han preservado este sistema y lo han
cuantificado introduciendo algunas cantidades para tener en cuenta que las estrellas presentan un am-
plio rango de brillo.
Para definir la escala se ha tenido en cuenta que, según la ley de Fechner, las sensaciones siguen
los términos de una progresión aritmética cuando las causas que provocan dichas sensaciones siguen
los términos de una progresión geométrica. Se denomina magnitud aparente a la sensación de brillo
que produce una estrella independientemente de su distancia a la Tierra. Por consiguiente, si la mag-
nitud de una estrella 1 es m1 = 1 y la de la estrella 2 es m2 = 2, sus brillos f1 y f2 están relacionados por f2
= (1/k)f1, de manera que a mayor magnitud aparente menor brillo. En general, para una estrella de
magnitud m, su brillo en relación a las estrellas de magnitud 1 es fm = 1/(km–1)f1; y para otra estrella de
magnitud aparente n, es fn = 1/(kn–1)f1. Por tanto se tiene que:
1 f
m– n= log n (10)
log k fm

Para determinar el valor de la constante k se establece que las estrellas de magnitud 6 sean 100 veces
menos brillantes que las de magnitud 1, es decir que f6 = 10–2f1. Por tanto, se tendrá que:
2
log k = = 0,4 ® k = 2,512 (11)
5

Es decir, que las estrellas de magnitud aparente 1 son 2,512 veces más brillantes que las de magnitud
aparente 2, y éstas son 2,512 más brillantes que las de magnitud aparente 3.
Para completar la escala nos falta elegir un origen. Se elige de manera que las estrella Vega ten-
ga una magnitud aparente cero. Por tanto, de la expresión (10) se obtiene que la magnitud aparente de
una estrella vendrá dada por:
1 f f
m= – log = –2,5 log (12)
log k f Vega f Vega

Puesto que la magnitud aparente no tiene en cuenta la distancia a la que se encuentran las estre-
llas, no es una magnitud que sirva para comparar el brillo de dos estrellas diferentes. Es por esto por lo
que se introduce la magnitud absoluta, definida como la magnitud aparente de una estrella a una dis-
tancia de 10 pc (parsec). Supongamos una estrella de magnitud aparente m. Si la colocásemos a una
distancia de 10 pc su brillo sería diferente y por consiguiente su magnitud aparente también. Denomi-
nemos M a la magnitud de las estrella situada a 10 pc, es decir, su magnitud absoluta. Evidentemente,
se tendría que:
f
m= –2,5 log (13)
f Vega

y
f'
M = –2,5 log (14)
f Vega

692 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

en donde f ´ sería el brillo cuando se sitúa a una distancia de 10 pc. Ahora bien, el brillo es inversa-
mente proporcional a la distancia al cuadrado, es decir f = a/d2. Por consiguiente, se tendría que:
f d2
M – m= –2,5 log = –2,5 log 2 (15)
f' d'

en donde d es la distancia real al cuadrado de la estrella y d´ es igual a 10 pc. Por tanto, se tiene que:
d
M = m – 5 log = m+ 5 – 5 log d (16)
10
expresión que nos proporciona una relación entre la magnitud aparente, la magnitud absoluta y la dis-
tancia a la que se encuentra la estrella.
La relación entre las magnitudes absolutas de dos estrellas nos proporciona una relación entre
sus luminosidades. La luminosidad de una estrella es la energía total radiada por unidad de tiempo.
Para una estrella de radio R y temperatura T, la luminosidad viene dada por:
L = 4pR 2 sT 4 (17)
en donde (s) es la constante de Stefan-Boltzmann. El brillo, f, la luminosidad L y la distancia de una
estrella están relacionadas por:
L = 4pd 2 f (18)

Por tanto, se tiene que:


2 log d = log L – log f – log( 4p ) (19)

Para una segunda estrella, se tiene que:


2 log d '= log L'– log f '– log( 4p ) (20)

Por consiguiente, de la expresión (16), se tendrá que:


M = m+5 – 2,5[log L – log f – log( 4p )] (21)

Y, para la segunda estrella:


M '= m'+5 – 2,5[log L'– log f '– log( 4p )] (22)

De estas dos últimas expresiones, se tiene que las magnitudes absolutas están relacionadas por:
L f
M – M '= m – m'–2,5 log + 2,5 (23)
L' f'

Si ahora tenemos en cuenta la relación (10), se tiene finalmente que:


L
M – M '= –2,5 log (24)
L'

Es decir, que las magnitudes aparentes de dos estrellas sirven para comparar el brillo, y las magnitu-
des absolutas sirven para comparar la luminosidad.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 693


Volumen II. Física II

4.2. Clasificación espectral de las estrellas


El estudio de los diferentes tipos de estrellas nos ha proporcionado información sobre los proce-
sos que tienen lugar en su interior. De acuerdo a sus espectros se han clasificado las estrellas en varias
clases que proporcionan información sobre su temperatura. Las clases estándar son O, B, A, F, G, K y
M. Las estrellas que pertenecen a estas clases tienen básicamente la misma composición química
pero se diferencian en su temperatura. En la tabla (5) se muestran las temperaturas y color de las estre-
llas que corresponden a las clases estándar de estrellas.

– Clase O. Este grupo incluye a las estrellas azules con temperaturas superficiales que oscilan
entre los 20.000 y 30.000 K. El espectro de las estrellas de este grupo se caracteriza en primer
lugar por las líneas de helio ionizado. Otra característica importante es que incluye líneas de
oxígeno, carbono y nitrógeno, doblemente ionizado, y de silicio triplemente ionizado.
– Clase B. Incluye las estrellas azules-blancas con temperaturas superficiales comprendidas
entre 10.000 y 30.000 K, como la estrella Epsilon Orionis. Su espectro se caracteriza por lí-
neas de helio y de oxígeno, nitrógeno y magnesio simplemente ionizados.
– Clase A. En este grupo se encuentran las estrellas llamadas de hidrógeno. Son estrellas
blancas cuyas temperaturas superficiales oscilan entre los 7500 y los 10.000 K. Un ejemplo
de este tipo de estrella es Sirio. Sus espectros están dominados por las líneas de absorción
del hidrógeno. Estas líneas van apagándose conforme el hidrógeno va siendo ionizado a
temperaturas más elevadas.
– Clase F. Incluye a las estrellas de color amarillo-blanco cuyas temperaturas están com-
prendidas entre los 6000 y 7500 K. En este grupo las líneas fuertes del espectro son las lí-
neas H y K del calcio. Las líneas del hidrógeno son más débiles que en las estrellas del gru-
po A. Una estrella de este tipo es la estrella Aquilae.
– Clase G. Este grupo comprende las estrellas de color amarillo, como el Sol, cuyas tempera-
turas superficiales oscilan entre los 5000 y 6000 K. Los espectros de estas estrellas están
dominados por las líneas características de los metales, en particular de hierro, calcio, so-
dio, magnesio y titanio. Particularmente fuertes son las líneas H y K del calcio ionizado.
– Clase K. Pertenecen a este grupo las estrellas cuyas temperaturas superficiales oscilan en-
tre los 3500 y 5000 K y son de color amarillo-naranja. Su espectro exhibe abundantes líneas
metálicas e indican la presencia de fragmentos de moléculas como cianógeno (CN) y del
radical hidroxilo (OH).
– Clase M. Este grupo comprende estrellas con temperaturas inferiores a los 3500 K y son de
color rojo. Un ejemplo típico de este tipo es la estrella Betelgeuse. Sus espectros indican la
presencia de metales familiares, que incluyen hierro, calcio y magnesio, y de moléculas de
óxidos metálicos, sobre todo las de óxido de titanio.

Estas clases se han suplementado con otros tipos denominados R, N (hoy denominadas común-
mente como estrellas de carbón o de tipo C) y S. Estas tres últimas clases difieren de las clases están-
dar en su composición química y las estrellas que pertenecen a ellas son estrellas gigantes o supergi-
gantes. Cada una de estas clases se subdivide además en subclases que se designan con la letra de la
clase y un número que va de 0 a 9 para indicar su luminosidad. Así por ejemplo, Alpha Persei es de
clase F5 y el Sol es de clase G2. Además, se le suele añadir un sufijo para indicar el tipo de estrella se-
gún su luminosidad. El sufijo I indica que se trata de una estrella supergigante: las supergigantes bri-
llantes son del tipo Ia y las menos brillante del tipo Ib. El sufijo II se utiliza para las estrellas gigantes
brillantes, el III indica que se trata de una estrella gigante, IV indica que es subgigante y V una estrella
que pertenece a la secuencia principal.

694 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Clase espectral Temperatura Color


(K)

O 30.000 - 60.000 Azul


B 10.000 - 30.000 Azul-Blanco
A 7.500 - 10.000 Blanco
F 6.000 - 7.500 Amarillo-Blanco
G 5.000 - 6.000 Amarillo
K 3.500 - 5.000 Amarillo-Naranja
M < 3.500 Rojo

Tabla 5. Clasificación espectral estándar de las estrellas.

4.3. Diagrama de Hertzsprung-Russell


Si representamos la magnitud absoluta de una estrella, o su luminosidad en escala logarítmica,
frente a su temperatura, observamos que las estrellas no se sitúan en el diagrama de forma aleatoria
sino que tienden a distribuirse alrededor de ciertas regiones muy concretas, como se muestra en la fi-
gura 34. Este diagrama se denomina de Hertzsprung-Russell en honor al danés Ejnar Hertzsprung y al
americano Henry Norris Russell, quienes de forma independiente descubrieron la relaciones mostra-
das en él.

-10 106
Supergigantes
-5 104

Luminosidad (Sol = 1)
Magnitud absoluta

Gigantes
0 10
2

Secuencia Principal
+5 1.0
Enanas Blancas
+10 0.01

+15
B A F G K M Clase Espectral
25.000 10.000 5.000 3.000 T (K)

Figura 34. Diagrama de Hertzsprung-Russell de distribución


de las estrellas.

Como puede apreciarse, la mayoría de las estrellas se sitúan en posiciones cercanas a la línea
diagonal que recibe el nombre de secuencia principal. La distribución comienza en las calientes es-
trellas azules de tipo O y B que son 10.000 veces más brillantes que el Sol, baja hacia la zona de las es-
trellas tipo A, pasa por las estrellas de tipo K y termina en las estrellas rojas de tipo M con una lumino-
sidad cientos de veces más débiles que el Sol. La secuencia es continua y la luminosidad desciende
suavemente conforme disminuye la temperatura. En el diagrama podemos observar, en la parte supe-
rior derecha, un grupo de estrellas gigantes, que pueden ser amarillas, naranjas o rojas, y son unas 100
veces más brillantes que el Sol. Un grupo de estrellas supergigantes incluye estrellas de todos los ti-
pos espectrales de luminosidad muy variable. Las estrellas supergigantes son objetos celestes muy
raros debido a su corta vida pero pueden ser vistos a gran distancia por su gran luminosidad. El grupo
de las enanas blancas se sitúa por debajo de la secuencia principal. Su luminosidad es 100 veces más
pequeña que la del Sol y son estrellas que se encuentran en los últimas etapas de su evolución.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 695


Volumen II. Física II

Alrededor del 90% de las estrellas conocidas se distribuyen a lo largo de la secuencia principal y
su luminosidad sigue de forma aproximada la siguiente relación:
3 ,5
L éM ù
=ê ú (25)
LS ë M S û

Esta expresión nos proporciona una medida de la luminosidad de una estrella en relación a la lumino-
sidad del Sol.

4.4. Evolución estelar


Las teorías sobre la evolución estelar se basan fundamentalmente en las observaciones realiza-
das y en los estudios de los espectros luminosos de las estrellas. Los astrónomos han descubierto es-
trellas que se encuentran en estado avanzado de su evolución, estrellas que se encuentran cercanas a
su extinción y también estrellas que son jóvenes o incluso que están en proceso de formación.
El origen de una estrella se encuentra en el gas y el polvo interestelar y la fuente de energía para
su formación procede del colapso gravitacional. Cuando por cualquier circunstancia, como puede ser
una onda de choque, en algunas regiones se produce una condensación de materia, ésta puede con-
traerse debido a los efectos gravitatorios. Conforme se acumula materia en el centro, los átomos se
colocan más cerca unos de otros y la temperatura y la densidad aumenta hasta que se vuelve incandes-
cente. Se forma así una proto-estrella. En esta situación la energía emitida no es debido a procesos nu-
cleares sino que se trata de energía gravitatoria liberada. Cuando la temperatura alcanza el valor de
unos millones de kelvin comienzan a producirse reacciones nucleares cuyo resultado es que los nú-
cleos de los átomos de hidrógeno se combinan con los deuterones (núcleos de los llamados átomos de
hidrógeno pesado) para formar núcleos de helio. Una vez que se ha consumido todo el hidrógeno, el
núcleo de la estrella disminuye su temperatura y su presión y la estrella se contrae bajo su propio
peso. Esta contracción se detiene cuando la presión aumenta y es capaz de contrarrestar el peso de la
estrella. Su evolución posterior depende de la masa inicial y pueden producirse varios casos.

4.4.1. Estrellas poco masivas


– Estrellas con M < 0,5 Mu. Si la masa de la estrella es inferior a la mitad de la masa solar, la
evolución de la estrella ha terminado. Carente de energía para iniciar cualquier otro proce-
so la estrella se va enfriando poco a poco y se hunde lentamente sobre sí misma, a medida
que se enfría, hasta alcanzar densidades de toneladas por centímetro cúbico en su interior.
La contracción acaba por la presión que surge de la degeneración electrónica. Conforme se
contrae la estrella, los niveles de energía más bajos están ocupados y los electrones se ven
forzados a ocupar niveles de energía cada vez más altos hasta llenar los niveles de energía
más bajos no ocupados. Esto da lugar a una presión que detiene el colapso gravitacional, el
tamaño de la estrella se ha reducido hasta un diámetro semejante al de la Tierra (del orden
de 10.000 kilómetros) y su masa es del orden de la mitad de la del Sol. Se llega así a la situa-
ción de una enana blanca. A partir de este momento, seguirá enfriándose y, con ello, per-
diendo luminosidad hasta hacerse invisible.
Es importante resaltar que la presión que surge de la degeneración electrónica acaba con la
contracción gravitacional si la masa de la estrella es inferior a 1,44 veces la masa del Sol.
Esta masa máxima para una enana blanca se conoce como límite de Chandrasekhar.
– Estrellas con 0,5 Mu < M < 1,44 Mu. Si la masa de la estrella es menor que 1,5 veces la
masa del Sol, una vez consumido el hidrógeno del núcleo, éste se contrae y la temperatura

696 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

comienza a elevarse. Por otro lado, aumentan la reacciones de fusión en las capas externas
produciéndose una expansión que hace que la estrella se enfríe adquiriendo un color rojo.
Debido a la disminución de la fuerza gravitatoria se produce una pérdida de masa de la cor-
teza. Por otro lado, el núcleo continúa calentándose hasta adquirir temperaturas a las que
tiene lugar la fusión del helio que se transforma en núcleos más masivos y la estrella se ex-
pansiona hasta adquirir un radio del orden de 200 veces su radio inicial. Se llega así a la si-
tuación de una estrella gigante roja. Una vez que se ha quemado todo el helio, la estrella no
tiene masa suficiente para que se produzcan reacciones de fusión del ciclo del carbono y la
estrella se contrae hacia una enana blanca. Tal como hemos visto anteriormente, la contrac-
ción acaba por la presión que surge de la degeneración electrónica.
– Estrellas con 1,44 Mu < M < 3Mu. Tal como acabamos de ver, las enanas blancas se
mantienen en equilibrio entre las fuerzas de gravitación, por un lado, y la presión del flui-
do de electrones degenerado que se encuentra en su interior, por otro. Ahora bien, este
equilibrio se mantiene si la masa de la estrella es inferior a 1,5 veces la masa del Sol (lími-
te de Chandrasekhar). Si la masa es superior a este límite, la materia interior seguiría
comprimiéndose. En este proceso, los electrones adquieren cada vez mayor velocidad de-
bido al principio de exclusión y, finalmente, empiezan a penetrar en los núcleos atómi-
cos, combinándose con los protones para dar neutrones, cambiando la composición de
esos núcleos. Esta disminución de electrones en el material hace que la presión disminu-
ya y la estrella se hunde sobre sí misma. Con este hundimiento, los electrones siguen pe-
netrando los núcleos y los nuevos neutrones que se forman son expulsados y comienzan a
formar un gas de neutrones. Puesto que los electrones no pueden ocupar el mismo estado,
una vez ocupados los estados de menor energía los neutrones se ven forzados a ocupar es-
tados de energía más alto y esto se traduce en una presión que detiene el colapso gravita-
torio de la estrella. Se produce así una estrella de neutrones con un radio pequeño del or-
den de 10 km (mucho menor que el de una enana blanca) y con una densidad de cientos de
millones de toneladas por centímetro cúbico.
Si la masa de la estrella es del orden de 2 o 3 veces la masa solar el colapso gravitacional no
se detiene y el proceso continua hasta el estado de agujero negro. Sin embargo, la mayoría
de las estrellas de neutrones y de agujeros negros se creen que son debidos a la evolución de
estrellas mucho más masivas que el Sol.

4.4.2. Estrellas masivas


Las estrellas muy masivas evolucionan como las poco masivas hasta alcanzar el estado de gi-
gante roja. Pero a diferencia de estas últimas, en las estrellas de gran masa (8 veces la masa solar) con-
tinúan los procesos nucleares de fusión mediante el ciclo del carbono dando lugar a un núcleo estelar
de hierro y continúan expandiéndose transformándose en una supergigante roja. Puesto que la fusión
del hierro para transformar elementos más pesados no libera energía sino que consume energía, se
produce una caída brusca de temperatura y de presión interna en el núcleo de la estrella. La presión in-
terna es insuficiente y se produce un hundimiento del núcleo sobre sí mismo. Este hundimiento es tan
rápido, que las capas exteriores de la estrella no pueden seguirlo. Cuando el núcleo se reduce hasta el
tamaño típico de las estrellas de neutrones, la presión aumenta en su interior y su colapso se detiene.
La materia de las capas exteriores de la estrella, que se desplomaban tras el núcleo, chocan contra su
superficie dura y en esa colisión, el núcleo se comprime y el material de las capas exteriores es expul-
sado al exterior a velocidades enormes que pueden alcanzar el 5% de la velocidad de la luz. Este
acontecimiento se denomina supernova. La supernova puede provocar la destrucción completa del
astro, que se disipa formando una nube, o reducirse a la expulsión de todo el material de las capas ex-
teriores, dejando como resto al núcleo comprimido que se convertirá entonces en una estrella de neu-
trones o, eventualmente, en un agujero negro.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 697


Volumen II. Física II

Si la masa del residuo colapsado es inferior a 2 o 3 masas solares la presión del gas degenerado
de sus neutrones puede compensar la fuerza gravitatoria y el astro puede estabilizarse como una estre-
lla de neutrones. Si la masa del residuo colapsado es mayor, la materia sigue comprimiéndose hasta
alcanzar el estado de un punto de densidad infinita denominado singularidad. El campo gravitatorio
de este objeto es tan intenso que ni siquiera la luz puede escapar de él, es por esto por lo que recibe el
nombre de agujero negro.

5. ESTRUCTURA Y COMPOSICIÓN DEL UNIVERSO


En los apartados anteriores hemos estudiado algunos aspectos de la astronomía de posición y de
la astrofísica tales como la estructura del sistema solar, la determinación de la posición de un astro so-
bre la esfera celeste y los sistemas de coordenadas utilizados para ello, las técnicas de observación en
astrofísica y la estructura, formación y evolución de las estrellas. En este apartado vamos a estudiar
los aspectos fundamentales de otra rama de la astronomía, la cosmología.
La cosmología es la parte de la astronomía que estudia el universo como un todo y tiene como
objetivo la comprensión de su origen y de su evolución posterior.

5.1. Galaxias
El universo está formado por unidades denominadas galaxias formadas por estrellas y por mate-
ria interestelar las cuales se mantienen cohesionadas por las fuerzas gravitatorias. En 1771, Charles
Messier publicó un catálogo de objetos celestes en el que aparecían algunos objetos no estelares que
eran en realidad galaxias. Sin embargo, su consideración como galaxias no se produjo hasta que en
1920 Edwin Hubble demostró su naturaleza extragaláctica al determinar la distancia de Andrómeda y
mostrar que se encontraba fuera de la Vía Láctea y que además presentaba unas dimensiones simila-
res a la de ésta. En la actualidad se conocen miles de galaxias que están formadas por millones de es-
trellas y tienen unas dimensiones del orden de 100 años luz. Las Galaxias se identifican por su núme-
ro Messier (una M seguida de un número); así, Andrómeda es la galaxia M31.
Atendiendo a su forma se puede hacer una primera clasificación de las galaxias, aunque en la ac-
tualidad las nuevas fotografías permiten hacerlo de forma más detallada, en tres grandes tipos: gala-
xias elípticas, galaxias espirales y galaxias irregulares. A esta clasificación se le denomina secuencia
de Hubble y puede verse en la figura 35.

Secuencia de Hubble
Sc
Sb

Sa Irregulares

S0

E0 E3 E7 SB0
SBc
SBa

SBb
SBc

Figura 35. Clasificación de las galaxias.

698 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

Las galaxias elípticas (figura 36) tienen forma de un esfe-


roide achatado y, por regla general, contienen muchas estrellas
viejas y sólo algunas estrellas jóvenes. Representan el 15% del
total de las galaxias. Las galaxias espirales son las más abun-
dantes (aproximadamente el 80%) y son sistemas planos en
forma de disco que contienen, además de algunas estrellas vie-
jas, un gran número de estrellas jóvenes, gas y nubes molecula-
res. Estas galaxias suelen presentar una protuberancia nuclear
y un tenue halo de estrellas viejas que rodea toda la galaxia. Se
distinguen los tipos Sa, Sb y Sc dependiendo de la importancia
relativa del núcleo y el grado de arrollamiento de los brazos al-
rededor del núcleo. Las estrellas jóvenes y las nubes molecula- Figura 36. Galaxia elíptica.
res suelen encontrarse en brazos espirales alrededor de la gala-
xia como puede apreciarse en la figura 37a. Algunas de las ga-
laxias espirales muestran una estructura de estrellas en forma
de barra recta que salen del núcleo galáctico y se introducen en el disco (figura 37b). Los brazos espi-
rales convencionales giran entonces alrededor desde los extremos de las barras. Estas galaxias se de-
nominan galaxias espirales barradas y al igual que las galaxias espirales, pueden ser subdivididas en
diferentes tipos también acorde al alcance de sus brazos y de la dimensión del núcleo.

a) b)

Figura 37. Galaxias en espiral: a) en espiral normal, b) en espiral


barrada.

Otras galaxias, denominadas lenticulares, no presentan esta estructura de brazos. Existe un nú-
mero reducido de galaxias (aproximadamente el 3%) que presentan formas irregulares y que están
constituidas por un gran número de estrellas jóvenes y de gran cantidad de gas y polvo. Suelen estar
situadas alrededor de galaxias más grandes. Por último, hay un número de galaxias de características
muy singulares que suponen el 2% del total. Estas galaxias se denominan galaxias activas debido a la
extraordinaria variabilidad y existencia de fuertes interacciones en el núcleo galáctico. Algunos
ejemplos de estas galaxias son las denominadas galaxias Seyfert, los objetos B L Lacertae, los blása-
res, y los quásares. Las galaxias Seyfert se caracterizan por la presencia de anchas líneas de emisión
procedentes de un núcleo extremadamente brillante que emite también ondas de radio. Los objetos B
L Lacertae se caracterizan por rápidas variaciones de su luminosidad (períodos de días) y por la au-
sencia de líneas de emisión en su espectro. Si las variaciones tienen lugar en períodos inferiores al
día, se denominan blásares. Los quásares son objetos parecidos a las estrellas pero con un extraordi-
nario desplazamiento hacia al rojo que impide considerarlos como tales por encontrarse a enormes
distancias. Por ello, muchos astrónomos los consideran galaxias activas, y se piensa, que las galaxias
Seyfert son galaxias espirales con un centro de tipo quásar.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 699


Volumen II. Física II

Las propiedades de las galaxias pueden conocerse mediante el análisis de sus espectros. El estu-
dio de los espectros ópticos y de radio han puesto de manifiesto la relación entre la proporción de los
diferentes tipos de estrellas, nebulosas y gas frío que componen una galaxia con su clasificación se-
gún su forma. Las galaxias elípticas tienen pocas estrellas jóvenes y polvo, y también poco gas. El nú-
mero de estrellas jóvenes y de regiones de gas de hidrógeno ionizado (H II) aumenta en las galaxias
espirales y se hace aún mayor en las galaxias irregulares. Por otro lado, la medida de la desviación de
las rayas de los espectros obtenidos de diferentes puntos de la galaxia ha permitido conocer los movi-
mientos de las galaxias y sus movimientos internos: las estrellas y nubes de gas orbitan alrededor del
centro de las galaxias. La estimación de las velocidades de giro ha permitido deducir que la masa de
una galaxia no está tan concentrada en su centro sino que una gran parte de su masa se encuentra a
mucha distancia del centro. Estos estudios han reforzado la teoría de que el Universo está formado en
gran parte por materia oscura que sólo puede ser detectada por sus efectos gravitatorios.
La determinación de las distancias de las galaxias se hace mediante métodos indirectos compa-
rando alguna magnitud observada, como su luminosidad o tamaño, con la de objetos celestes de dis-
tancia conocida. Un método especialmente interesante consiste en utilizar las estrellas de tipo cefei-
das que son estrellas de luminosidad variable. Se ha encontrado que el período de variabilidad de es-
tas estrellas depende de su luminosidad, por lo que midiendo el período podemos determinar la
luminosidad y después la distancia a la Tierra.
La galaxia se origina a partir de una inmensa nube de gas en rotación que va contrayéndose por
la pérdida de energía en los choques de las nubes más pequeñas que la constituyen. De estas colisio-
nes, nacen las estrellas, lo que da a lugar a una pérdida de gas en la galaxia y a un aplanamiento per-
pendicular al eje de rotación. La evolución de las galaxias está íntimamente unida a la evolución de
sus constituyentes: las estrellas y el gas. Conforme las estrellas envejecen van cediendo gas a la gala-
xia, pero este nuevo gas es rico en elementos más pesados originados en las estrellas. Esto da lugar a
que, conforme una galaxia evoluciona, se produzca una pérdida de gas y un aumento de elementos
pesados en el espacio interestelar.
Por otra parte, las galaxias de un cúmulo están constantemente en movimiento debido a la fuerza
gravitacional mutua entre ellas y sus vecinas. Esto hace que en alguna ocasión pueda producirse dra-
máticas interacciones. Los efectos de estas colisiones son diferentes dependiendo de la similitud o no
de las masas de las galaxias que interaccionan. Si dos galaxias espirales de masa similar se acercan
una a otra, a medida que lo hacen impulsan simultáneamente a las estrellas de la otra de sus órbitas y
las galaxias van siendo desprendidas de sus brazos. Si las galaxias pasan suficientemente cerca, se
produce su unión. Cuando las galaxias colisionan de este modo, las estrellas que contienen no se to-
can en realidad entre sí: los espacios entre estrellas son tan grandes que las posibilidades de colisión,
incluso en una unión galáctica, son en verdad mínimos. Si la interacción tiene lugar entre dos galaxias
de tamaño muy desigual, entonces la más pequeña sufre alteraciones importantes mientras que la ma-
yor sufre sólo ligeras alteraciones. El efecto de las colisiones galácticas sobre las nubes de gas que
contienen es la producción de nuevas estrellas. Esto se debe a que las nuevas fuerzas gravitatorias
pueden dar lugar a que partes de la nube de gas se concentre y comience el colapso gravitatorio origen
del nacimiento de las estrellas.

5.2. Origen y evolución del universo


Ver tema 38.

700 CUERPO DE PROFESORES DE EDUCACIÓN SECUNDARIA


Sistema solar

BIBLIOGRAFÍA

Diccionario Oxford-Complutense. Diccionario de astronomía. Complutense,


Madrid, 1999.
Hoyle, F. Iniciación a la astronomía. Orbis, Barcelona, 1986.
Komarov, V. Nueva astronomía recreativa. Mir, Moscú, 1985.
Kononovitch, E. y Moroz, V. Bakulin, P. Curso de astronomía. Mir, Moscú,
1988.
Martín, F. Astronomía. Paraninfo, Madrid, 1982.

TEMARIO DE FÍSICA Y QUÍMICA. PRUEBA A 701

También podría gustarte