Está en la página 1de 120

1000n 10n Prefijo 1000n 10n Prefijo 1000n 10n Prefijo

10008 1024 yotta 10001 103 kilo 1000−2 10−6 micro

10007 1021 zetta 10002/3 102 hecto 1000−3 10−9 nano

10006 1018 exa 10001/3 101 deca 1000−4 10−12 pico

10005 1015 peta 10000 100 ninguno 1000−5 10−15 femto

10004 1012 tera 1000−1/3 10−1 deci 1000−6 10−18 atto

10003 109 giga 1000−2/3 10−2 centi 1000−7 10−21 zepto

10002 106 mega 1000−1 10−3 mili 1000−8 10−24 yocto

1 ω k 2π c
ν= = ω 2= k= λ=
T 2π m λ ν

Juan Carlos Cruz Álvarez Página 1 GENERAL


TEMA 1. FISICA DE CAMPOS

Fuentes de radiación: naturales y artificiales


Generan energía en forma de ondas electromagnéticas.
Atendiendo a la energía que transportan, y en función de los efectos biológicos que producen pueden
ser: ionizantes y no ionizantes.

1.3 RADIACIONES

NO IONIZANTES
Frecuencia menor que ionizantes.
Su energía no es suficiente para producir rotura de enlaces atómicos.

RADIACIONES ÓPTICAS
Longitud de onda entre 100 nm y 1 mm
Formadas por: Radiación ultravioleta (400 nm > λ > 100 nm)
Luz visible (760 nm > λ > 400 nm)
Radiación infrarroja (1 mm > λ > 760 nm)
Producen calor y efectos fotoquímicos (fotofobia, eritema, producción vitamina D…)
La más energética (ultravioleta) tiene cierta capacidad ionizante.

MICROONDAS
Frecuencias entre 300 MHz y 300 GHz.
Capaces de inducir corrientes eléctricas en tejidos expuestos a ellas (∆ Tª interna)
Telefonía móvil siendo analógicos conectados a estaciones de 900 MHz y los digitales GSM y
EDCS que se conectan a bandas de 900 y 1800 MHZ

Baja frecuencia RADIOFRECUENCIA Y CAMPOS CUASI-ESTÁTICOS


Frecuencias entre 3 kHz y 300 kHz
Efectos debidos a tres factores: resonancia, calentamiento y quemaduras o descargas
eléctricas.
Los campos casi-estáticos son los correspondientes a frecuencias muy bajas, inferiores a 3
kHz. En este caso, los efectos pueden estudiarse separando el campo eléctrico del magnético.

IONIZANTES
Ondas electromagnéticas de frecuencia muy alta (mayor de 1015 Hz)

Rompen enlaces atómicos. Al interaccionar con la materia pueden producir ionización dando lugar a la
aparición de uno o varios electrones y a un ion positivo, químicamente activos, por lo que pueden
provocar reacciones y cambios químicos en el material con el que interaccionan.

Pueden producir radiolisis o rotura de enlaces químicos de las moléculas, produciendo en los
individuos efectos biológicos (efectos somáticos) o a sus descendientes (efectos genéticos). No todos
son nocivos para la salud.
Pueden ser: corpusculares (partículas subatómicas)
electromagnéticas (rayos X, rayos γ) Los rayos X comprenden desde 10 eV y unos
miles de eV, mientras que los rayos γ son superiores

Juan Carlos Cruz Álvarez Página 2 TEMA 1


1.4 ELEMENTOS DE LA INTERACCIÓN ELÉCTRICA

1.4.1 CARGA ELÉCTRICA

La materia es globalmente neutra. Cuando gana o pierde electrones se llama ion, la materia formada
parcialmente por iones está ionizada.

q.q´
Fuerza entre cargas: F=k
d2
(1.1)
9 2 -2
K = 9 x 10 Nm C
Campo eléctrico: F=q . E
(1.2)

DISTRIBUCIONES DE CARGA
Densidad lineal de carga: λ [C.m-1] ejemplo hilo conductor
Densidad superficial de carga: σ [C.m-2] ejemplo un disco, una hoja de papel
Densidad volumétrica de carga: ρ [C.m-3] ejemplo un cubo o un cilindro

PRINCIPIO DE CONSERVACIÓN DE LA CARGA


La carga total se conserva, no se puede crear carga, ni aniquilar carga.
No se han descubierto partículas sin masa que, a la vez, posean carga eléctrica neta.

1.4.2. CORRIENTE ELÉCTRICA

El flujo de partículas cargadas produce una corriente eléctrica que puede ser:

Convección: transporte de masa del que resulta un transporte neto de carga. (Viento Solar)

Conducción: no hay transporte de masa, pero sí arrastre de cargas dentro de un medio neutro.
(Cables de corriente)
dq
Intensidad de corriente eléctrica: I= [A] = [C.s-1]
dt

DENSIDAD DE CORRIENTE
Magnitud intensiva, depende del punto donde se evalúe y no depende de la cantidad de superficie
atravesada por el flujo de carga

J (r )= ρ+¿<V +¿> + ρ−¿ <V ¿ ¿


−¿ >¿ ¿ ¿

(1.3)
Suponiendo que estamos en corrientes de conducción, el medio es neutro y en cualquier punto,
entonces:
J 0= ρ 0 ¿
(1.4)
En un conductor metálico sería
J=−ρ0 <V −¿>¿¿
(1.5)
ρ
Y en otro caso como en un flujo de un líquido eléctricamente neutro, por ejemplo, la sangre +¿=− ρ ¿ −¿= ρ0 ¿

y tenemos que ¿ V +¿>¿<V ¿ entonces


−¿> ¿¿

J=0

Juan Carlos Cruz Álvarez Página 3 TEMA 1


La intensidad de corriente se entiende ahora como el flujo del vector densidad de corriente a través
de una sección superficial
I =∫ J . dS [A.m-2]
(1.6)

ECUACIÓN DE CONTINUIDAD

El principio de conservación de la carga implica que si toda la carga de un volumen determinado


permanece constante, es porque el flujo total de corriente que entra en ese volumen es nulo. Sin
embargo, si el flujo de corriente no es nulo, (entra más corriente de la que sale) entonces la carga del
volumen considerado cambia con el tiempo
−dQ
∮ J∗dS= dt
(1.7)

FUERZA ENTRE CORRIENTES


Una corriente ejerce una fuerza sobre otra corriente en un medio eléctricamente neutro.

Sean dos conductores muy delgados, de longitud infinita y paralelos, separados una distancia R, por
los que transitan las corrientes I e I’. La fuerza por unidad de longitud entre ambos conductores es:

F I .I ' μ0
=2 k k=
−7
=10 N . A
−2
l R 4π
μ0: permeabilidad eléctrica del vacío

Esta fuerza es una magnitud vectorial:


- Dirección: en el plano de los conductores y perpendicular a ambos.
- Sentido: repulsivo cuando las corrientes tienen sentidos opuestos y atractivo cuando tienen
el mismo sentido.

CAMPO MAGNÉTICO
Las corrientes eléctricas y, en general, las cargas en movimiento, crean un campo magnético B a su
alrededor.
F=qv x B
(1.8)

Cuando tenemos una corriente I en el seno de un campo magnético, la fuerza que este ejerce sobre
sobre un segmento rectilíneo de conductor, de longitud dl es:
dF=I . dl× B
(1.9)

FUERZA DE LORENTZ
Fuerza a la que está sometida cualquier partícula cargada, dados los campos E y B.

F=q ( E+ v × B )
(1.10)

1.5 DESCRIPCIÓN DE LA INTERACCIÓN ELECTROMAGNÉTICA

PRINCIPIO DE LINEALIDAD O SUPERPOSICIÓN


Las cargas estáticas se consideran fuentes de campo eléctrico
Las corrientes y cargas en movimiento se consideran fuentes de campo magnético.

Juan Carlos Cruz Álvarez Página 4 TEMA 1


Los campos dependen de sus fuentes linealmente, esto es: manteniendo el resto de condiciones
constantes, duplicar la magnitud de las fuentes supone duplicar la magnitud de los campos asociados a
las mismas. Mas generalmente, cambiar la magnitud de las fuentes cambia la magnitud de los campos
en la misma proporción.

1.5.1 CAMPO ELÉCTRICO

El campo producido por una carga puntual es:

1 q
E= [N.C-1]
4 π ϵ0 r2
Leer no estudiar
Ɛ 0= permitividad del vacio=8 .8∗10−12
(1.11)

Gracias al principio de superposición la expresión anterior la podemos generalizar a varias cargas


puntuales (N)
N
1 qi
E= ∑
4 π ϵ 0 i=0 |r −r '|2
i

En caso de tener un medio continuo, caracterizado por una densidad de carga, la suma anterior se
sustituye por una integral
1 dq
E= ∫ ¿
4 π ϵ 0 |r−r '|3
(1.12)

TEOREMA DE GAUSS
El flujo de campo eléctrico a lo largo de una superficie cerrada es igual a la carga total encerrada en el
volumen del cual dicha superficie es frontera.

Q
∮ E . dS= ϵ
0
(1.13)

La intensidad de los campos disminuye con la distancia a las fuentes.


La tasa de variación con la distancia es menos acusada cuanto más extensa es la fuente.
q 1
Simetría esférica: E=
4 π ε0 r 2

λ 1
Simetría cilíndrica: E=
2 π ε0 r

σ
Plano de carga: E=
2ε0

PROPIEDADES DEL CAMPO ELÉCTRICO


Es conservativo, el trabajo que se necesita para mover una carga, de un punto A a uno B, en presencia
de un campo eléctrico, es independiente del camino recorrido.
B

∫ E∗dl =V A−V B
A

Juan Carlos Cruz Álvarez Página 5 TEMA 1


En muchas ocasiones tenemos un campo eléctrico constante en una dirección (digamos z) lo que
implica que el potencial aumenta linealmente en esa misma dirección

∆ V =E0 ∆ z

De donde podemos deducir el valor del campo midiendo potenciales y distancias


∆V
E0 =
∆z
(1.15) [V]= V.m-1

INTERACCIÓN DEL CAMPO ELÉCTRICO CON LA MATERIA


AISLANTES
También llamados dieléctricos, la estructura electrónica de sus átomos es tal que no disponen de
electrones o iones libres.

El efecto del campo eléctrico sobre este tipo de materiales es el


de deformar la estructura electrónica, “empujando” la parte de
carga positiva de la molécula y “atrayendo” la parte de carga
negativa. El resultado es que el centro de gravedad de las
cargas positivas se separa de las negativas, formando un dipolo
eléctrico. Quedándose la molécula polarizada

La polarización en general es muy pequeña por que el efecto polarizador del campo tiene que competir
con las fuerzas atómicas que tienden a restaurar la distribución de carga de la molécula

Si el material ya lo forman moléculas con polarización permanente el efecto del campo es el de


orientar las moléculas polares de forma que se alineen con él. El campo compite con la agitación
térmica y a hacer que éstas se orienten al azar. Estas moléculas se les denomina polares y tienen su
disposición electrónica tal que hace que el centro de la carga positiva no coincida con el centro de la
carga negativa, aun siendo neutras (molécula de agua)

El efecto en ambos casos es que se crea un campo eléctrico debido a las moléculas polarizadas que se
opone al campo externo de forma que el efecto es una disminución del campo total interno respecto al
externo.
1
E' = E
εr
(1.16) Ɛr=constante dieléctrica relativa

Ruptura dieléctrica
Cuando el campo supera un valor límite (muy elevado) se produce la ionización espontánea de una
molécula bajo la acción del intenso campo eléctrico.

La molécula ionizada y los electrones expulsados se aceleran hasta alcanzar energías tales que
provocan nuevas ionizaciones en su choque con otras moléculas. Estos nuevos iones a su vez producen
más ionizaciones en su choque (reacción en cadena). Produciendo un arco luminoso. Este valor límite
que para el aire este valor es aprox. 3 x 106 V/m

Ejemplo de este fenómeno es la chispa eléctrica o rayo de las tormentas y la iluminación se debe a la
recombinación de los iones con los electrones

CONDUCTORES
Presentan cargas libres y además permiten la existencia de corrientes de conducción en su seno.
La densidad de carga con la que contribuye un portador se escribe:

Juan Carlos Cruz Álvarez Página 6 TEMA 1


ρ=q . n
(1.17)

Los portadores pueden ser electrones, iones negativos o iones positivos. Un conductor es mejor en
cuanto más carga libre disponga y se calcula multiplicando la densidad de portadores de una
determinada especie por su carga
n−¿=3 n =1,8 x 10 m ¿ 29 −3
Al

Y la densidad de carga libre es,

ρ−¿=e n−¿=( 1.601x 10−19 C )( 1,8 x10 29 m−3 )=2,88 x10 10 C m−3 ¿
¿

Cada tipo de conductor puede tener uno o varios portadores de carga libre característicos y el tipo de
portador depende de los dopantes que tenga.

El agua pura es un mal conductor desde el punto de vista de las corrientes que se pueden establecer en
su seno. Sin embargo, su carga libre si es suficiente para manifestarse como conductor en medio de
campos estáticos. Su poder disolvente hace que no se pueda encontrar pura en la naturaleza sino con
muchos iones en disolución lo que multiplica su poder conductor. De ahí que los objetos húmedos se
consideren conductores desde el punto de vista del campo estático y desde el punto de vista del
sostenimiento de una corriente eléctrica. El terreno mantiene suficiente humedad como para
considerarlo conductor y por su capacidad de absorber o ceder carga, se toma como origen de
potenciales eléctricos (potencial 0). Es el denominado toma de tierra

Cuando un conductor es sometido a un campo eléctrico externo, sus cargas libres se mueven bajo su
influencia siguiendo la fuerza de Lorentz. Puesto que no hay nada que impida su migración “salvo los
límites materiales del conductor”, las cargas seguirán su desplazamiento y modificarán la estructura de
cargas del conductor, de forma que llega un momento en que el campo producido por la nueva
configuración de cargas del conductor compensa exactamente el campo externo a lo largo de todo su
volumen, con lo que el campo total interno (campo externo + campo producido por las cargas libres
reorganizadas) es nulo.

- El campo eléctrico en el seno de un conductor es siempre nulo.


- El potencial eléctrico de un conductor es constante a lo largo de su superficie.
- El campo eléctrico en las proximidades de un conductor se distorsiona por la presencia del
mismo.

Se dice que los conductores apantallan el campo eléctrico, porque no permiten que éste los
atraviese.

Si nos fijamos en el campo que existe en puntos cercanos a la superficie del suelo, separados una
distancia x de la vertical del hilo, el cual suponemos suspendido a una altura h, entonces el campo es
prácticamente vertical y su intensidad disminuye con x de acuerdo a la siguiente fórmula:

λ h
E= λ: densidad lineal de carga
π ε0 h + x2
2

(1.18)

El campo eléctrico es prácticamente vertical cerca del suelo, independientemente de las cargas que
lo causan (nubes, cables eléctricos, etc.).

1.5.2 CORRIENTES DE CONDUCCIÓN

Juan Carlos Cruz Álvarez Página 7 TEMA 1


Los conductores pueden sostener una corriente, en virtud de la carga libre y móvil de que disponen. De
hecho, durante el fenómeno de apantallamiento que hemos visto antes, se producen corrientes al
transportarse la carga de un punto a otro del conductor. Estas corrientes se desvanecen en cuanto se
restablece el equilibrio electrostático y el campo del conductor se hace nulo.

FUERZA ELECTROMOTRIZ
Para mantener un campo eléctrico (y por tanto una corriente eléctrica) en el seno de un conductor hay
que bombardear las cargas que desplaza el campo externo, de forma que no se acumulen hasta la total
anulación del campo total interior.

Por ejemplo, una reacción química como las que se dan en el seno de las baterías electroquímicas. Sin
entrar en detalles, la fuerza de una batería electroquímica (o cualquier otra “bomba de cargas”) se
caracteriza por un parámetro llamado fuerza electromotriz o f.e.m., representado por el símbolo Ɛ. La
f.e.m. se mide en voltios, al igual que el potencial, por lo que este parámetro característico se alude a
veces como “voltaje de la batería”.

Por tanto, si conectamos los bornes de una batería a un conductor (por ejemplo, los extremos de un
cable metálico), se establece un campo eléctrico en el seno del mismo que no se desvanece porque la
carga que se intenta acumular es bombeada por la batería de forma que se estable una corriente
estacionaria en el circuito formado por el conductor y la batería.

LEY DE OHM
Al establecer un campo eléctrico, la carga en un conductor experimenta una fuerza debido a ley de
Lorentz (1.2); esta fuerza produce una aceleración de la carga según la primera ley de Newton, F = m·
a. En principio, si la carga vagara en el vacío, ésta se aceleraría adquiriendo cada vez mayor velocidad;
pero en el seno del conductor el resto de cargas (iones, electrones...) e incluso los átomos no ionizados
suponen un obstáculo para las cargas libres, que chocan contra ellos perdiendo parte de su velocidad.
El efecto estadístico global de estos choques es como una especie de rozamiento viscoso para la
partícula cargada, que limita la máxima velocidad que ésta puede alcanzar. La velocidad límite
depende de la fuerza aplicada y, en el caso de una carga libre en el seno de un conductor, podemos
expresar este efecto directamente en función del campo eléctrico:

⟨ V ⟩=μE μ= parámetro llamado movilidad

μ lleva implícito el signo del portador, es decir, si éste es negativo, μ es negativo. Por tanto ⟨ V ⟩ toma el
sentido que se espera según la carga del portador. Suponiendo que hay un único portador de carga,
entonces tenemos
J= ρμE

En el caso que en el medio haya varias especies portadoras cada una contribuirá con su propia
densidad de carga y movilidad siendo la suma de todas las contribuciones la densidad de corriente

J=
(∑ ρ μ ) E
i
i i

(1.19)
El factor ∑ ρi μi se llama conductividad y se representa por γ
i

La conductividad (γ) es un parámetro que nos permite decidir la calidad de un conductor desde el
punto de vista dinámico (capacidad para mantener una corriente estacionaria).

Juan Carlos Cruz Álvarez Página 8 TEMA 1


J=γE [S m-1]
(1.20)
Cuanto mayor sea la conductividad, mejor será el conductor.

Un “buen conductor” desde el punto de vista de la electrostática sólo necesita disponer de carga
libre, mientras que ahora, para considerar que un material es “buen conductor” desde el punto de vista
de la electrodinámica, se necesita además que la esta carga tenga una elevada movilidad: cuanto mayor
sean ambos parámetros, mejor conductor será el medio.

CIRCUITOS ELÉCTRICOS: LEY DE KIRCHHOFF


La gran ventaja de un circuito eléctrico es que podemos trabajar con escalares I y V en lugar de los
correspondientes campos vectoriales J y E.

La corriente no es más que el flujo de J en cualquier sección del conductor (ecuación 1.6); además, si
el circuito es cerrado y sin derivaciones, entonces la ecuación de continuidad (1.7) garantiza que la
corriente es la misma a lo largo del circuito.

El potencial depende del punto del circuito que consideremos. A partir de la ley de Ohm (1.20) se
puede demostrar que la diferencia de potencial ∆V entre dos puntos del circuito es igual a:

∆ V =I∗R
(1.21)
donde R es la resistencia eléctrica entre los dos puntos considerados. Ésta se puede calcular fácilmente
si suponemos que el conductor es homogéneo y de sección uniforme S; entonces la resistencia es,

l
R=
γS
(1.22)
donde l es la longitud del cable conductor entre los puntos considerados. La resistencia se mide en
ohmios [Ω]. La ecuación 1.21 se conoce como ley de Ohm aplicada a circuitos.

Aplicando los bornes de una batería a los extremos de un conductor se establece una corriente
estacionaria. La f.e.m. de la batería tiene que ser igual a la suma de todas las caídas de tensión dadas
por la ley de Ohm:
ε =I . ∑ Ri

l ρ
Resistencia eléctrica R= ; R= [Ω]
γS d
La resistencia (R) es una magnitud extensiva, depende del tamaño y geometría del medio
La conductividad (γ) es una magnitud intensiva, sólo depende de características intrínsecas del medio,
pero no de su tamaño.

Conductancia G = R-1 [S]


Resistividad ρ = γ-1 [Ω m]

LEY DE JOULE
Establece cómo es la tasa de disipación de calor en un conductor de resistencia R por el que pasa
una corriente I:

Potencia disipada P = R I2 [J s-1] = [W]


(1.23)

La fuente de potencia del circuito es la batería que está suministrando la corriente y viene dada por

Juan Carlos Cruz Álvarez Página 9 TEMA 1


P=IƐ
(1.24)
Expresado en términos de magnitudes intensivas como la densidad de corriente J o el campo
eléctrico E
J2 2
u= =γ E u=densidad de potencia disipada [W.m-3]
γ
(1.25)

J 2 γ E2
Calentamiento específico P/ Kg= = [W.Kg-1]
γD D
(1.26)
D: densidad de masa del material
γ: conductividad [S.m-1]
J: densidad de corriente
E: campo eléctrico

1.5.3 CAMPO MAGNÉTICO

El campo magnético producido por un segmento de corriente, de longitud infinitesimal dl, en un punto
caracterizado por el radio-vector r, es:
μ0 I dl x r
d B(r )=
4 π r3
(1.27)
donde la constante μo se denomina permeabilidad magnética del vacío, y su valor en el SI es 4π · 10-7
N·A-2. En esta expresión ya encontramos algunas características del campo magnético:

- Disminuye con la distancia como r2


- La dirección del campo es perpendicular al plano formado por el radio vector r y la corriente.
- No existen cargas magnéticas individuales que se puedan agrupar, sino que siempre se dan por
parejas de distinto signo (polos norte y sur).

El flujo de campo magnético a través de cualquier superficie cerrada es siempre nulo:

∮ B dS=0
Este resultado es independiente de la fuente del campo magnético y de la superficie escogida.

No existen “cargas” magnéticas individuales que se puedan agrupar, sino que siempre se dan por
parejas de distinto signo. Las “cargas” magnéticas se las denomina polos y hay de dos tipos: norte y
sur; todo material magnético tiene la misma cantidad de polos norte y sur, y si percibimos su efecto en
forma de campo magnético es porque su distribución es tal que los polos se mantienen separados, con
lo que su efecto no se anula completamente.

El portador se llama dipolo magnético y es totalmente equivalente a una pareja de polos de distinto
signo.

El dipolo se caracteriza por su momento dipolar que, en el caso de la espira cerrada por la que circula
una corriente I, y que tiene una superficie S, vale m = I S, esto es, se representa por un vector _con la
misma dirección que la superficie de la espira_ y sus unidades son [A·m 2]. Un dipolo magnético se
puede entender como un imán virtualmente reducido a un punto.

El campo magnético terrestre es muy parecido al producido por un dipolo, por lo que se considera al
planeta como un dipolo magnético de momento dipolar gigantesco, de valor aproximado 1023 A·m2.

Juan Carlos Cruz Álvarez Página 10 TEMA 1


Ley circuital de Ampère
La ley circuital de Ampère dice que la circulación del campo magnético en un circuito cerrado es
proporcional a la corriente total abarcada por el circuito:

∮ B dl=μ0 I total
(1.30)
El caso más interesante es el de un hilo recto infinito que transporta una cierta corriente I. Entonces, a
partir de la ley de Ampère podemos ver que la intensidad de campo magnético a una cierta distancia r
del hilo es:

μ0 I
B=
2π r
[T] ó [G] = 10-4 T
(1.31)

Otro ejemplo interesante es el de un bobinado de cable en torno a un toroide o un cilindro muy largo
(bobina toroidal o cilíndrica), por el que se hace circular una corriente eléctrica; si el sentido del
arrollamiento es siempre el mismo y la densidad de vueltas de cable es uniforme, entonces la ley de
Ampère predice que en el interior de la bobina se establece un campo magnético uniforme, orientado
según el eje de aquella. Un hilo conductor bobinado de esta manera produce campos intensos, porque
cada vuelta de hilo contribuye al campo magnético de forma independiente. De esta forma, con una
misma corriente, obtenemos campos muy intensos solamente cambiando la geometría del conductor
que la transporta.

INTERACCIÓN DEL CAMPO MAGNÉTICO CON UN PLASMA


En un plasma las partículas están libres, se desvían de su trayectoria describiendo un movimiento
circular cuando inciden en la región donde se establece el campo, experimentando una fuerza
perpendicular a la trayectoria, donde la fuerza magnética hace el papel de fuerza centrípeta.

m v2 R: radio de giro de la órbita


q v B= m: masa de la partícula
R
Despejando
mv
R=
qB

Es interesante comprobar que la frecuencia angular de giro, de_nida como v/R, sólo depende de la
relación carga/masa de la partícula y del campo aplicado:

qB
w c=
m
Denominado frecuencia de ciclotrón (1.32)

Juan Carlos Cruz Álvarez Página 11 TEMA 1


el movimiento es helicoidal porque la componente de velocidad de la partícula que es paralela al
campo no sufre alteración; por tanto, el eje de la hélice trazada coincide con las líneas de campo
magnético

Esto último es particularmente importante en relación al campo geomagnético, del que ya hemos
hablado. El sol eyecta regularmente gran cantidad de material a muy altas velocidades, parte del cual
está ionizado; este material forma el llamado viento solar que en ocasiones alcanza la órbita de la
tierra. Cuando se aproxima a la tierra, los iones que forman parte del viento solar inciden contra el
campo magnético terrestre que los desvía; según la energía y ángulo de incidencia de la partícula, ésta
puede deflectarse completamente o bien sigue una trayectoria helicoidal que va recorriendo las líneas
de campo hasta alguno de los polos; cuando penetran en la atmósfera, los iones y electrones del viento
solar interaccionan con ésta produciendo una luminosidad que se conoce como aurora boreal (o austral

En definitiva, el campo magnético terrestre desvía estas partículas cargadas de origen solar protegiendo
así al planeta de sus efectos.

INTERACCIÓN DEL CAMPO MAGNÉTICO CON LA MATERIA


La materia no sostiene una corriente ni movimiento organizado de cargas en su interior.

Cuando no hay campo magnético, cada molécula organiza su momento dipolar al azar y la resultante
de todos ellos es nula.

En el seno de un campo magnético los momentos dipolares moleculares giran para alinearse con el
campo, cuanto más intenso es el campo externo, mayor fracción de dipolos alineados se consigue. El
efecto final es que el campo magnético interior es la suma del producido por los momentos dipolares
alineados (proporcional al campo externo) más el campo magnético externo

μr: permeabilidad relativa del medio [adimensional]


B' =μr . B depende de la Temperatura
(1.33) B’: campo magnético interior
B: campo magnético exterior

El momento dipolar magnético se debe a tres fuentes:

1. Momento dipolar intrínseco del electrón (Valor: aprox. 9 x 10-24 A.m2)


2. Momento dipolar orbital. Los electrones que orbitan los núcleos producen un momento
dipolar adicional de orden de magnitud parecido al del electrón
3. Momento dipolar intrínseco del protón (Valor: aprox. 5 x 10-27 A.m2)

Una molécula tiene un momento dipolar magnético que es la suma de las tres contribuciones
anteriormente mencionadas teniendo en cuenta:

 El momento dipolar es una magnitud vectorial y hay que sumarla


 La Naturaleza organiza los electrones en sus órbitas de tal forma que el momento magnético
conjunto (intrínseco más orbital) tiende a compensarse, por lo que el momento dipolar total de
una molécula es o bien nulo o parecido al momento dipolar del electrón
 De igual forma, los protones que forman el núcleo generalmente organizan sus momentos
dipolares de forma que se compensan entre sí o casi, con lo que el núcleo tiene un momento
dipolar nulo o del orden del momento dipolar nulo o del orden del momento dipolar del protón.
Puesto que éste es mil veces inferior al del electrón su contribución al momento dipolar total es
prácticamente despreciable

Juan Carlos Cruz Álvarez Página 12 TEMA 1


Según el tipo de moléculas que componen el material tenemos:

Materiales diamagnéticos
Momento dipolar nulo. Permeabilidad relativa < 1.
Cuando se elimina el campo externo, las moléculas pierden su momento dipolar.

Materiales paramagnéticos
Momento dipolar neto. Permeabilidad relativa > 1.
Cuando se elimina el campo externo, la agitación térmica destruye la orientación preferente de los
dipolos moleculares y el medio se vuelve magnéticamente neutro.

Materiales ferromagnéticos
Permeabilidad relativa muy elevada (> 1000)
Presentan un comportamiento magnético singular. Por encima de ciertas temperaturas son
paramagnéticos, pero por debajo de ellas, denominadas temperaturas de Curie, las moléculas orientan
sus dipolos espontáneamente en la misma dirección, quedando el material magnetizado. Se forma así
un dipolo magnético macroscópico que produce un campo magnético apreciable a su alrededor (imán).

 La mayor parte de los materiales ordinarios, sobre todo aquellos de interés biológico, son
diamagnéticos o paramagnéticos.
 Los materiales diamagnéticos y paramagnéticos presentan una reacción a los campos
magnéticos externos extremadamente reducida

En consecuencia, la mayor parte de la materia es absolutamente transparente (permeable) a los campos


magnéticos; no hay un fenómeno equivalente de apantallamiento del campo magnético como el que se
daba en los conductores para el campo eléctrico. Esta propiedad de apantallamiento total del campo
magnético se llama diamagnetismo perfecto, y es característica de un tipo de materiales denominados
superconductores, que excluyen las líneas de campo magnético de la misma forma que los conductores
excluyen las de campo eléctrico.

EFECTO HALL

Supongamos que en un conductor se mantiene una corriente que es debida a un solo tipo de portador,
como por ejemplo la corriente electrónica en un metal, y que ese conductor está en el seno de un
campo magnético. Entonces, sobre las cargas que se desplazan se ejerce la fuerza de Lorentz
magnética (1.8); esta fuerza es perpendicular a la trayectoria de la carga en el interior del conductor,
con lo que las cargas tienden a desviarse, generando un exceso de carga en la pared externa del
conductor, y un defecto de carga en la pared opuesta (recordemos que el conductor es neutro). Este
desequilibrio de carga produce un campo eléctrico transversal (Et) a la corriente; el proceso de
acumulación de carga se detiene cuando la fuerza eléctrica compensa la fuerza magnética:

0=q Et +q ⟨ v ⟩ xB

Et =− ⟨ v ⟩ x B
(1.34)
Expresamos en función de la densidad corriente (suponiendo un solo portador)

−JxB
Et =
ρ
(1.35)

Juan Carlos Cruz Álvarez Página 13 TEMA 1


Obsérvese que el campo transversal por el efecto Hall depende del signo del portador (a través del
signo de la densidad de carga portadora ρ). De hecho, portadores de distinto signo producen campos
Hall de sentidos opuestos que tienden a compensarse. El efecto Hall se da en corrientes de conducción
producidas por portadores que sean todos del mismo signo. Matemáticamente, la expresión 1.34 se
generaliza de la siguiente forma cuando hay dos tipos de portadores (positivos y negativos):

Et =−¿
(1.36)
cuando se establece una corriente de conducción cada portador se mueve en sentidos opuestos; si sus
movilidades son parecidas, entonces ¿y por tanto Et ≅ 0, como habíamos dicho antes.

Pero también se puede producir una situación en que el medio tenga portadores de ambos signos que
son arrastrados en el mismo sentido. Una situación típica es el flujo de una disolución iónica en una
tubería (como, por ejemplo, la sangre en los vasos sanguíneos). En este caso ¿ y por tanto la corriente
total es nula, como se deduce de la ecuación 1.4. Pero, aun siendo la corriente total nula, se puede dar
efecto Hall, como se puede ver en la expresión anterior 1.36.

1.6 CAMPOS VARIABLES Y ONDAS ELECTROMAGNÉTICAS

Si las fuentes evolucionan con el tiempo, Q(t), I(t), entonces, los campos que éstas producen
evolucionan idénticamente con el tiempo, E(t), B(t).

1.6.1 LEY DE INDUCCIÓN DE FARADAY

La variación del flujo magnético en una superficie limitada por un circuito, induce una f.e.m. en éste.

−dϕ
ε ind =
dt
(1.37)
Si el circuito donde se establece la f.e.m. es un conductor cerrado, se genera una corriente eléctrica. Si
el conductor está abierto, entonces entre los extremos abiertos se establece una diferencia de potencial
igual en valor a la f.e.m. definida por la ley de Faraday (1.37).

El flujo magnético puede ser variable en el tiempo por dos causas:

Superficie móvil en el seno de un campo magnético estático


El campo magnético no cambia y un conductor se mueve en su seno produciendo un cambio de flujo
en la superficie que el conducto define. (dinamo)

Campo magnético variable actuando sobre una superficie fija


Es el fundamento de las cocinas de inducción.

1.6.2 CIRCUITOS DE CA

En lugar de una fuente de f.e.m. estacionaria se aplica una f.e.m. que evoluciona con el tiempo de
forma periódica oscilante, según la forma genérica:

Ɛ t=Ɛ 0 cos ¿ ¿

donde Ɛ0 es la amplitud, que representa el valor máximo que alcanza la f.e.m., la cual oscila entre los
valores Ɛ0 y -Ɛ0; φ es un valor de fase fijo entre 0 y 2π. La frecuencia de oscilación está representada
por f y se mide en hercios [Hz], que es el número de veces que el valor de la función vuelve al valor
inicial por unidad de tiempo; justamente, el periodo de la función “el tiempo que tarda en repetirse el

Juan Carlos Cruz Álvarez Página 14 TEMA 1


mismo evento” es T = f −1 y se mide en segundos. Es muy habitual usar la frecuencia angular, definida
comow=2 π f , en lugar de la frecuencia de oscilación:
Ɛ (t )=Ɛ 0 cos (wt)
La frecuencia angular se mide en radianes por segundo o, simplemente, en [s-1].
En este tipo de circuitos, las corrientes y potenciales también siguen funciones senoidales de la misma
frecuencia. Por ejemplo, la corriente sigue la siguiente ley:

I (t )=I 0 cos ⁡¿
(1.38)
1.6.3 RADIACIÓN

El otro efecto sobresaliente de las fuentes cuando evolucionan en el tiempo es la emisión de radiación
en forma de ondas electromagnéticas. La causa profunda de este efecto está ligada a dos propiedades
de los campos electromagnéticos: la primera es la ley inducción de Faraday, por la que un campo
magnético variable produce un campo eléctrico variable; la segunda propiedad es que, recíprocamente,
un campo eléctrico variable también produce un campo magnético variable40. Las ondas
electromagnéticas (OEM) no son más que campos eléctricos y magnéticos oscilantes entrelazados que,
siguiendo las leyes del electromagnetismo, se propagan en el espacio. Incluso en el espacio vacío. Las
OEM no precisan soporte material, al contrario que las ondas materiales como el sonido, las olas, etc.

Radiación de circuitos CA

Supongamos que la f.e.m aplicada al circuito tiene una frecuencia f; ya hemos visto que los
campos producidos por el circuito también deben de oscilar siguiendo una ley senoidal de frecuencia f
según la afirmación del primer párrafo de que los campos producidos por la fuente siguen la misma
dependencia temporal. Estos campos se denominan campos cercanos, para diferenciarlos de los
campos de radiación que forman parte de las OEM.

1. El primer resultado cualitativo que conviene apuntar es que los campos de radiación producidos
por el circuito también oscilan armónicamente a frecuencia f y, consecuentemente, esa es la
frecuencia de oscilación de la OEM producida.

2. Los campos eléctricos y magnéticos de las OEM están estrechamente relacionados entre sí,
mientras que en los campos cercanos se pueden tratar de forma independiente el campo
eléctrico y el campo magnético. Por ejemplo, un hilo conductor sometido a un potencial, pero
por el que no circula corriente, sólo produce campo eléctrico; recíprocamente, un hilo
conductor puede estar sometido a un potencial inapreciable y circular por el mismo una
corriente elevada, con lo que producirá solamente campo magnético.

3. El tercer hecho en relación a la producción de OEM es que los campos de radiación persisten
en el tiempo, propagándose lejos de las fuentes incluso cuando éstas se desconectan; como
corolario, esta radiación se lleva parte de la potencia que aporta la f.e.m. oscilante. Por el
contrario, los campos cercanos se desvanecen cuando la fuente se interrumpe y no disipan
potencia del circuito: representan potencia almacenada que continuamente el circuito mantiene
mientras las fuentes -corrientes, f.e.m.- estén presentes.

4. La cuarta propiedad importante de la radiación de circuitos CA está asociada a la cantidad de


potencia disipada en forma de OEM. Ésta se relaciona muy directamente con las dimensiones
del circuito y la frecuencia de oscilación de las corrientes mantenidas en el mismo. Esta
relación la podemos expresar como:
2
Lf
Prad α ( )
c
(1.39)

Juan Carlos Cruz Álvarez Página 15 TEMA 1


donde L es una magnitud relacionada con las dimensiones del circuito y c es una constante que
representa la velocidad de la luz en el vacío.

Para frecuencias pequeñas y dimensiones de circuito “humanas” (L≈ 0,01 ~ 1 m) la potencia


radiada es irrelevante y sólo tenemos que tener en cuenta el campo cercano, que está representado por
campos eléctricos y magnéticos que se pueden estudiar de forma independiente.
La zona donde los campos cercanos alcanzan valores apreciables se denomina zona de inducción y
su tamaño se estima en 3c/f.
A frecuencias elevadas la potencia de radiación es tan grande que el circuito se convierte en una
antena que radia OEM, con lo campos eléctricos y magnéticos entrelazados.

Juan Carlos Cruz Álvarez Página 16 TEMA 1


TEMA 2. CAMPOS DE BAJA FRECUENCIA

2.1 INTRODUCCIÓN

El límite de frecuencias por encima del cual se puede considerar que los campos se manifiestan en
forma de OEM es de unos 300 kHz.

2.2 CAMPO ELÉCTRICO DE BAJA FRECUENCIA: DETECCIÓN Y MEDIDA

Los campos eléctricos que se dan en circuitos se estiman a partir de medidas de potencial o a partir de
corrientes. Los campos alternos CA son más fáciles a medida que la frecuencia es más alta.

Los electrómetros (medidores de campo estático) están basados en la medida de potenciales eléctricos
y estimación del campo a partir del potencial

Algunos medidores de campo son capaces de medir las tres componentes del mismo en algún sistema
de ejes cartesianos; y todos han de ser capaces de mostrar el valor absoluto de intensidad de campo (el
módulo). A veces es más sencillo estimar el campo eléctrico ambiental a partir del conocimiento de los
potenciales a que están sometidos los conductores cercanos.

ESTIMACIÓN DEL CAMPO ELÉCTRICO DE UNA LÍNEA

Todo objeto conductor sometido a un potencial adquiere carga eléctrica, siendo carga y potencial
proporcionales. El factor de proporcionalidad depende de la geometría

Para un hilo cilíndrico de radio a, suspendido a una altura h de tierra tiene un campo eléctrico E, a una
distancia x:

2V h λ: densidad lineal de carga


E= V: potencial al que se somete la línea (puede
2 h h + x2
2
ser alterno o continuo)
ln
a V
λ ≅2 π ε 0
2h
ln
a

2.3 CAMPO MAGNÉTICO DE BAJA FRECUENCIA: DETECCIÓN Y MEDIDA

El campo magnético variable se puede detectar gracias a la ley de inducción de Faraday: un pequeño
circuito hecho de material conductor formando una espira captará la variación de flujo magnético en su
interior en forma de f.e.m. que se puede medir con un voltímetro: la amplitud de la f.e.m. inducida. Es
necesario que sea pequeño si queremos medir el campo en un punto concreto, de lo contrario el
dispositivo nos medirá un valor promedio en todo el área que abarque. Para aumentar la señal, la espira
suele ser un bobinado de varias vueltas con lo que el flujo magnético se multiplica. Basta orientar la
espira en la dirección deseada para obtener el campo en esa dirección.

También se puede medir el campo mediante una sonda de efecto Hall: establecemos una corriente en
un conductor metálico y medimos el potencial transversal a la corriente, que es proporcional al campo
eléctrico transversal causado por el efecto Hall, que a su vez es proporcional al campo magnético. Este
método tiene la ventaja de que puede medir tanto el campo magnético estático (p.ej. el campo
magnético terrestre) como el alterno, y también capta el campo magnético según una orientación
determinada.

Las medidas de campo magnético no se ven afectadas por los materiales de que están hechos los
detectores, si tenemos la precaución de no usar materiales ferromagnéticos como el hierro o el acero.

Juan Carlos Cruz Álvarez Página 17 TEMA 2


2.3.1 CIRCUITOS CA

Producen campos que evolucionan con el tiempo

ELECTRICIDAD DOMÉSTICA

La frecuencia de la red es f 0=50 Hz. Las tomas de corriente constan de dos terminales: el terminal
activo, que está a un potencial alterno igual a la f.e.m. suministrada, y el terminal neutro, que
convencionalmente se toma como referencia, además de estar conectado a tierra.

TRANSPORTE TRIFÁSICO

El transporte de la corriente que consumimos desde sus fuentes de producción se realiza mediante
largos cables suspendidos de torretas con cables que se les asigna una f.e.m. oscilante tal, que el
potencial de cada cable está desfasado con respecto a los otros. El empleo de esta forma de transporte
se debe, principalmente, a que la corriente de retorno puede hacerse muy pequeña si todas las fases
consumen aproximadamente la misma potencia; además, sirve de alimentación para los motores
trifásicos, que son más eficientes que los motores eléctricos normales.

En muchas circunstancias, se usan cuatro cables para el transporte: uno es el neutro y los otros tres son
activos, cada uno de ellos conectado a una fuente de f.e.m. que les proporciona una tensión muy
elevada, de igual amplitud y frecuencia para todos (que coincide con la frecuencia de la red doméstica,
esto es 50 Hz), pero cada una desfasada respecto a las demás ±120º.

V 1 ( t )=V 0 cos ( w0 t )

( 23π )
V 2 ( t )=V 0 cos w0 t +


V ( t ) =V cos ( w t− )
3 0 0
3
(2.2)

La frecuencia angular w 0 corresponde a la frecuencia de oscilación de red f 0=50 Hz, esto es


w 0 ≅ 314 s−1

EFECTO JOULE EN CA: VALOR EFICAZ

Una corriente alterna en un conductor disipa potencia siguiendo la ley de Joule (P=RI 2). Esta expresión
nos da la disipación de potencia en un instante P(t) en función de la corriente en ese mismo instante
I(t). Es más significativo conocer cuánta potencia disipa en promedio el conductor por el que circula
una corriente alterna.
1
P= I 20 R
2
Este resultado es independiente de la frecuencia de oscilación. Siendo habitual expresarlo
introduciendo el valor cuadrático medio (RMS): I RMS =I 0 / √ 2

P=R I 2RMS
(2.3)
Se le denomina valor eficaz de la corriente

Juan Carlos Cruz Álvarez Página 18 TEMA 2


El concepto de “valor eficaz” puede ser exportado sin penalización a cualquier magnitud oscilante y
la forma matemática que hemos calculado se aplica a cualquier función armónica. Dada una función
armónica genérica A(t) = Ao cos(wt + α), su valor eficaz o RMS es,
A0
Valor eficaz de cualquier magnitud: A RMS=
√2
(2.4)
2.3.2 LEY DE FARADAY EN CA

Las corrientes oscilantes armónicas generan campos magnéticos que también oscilan armónicamente.
Este campo magnético induce f.e.m. al atravesar superficies limitadas por conductores.

Si tenemos un campo magnético de la forma B0 cos(ωt) que incide perpendicularmente a una superficie
S, entonces el flujo magnético es:

Φ = S B0 cos(ωt)

Y la f.e.m. inducida a lo largo del circuito que limita la superficie:

εind(t) = ω S B0 sen(ωt)

Cuanto mayor es la frecuencia, mayor es la f.e.m. inducida. Igualmente, la corriente que produce esa
f.e.m. es también oscilante armónica

CORRIENTES DE FOUCAULT

Son las corrientes inducidas por un campo magnético variable en la masa de un conductor (cualquier
camino cerrado dentro del conductor define una superficie, a través de la cual se establece el flujo de
campo magnético oscilante; como estamos en el seno de un conductor, se crean corrientes eléctricas)

Podemos analizar el problema en términos de campos. Supongamos que tenemos un campo magnético
armónico y homogéneo que incide perpendicularmente en una superficie conductora; entonces las
líneas de los campos eléctricos inducidos forman círculos concéntricos, donde la intensidad de campo
va aumentando respecto al centro según la expresión,

ind w B0 r
E0 =
2
(2.5)

Donde r es el radio del círculo escogido. Si la conductividad del medio es γ entonces por la ley de
Ohm (J=γE) tenemos que la amplitud de las corrientes inducidas es

ind γω B 0 r
J0 =
2
(2.6)

Las principales características de las corrientes inducidas por un campo magnético alterno:

 Además de la conductividad, las corrientes inducidas dependen de la frecuencia: a mayor


frecuencia, mayor intensidad de corriente.
 El otro factor importante es el radio r de la zona de influencia del campo magnético: cuanto
mayor es éste, mayor es la corriente.

Ley de Joule en corrientes inducidas

Juan Carlos Cruz Álvarez Página 19 TEMA 2


Las corrientes inducidas son corrientes verdaderas. También presentan efecto Joule, esto es,
calentamiento, de acuerdo con la ley de Joule:

J2 2
u= =γ E P=I 2 R
γ
Esta es la base de las cocinas y hornos de inducción: se genera un fuerte campo magnético variable que
induce en los fondos de los cazos y ollas corrientes elevadas que producen calor; el material en el que
reposan es vitrocerámico que es aislante y por tanto no se calienta por la acción del campo variable.

Efecto diamagnético de las corrientes inducidas

El campo magnético total (el aplicado más el producido por las corrientes de inducción) disminuye en
relación al campo aplicado. Esto lo podemos interpretar como una cierta permeabilidad relativa del
medio, μ'r en presencia de un campo magnético alterno, de forma tal que μ'r <1. Podemos decir que:

B∫ ¿ 1
'
=μr ≅ ¿
Bext √ 1+(r 2
ωγ μ 0)2
(2.7)

Lo que significa que el efecto diamagnético se nota más con materiales muy buenos conductores y
frecuencias elevadas

Los buenos conductores suponen una pantalla parcial a los campos alternos, que es más eficaz cuanto
mayor sea la frecuencia de oscilación

TRANSFORMADOR

Dispositivo para variar las tensiones y corrientes alternas sin pérdida apreciable de potencia.

Su función es cambiar la f.e.m. de un generador a otra,


generalmente más pequeña.

Consiste en dos circuitos llamados primario y secundario. El


circuito primario contiene un generador de f.e.m. ε1 que se
conecta a un bobinado de N1 vueltas; el circuito secundario
consiste en un bobinado de N2 vueltas dispuesto de tal forma que
todo el flujo magnético del bobinado primario atraviese el
bobinado secundario.

Aplicando la ley de Faraday se induce una f.e.m. en el


circuito secundario, cuyo valor es:

N2
ε 2=ε 1
N1
(2.8)

Esta fórmula responde a un transformador ideal, sin pérdidas de flujo magnético y sin pérdidas de
potencia en el circuito primario.

La afirmación de que es “independiente de la frecuencia” es engañosa porque incita a pensar que el


transformador actúa también en circuitos de CC, y esto no es cierto ya que es condición fundamental
para la existencia de f.e.m. en el secundario que exista una f.e.m. variable en el primario.

Juan Carlos Cruz Álvarez Página 20 TEMA 2


Otra forma de “conducir” el flujo magnético desde el primario hasta el secundario es mediante un
núcleo formado de material ferromagnético, que ya hemos visto que tienen una elevada permeabilidad
magnética, lo cual permite confinar el flujo magnético dentro del material de manera parecida a cómo
confinan los conductores la corriente eléctrica. De esta manera se consiguen minimizar las pérdidas de
flujo magnético y flexibilizar el diseño del dispositivo.

Los transformadores se usan para reducir los altos voltajes de las líneas de transporte eléctrico (que
pueden alcanzar 400 kV) hasta voltajes de uso industrial (como el ferrocarril, que usa 25 kV) y los
ordinarios 220V del consumo doméstico. También se usan como paso previo de reducción antes de
rectificar el voltaje CA de los enchufes en voltaje CC (desde 1,5V hasta 24V) para aparatos
electrónicos y pequeños electrodomésticos.

2.4 FUENTES DE CAMPOS AMBIENTALES BF

2.4.1 FUENTES NATURALES

CAMPO ELÉCTRICO
Fuentes naturales de campo eléctrico estático CC:

▪ La tierra que, en promedio, acumula algo de carga negativa cedida por las descargas de rayos
durante las tormentas eléctricas (≈ 100 V m-1)

▪ Las nubes, sobre todo durante las tormentas eléctricas. En tiempo tormentoso el campo eléctrico
puede alcanzar valores de ≈ 106 V m-1.

▪ La electricidad estática por rozamiento, donde los objetos cargados pueden alcanzar potenciales
eléctricos del orden de ≈ 104 V m-1.

A nivel macroscópico, no hay fuentes naturales de campos eléctricos CA.

CAMPO MAGNÉTICO

Fuentes naturales de campo magnético estático CC:

▪ Campo magnético terrestre (entre 30 μT y 70 μT dependiendo de la latitud).

▪ Imanes naturales que producen campos magnéticos en su proximidad de 1 ~ 100 mT.

No hay fuentes naturales de campo magnético oscilante.

2.4.2 FUENTES ARTIFICIALES

LÍNEAS DE TRANSPORTE ELÉCTRICO

Según el modelo de hilo infinito, se producen campos eléctricos y magnéticos según las expresiones:
2V h
E= μ0 I
2 h h + x2
2
B= (Ley de Biot-Savart)
ln 2 πr
a
Lo más frecuente es que el transporte se realice en varias fases, de forma que la suma de los
potenciales de éstas es nulo en todo momento. Visto desde cierta distancia el conjunto se comporta
como si no estuviera cargado y lo que ocurre es que los campos que se generan decaen con la distancia
de forma más abrupta.

Juan Carlos Cruz Álvarez Página 21 TEMA 2


CAMPO ELÉCTRICO DE UN SISTEMA DE
FASES
El efecto compensatorio de fases es más
acentuado cuanto más cerca están unas de otras, y
a grandes distancias es casi indistinguible el
campo producido por cada disposición de fases.
La tasa de disminución del campo es mayor en
trifásico que en una sola fase
CAMPO MAGNÉTICO DE UN SISTEMA DE
FASES

Las fases de los voltajes no tienen por qué corresponderse con las fases de las corrientes
correspondientes, ni las amplitudes de éstas ser iguales entre sí (condiciones ambas para que la suma
total de las corrientes sea nula); la corriente depende del consumo que se haga de cada fase en el
destino. Sin embargo, lo normal es que haya un equilibrio entre las corrientes y que podamos tomar la
suma de todas las corrientes nula.

Para comparar, se pone el ejemplo de una sola fase.


Igual que antes, el efecto de compensación es más
notable cuanto más cerca están las fases y los
campos producidos por éstas son casi
indistinguibles a grandes distancias. La tasa
disminución del campo es mayor en los ejemplos
con dos fases compensadas que con una sola fase.

Las líneas de más alto voltaje no tienen por qué ser


las que transportan corrientes más elevadas. De hecho, generalmente es al revés: las líneas de
potenciales más elevados suelen transportar corrientes más pequeñas que las líneas a potenciales más
bajos. La razón es justamente las pérdidas por calentamiento en los cables, que es tanto mayor cuanto
mayor es la resistencia del mismo y la corriente que circula por él

P=R I 2

para evitarlas hay que minimizar ambos factores: resistencia del cable y corriente que circula por el
mismo.
Para transportar energía eléctrica a grandes distancias, los cables son necesariamente muy largos y,
además, hay que fabricarlos muy delgados para ahorrar costes en materiales; con lo cual su resistencia
es muy elevada,

l
R=
γS

Por lo tanto, sólo podemos optimizar el factor intensidad; para disminuir la intensidad que circula por
una línea, transportando la misma potencia, hay que incrementar la f.e.m. aplicada a la misma

P=IƐ

Por eso, las líneas de transporte a grandes distancias tienen voltajes elevados y corrientes relativamente
pequeñas.

Cuando se distribuye la energía eléctrica a núcleos de población cercanos, los cables son más cortos y
se pueden hacer más gruesos, con lo que soportan mayores intensidades de corriente sin sufrir grandes
pérdidas por calentamiento. Los voltajes de las líneas tienen que ser más reducidos, según van pasando

Juan Carlos Cruz Álvarez Página 22 TEMA 2


etapas de reducción por distintos transformadores. Por tanto, las líneas de transporte local, con voltajes
más pequeños pueden transportar corrientes elevadas

Hay algunos tramos de electrotrenes cuyas catenarias funcionan con corriente CC de 3 kV; el campo
eléctrico producido por una línea de este tipo en su base es aproximadamente de 250V·m-1.
Pero el campo magnético puede ser relativamente intenso puesto que la fase neutra son los propios
raíles. El campo en el espacio entre fases es más intenso que el producido por una sola fase, puesto que
los campos de una y otra fase se refuerzan en el espacio entre ambas.

ELECTRICIDAD DOMÉSTICA

Los cables producen campo eléctrico sólo con estar conectados al enchufe y sin necesidad
de que circule corriente por ellos. El campo magnético se produce en los cables de
electrodomésticos que estén funcionando. Y si que hay efecto de compensación de fases
distintas, porque el cable neutro siempre transporta la corriente de retorno que es de sentido
opuesto a la que circula por el cable activo.

También los distintos elementos que componen los electrodomésticos (especialmente


transformadores y motores) producen campos. Generalmente pequeños y solo tomarán
valores apreciables a muy cortas distancias, decayendo rápidamente

Televisores y monitores de tubo de vacío


El haz de electrones en un tubo de vacío es la tecnología tradicional de televisores y monitores de
cámaras y ordenadores, que está siendo sustituida rápidamente por las pantallas de plasma y TFT. La
técnica tradicional consiste en dirigir un haz de electrones mediante campos eléctricos y magnéticos,
de forma que incidan en una pantalla fosforescente para producir una imagen. Los campos usados son
relativamente débiles y están confinados en el interior del tubo de vacío. Incluso el proceso de barrido
del haz, que implica circuitería cuya frecuencia de funcionamiento es del orden de decenas de kHz,
apenas produce campos o radiación de esa frecuencia.

Exploración por RMN


La exploración por resonancia magnética nuclear, RMN, consiste, en una primera fase, en alinear los
dipolos magnéticos nucleares de los átomos de hidrógeno del material explorado mediante un intenso
campo magnético estático de valor 2T. (el límite tecnológico de producción de campo
magnético está en torno a 20T).

Transformadores
El diseño con núcleos ferromagnéticos produce ciertas pérdidas de flujo magnético. Si estamos
hablando de un transformador industrial, donde las corrientes de primario son elevadas, estas pérdidas
de flujo pueden dar como resultado campos magnéticos relativamente elevados en las cercanías del
transformador.

Juan Carlos Cruz Álvarez Página 23 TEMA 2


TEMA 3. ONDAS ELECTROMAGNÉTICAS: RADIOFRECUENCIA

3.1 DESCRIPCIÓN DE LAS OEM

Una onda electromagnética (OEM) es una perturbación que se propaga tanto en el vacío como en
algunos medios materiales. La perturbación propagada son campos eléctricos y magnéticos cuya
amplitud y dirección en el espacio va oscilando, está definida por:

▪ Velocidad de propagación (3x108 m s-1) = que la velocidad de la luz.


▪ Frecuencia de oscilación (“f ” ciclos por segundo o hercios o “ω” radianes por segundo)
ω=2 π f
La intensidad de una onda electromagnética representa la potencia que transporta, y es proporcional al
cuadrado de la amplitud de los campos. La intensidad decrece con la distancia r a la fuente radiante
(antena) como 1/r2.

3.1.1. CARACTERÍSTICAS DE LAS ONDAS PLANAS

Onda plana, representa la propagación de una onda monocromática, que es periódica en el espacio y
cuya amplitud es siempre la misma:
A ( x , t )= A0 cos (ωt−kx)

El periodo espacial se denomina longitud de onda “λ” y vale 2 π /k


“k” es la constante de propagación o número de onda
La frecuencia cíclica “f ” y la longitud de onda se relacionan como λf =c
O también se expresa mediante ω y k ,
ω
=c
k

“c” velocidad de propagación = velocidad de la luz en el vacio:

1
c=
√ μ0 Ɛ 0
(3.1)

Las OEM son trasversales, porque la perturbación se propaga de forma perpendicular a la dirección de
propagación.

Una OEM es un campo eléctrico y uno magnético propagándose como una onda plana de acuerdo con
las expresiones:

E ( x , t )=E0 u z cos( ωt−kx )


(3.2)
B ( x , t ) =B 0 u y cos (ωt−kx)

 Los campos son siempre perpendiculares entre si y oscilan en fase.


 Los campos son, a su vez, perpendiculares a la dirección de propagación.

E0
Amplitudes de los campos: B 0=
c
(3.3)

Juan Carlos Cruz Álvarez Página 24 TEMA 3


Polarización

Las OEM tienen una característica más, llamada polarización, que define la dirección de oscilación de
los campos dentro del plano perpendicular a la propagación.

En la ecuación 3.3 se define una onda con el campo eléctrico oscilando según la dirección del eje z
(onda polarizada verticalmente) pero podría estar oscilando en la dirección y (polarización horizontal)
con lo que el campo magnético lo haría en la dirección z. Podría oscilar en cualquier dirección del
plano yz; cada estado de polarización se puede describir como una combinación lineal de los estados
“vertical” y “horizontal”

Amplitud e intensidad

Las OEM transportan energía


B2
⟨ u ⟩ = 1 Ɛ 0 E 20+ 0
( )
4 μ0

⟨ u ⟩ = promedio temporal de la densidad de energía


Dejando todo en función del campo eléctrico o magnético:

1 1 2
⟨ u ⟩ = Ɛ 0 E20= B
2 2 μ0 0
(3.4)
Pudiendo dar el resultado también en valores RMS de los campos
2 B 2RMS
⟨ u ⟩ =Ɛ 0 E RMS=
μ0

Vector de Poyting (S): producto vectorial E x B, representa un vector cuyas dirección y sentido
coinciden con los de propagación de la onda:

1
S= E×B
μ0
(3.5)
Su módulo promediado en el tiempo es

⟨|S|⟩=S=c ⟨ u ⟩
(3.6)

Y representa el flujo de potencia (Potencia por unidad de área), se mide en [W m-2]. Esta magnitud se
denomina también irradiancia cuando nos referimos al flujo de potencia de un objeto radiante y s
hablamos de una OEM lo más común es denominarla intensidad. Es decir irradiancia es una
propiedad del objeto e intensidad es una propiedad de la onda.
La irradiancia o intensidad es proporcional a la amplitud de los campos al cuadrado:

Z0: impedancia del vacío [Ω]


2
1E 0
S= μ0
2 Z0
(3.7)
Z 0=
√ ε0
≅ 377 Ω

(3.8)

Las OEM son ondas que presentan fenómenos ondulatorios como


interferencia, difracción, refracción, etc.

Juan Carlos Cruz Álvarez Página 25 TEMA 3


3.1.2. ONDAS ESFÉRICAS

La onda plana es una abstracción útil para entender lo que es una onda. Las ondas “monocromáticas”
reales se emiten y se reciben en “paquetes de frecuencias” que se pueden describir como un conjunto
de ondas monocromáticas de frecuencias próximas.
Tampoco es cierto que la amplitud de una onda no cambie con la distancia. La amplitud de una onda
decae con la distancia a las fuentes (antenas) que las generan; si consideramos que la antena es puntual,
o bien estamos suficientemente lejos de la misma, entonces las ondas emitidas son del tipo onda
esférica, donde la amplitud de la onda decae con la distancia a la fuente como 1/r.

kE kB
E0 ( r )= B0 (r )=
r r

donde kE y kB son constantes relacionadas por kE = c kB. Por tanto, la intensidad de la onda, que
depende del cuadrado de la amplitud de los campos, decae con la distancia a la antena como 1/r2.
Si estamos a suficiente distancia de la fuente de radiación, el frente de ondas esféricas es parecido al de
las ondas planas.

3.1.3. ESPECTRO DE RADIOFRECUENCIA

Radiofrecuencia tradicional: 300 kHz a 300MHz


Microondas: 300MHz a 300 GHz

3.2 GENERACIÓN DE OEM: RADIACIÓN

Circuitos diseñados para radiar OEM: antenas.

3.2.1 CIRCUITOS RESONANTES

El mecanismo básico de generación y detección de OEM en estos rangos de frecuencias es a través de


circuitos CA, cuyos elementos están dispuestos de forma tal, que la corriente que circula por ellos se
hace máxima cuando la f.e.m. aplicada tiene una frecuencia de oscilación de un determinado valor,
llamado frecuencia de resonancia.

3.2.2 DIPOLO OSCILANTE

Es el modelo más sencillo de antena. Consiste en un circuito CA resonante, o una f.e.m. alterna, que se
conecta a una espira conductora circular (dipolo magnético oscilantes) o a dos esferas metálicas
separadas una distancia l, que se van cargando y descargando (dipolo eléctrico oscilante).
Este dispositivo produce radiación de una frecuencia igual a la frecuencia de oscilación del circuito o
generador acoplado. La potencia de radiación emitida depende de la intensidad I que circula por el

Juan Carlos Cruz Álvarez Página 26 TEMA 3


dipolo. La fórmula aproximada que nos da la potencia emitida, suponiendo que la longitud del
dipolo es muy pequeña en comparación con la longitud de onda de la radiación, λ=2 π c /ω
es:

2π l 2 2
P=
3
Z0
λ ()
I RMS
(3.9)

En esta expresión ya vemos que la potencia radiada es muy sensible al tamaño del dipolo (por
extensión, al tamaño del circuito porque sus componentes pueden actuar involuntariamente como
dipolos): cuanto más próximo es el tamaño a la longitud de onda radiada (dentro de la limitación que la
razón entre ambos tiene que ser muy pequeña), más potencia de radiación se emite.

Si comparamos la expresión 3.9 con la expresión de la disipación por efecto


1 2
Joule, P= I 0 R , entonces el factor delante de I 2RMS lo podemos asimilar a una resistencia, que
2
llamaremos resistencia de radiación:

2π l 2 l 2
Rrad = Z
3 0 λ ()
≅789
λ() Ω
(3.10)
Cuanto mayor sea l mayor será la resistencia de radiación (y, por tanto, más potencia radiará el
dispositivo).

3.2.3 CARACTERÍSTICAS DE LA RADIACIÓN

Con la expresión 3.9 obtenemos la potencia total disipada en forma de radiación por el dipolo. Pero
cualitativamente no sabemos cómo se reparte esa potencia en el espacio. La radiación no se reparte
isotrópicamente alrededor del dipolo; si analizamos matemáticamente la intensidad de la radiación
emitida, el resultado es

sen 2 θ
S∝
r2
(3.11)
donde θ es el ángulo medido desde la línea que demarca el dipolo y r es la distancia al dipolo.
Observamos que la intensidad decrece con la distancia como 1/r 2 y el término que depende del ángulo
nos dice que la radiación efectivamente no es isotrópica: se emite mucha mayor cantidad de radiación
en unas direcciones que en otras. Particularmente, la intensidad de radiación emitida por un dipolo,
según la expresión 3.11, es muy grande en el plano perpendicular al mismo (θ=π /2) y nula en la
dirección paralela (θ = 0).
Para visualizar la forma de la radiación emitida se usan los diagramas de radiación en los que se
representa la irradiancia S en función de θ (para una distancia fija) en coordenadas polares.

Directividad

La anisotropía de la radiación se puede estimar mediante la directividad de la radiación: es la


intensidad máxima dividida entre la intensidad promedio irradiada en todas las direcciones. Cuanto
mayor sea este número, más dirigida está la radiación. Para una antena idealmente isotrópica la
directividad vale 1. Para el dipolo oscilante la directividad vale 1,5. Aunque la directividad de la
radiación de una antena depende de su diseño siendo conveniente a veces hacer una antena muy
direccional y otras veces no

Intensidades promedio y máxima

Juan Carlos Cruz Álvarez Página 27 TEMA 3


La siguiente fórmula nos da la intensidad promedio irradiada en todas las direcciones a una
distancia r de la antena:

P
S prom=
4 π r2
(3.12)
donde P es la potencia de la antena. Si la antena fuera isotrópica (directividad igual a 1) la fórmula
anterior nos daría la intensidad en cualquier dirección. Para antenas anisotrópicas debemos
contentarnos con saber cuál es la intensidad máxima:

P D = directividad
Smax =D . S prom=D [Wm-2] Smax = intensidad máxima
4 πr2 Sprom = intensidad promedio
(3.13)

3.2.4 ANTENAS

El dipolo oscilante no es más que una aproximación a una antena real. Las antenas, para ser eficaces,
tienen que tener un tamaño próximo a la longitud de onda de la radiación emitida; recordemos que las
ecuaciones del dipolo oscilante implican necesariamente que l ≪ λ, es decir, “las mismas condiciones
que imponíamos para decidir que un circuito es no radiante” La virtud del dipolo oscilante como
radiador de OEM es que las antenas reales se pueden analizar matemáticamente como suma de
pequeños dipolos.

Antena de media onda

Es una antena real, una antena lineal 𝝀/2, un alambre recto cuya longitud es la mitad de la longitud de
onda que se pretende emitir l=πc /ω.
Su resistencia de radiación es 73Ω, mucho mayor que la del dipolo oscilante de la fórmula 3.9 y por lo
tanto radia con mayor eficacia. La directividad es 1,64, muy parecida a la del dipolo oscilante.
Caben muchas formas de antena: lineales, según diversas fracciones de la longitud de onda y/o
tomando varias formas. También se pueden dar diseños en forma de cono o bocina. Se pueden diseñar
conjuntos de antenas emitiendo sincrónicamente, con lo que las OEM emitidas interfieren
negativamente en unas direcciones y positivamente en otras, obteniéndose por tanto una directividad
muy grande.

Campo cercano

Son campos instantáneos y no permanentes que produce cualquier circuito CA.


Tienen presencia sólo a distancias cortas del circuito, porque decaen rápidamente con la distancia; se
extiende a una distancia 3λ alrededor del circuito.
Cuando se analiza la interacción de OEM con los seres vivos, hay que considerar también los campos
cercanos en casos en que las antenas estén muy próximas, como en los terminales de telefonía móvil.
La zona donde los campos cercanos alcanzan valores apreciables se denomina zona de inducción y su
tamaño se estima en 3c/f.

3.2 DETECCIÓN Y MEDIDAS

Para detectar una OEM se usan los mismos dispositivos que para generarlas: antenas. En este caso, la
antena forma parte de un circuito CA pasivo, sin f.e.m. aplicada, y resonante a la frecuencia de la OEM
que se pretende detectar. La onda induce en el circuito corrientes y f.e.m. que son luego medidas y/o
amplificadas (depende del uso del detector). Este es el principio del receptor de radio o televisión.

Luego las OEM pueden ser medidas con una antena acoplada al correspondiente circuito resonante.
Los valores de las corrientes y f.e.m. inducidas son proporcionales a las amplitudes de los campos, por

Juan Carlos Cruz Álvarez Página 28 TEMA 3


lo que, calibrando previamente el circuito, podemos medir fácilmente el nivel de radiación en la zona
donde se encuentra la antena. De los valores de los campos obtenemos la intensidad de la radiación
asociada a partir de la fórmula 3.7.

Ejemplo de cálculo de campos

Tras el calibrado de una antena preparada para detectar OEM de 10 9 Hz, medimos que la
intensidad de radiación a esa frecuencia en nuestra área tiene un valor de 1 W·m-2. Según la fórmula
3.7 deducimos que la amplitud de campo eléctrico de la OEM es
2
1 E0
S=
2 Z0

2
1 E0
−2
1W m =
2 377 Ω

E0 =√ 2∗377 Ω∗1W m−2 ≅ 27 V m−1

Y de la fórmula 3.3 sabemos que la amplitud del campo magnético asociado es

E0
B 0=
c

27 V m−1
B 0= ≅ 0.09 μT
3∗108 ms−1

Principio de reciprocidad

Adicionalmente, los campos alrededor de una antena receptora adoptan la misma forma, y su
directividad y diagrama de radiación son los mismos, que si la antena fuera emisora.

3.3 APLICACIONES

▪ Telecomunicaciones
▪ Radar
▪ Ionización por satélite
▪ Radioastronomía
▪ Horno de microondas

3.3.1 TELECOMUNICACIÓN

Primeras aplicaciones para transmitir señales Morse, después voz y sonido y más tarde imagen,
para terminar, siendo soporte también de datos en forma binaria.

 En 1896 se transmite el primer mensaje Morse por OEM entre dos edificios situados a 250 m.
Es el comienzo de la telegrafía sin hilos.
 1901, Marconi establece comunicación telegráfica entre Europa y Estados Unidos. En 1909
Marconi recibió el Premio Nobel de Física por sus contribuciones a la comunicación por radio.
 1906, se produce la primera transmisión de audio por radio
 1920, es el año de la fundación, en Argentina, de la primera estación de radiodifusión pública
dedicada al entretenimiento. La radio se convierte en medio de comunicación de masas.

Juan Carlos Cruz Álvarez Página 29 TEMA 3


 1925, primera transmisión de imagen y nacimiento de la televisión. En 1951 comienza el
desarrollo comercial de la televisión en color.
 1933, se introduce la radio de alta calidad, mediante la modulación de frecuencia (FM).
 1960, se comercializa el primer receptor de radio transistorizado el cual funciona a pilas y cabe
en un bolsillo. Popularmente conocido como transistor.
 1963, se establece la primera comunicación por radio mediante satélite.
 A finales de los 80, se comercializan los primeros sistemas privados de recepción de radio y
televisión por satélite. De esta época datan los primeros teléfonos por radiofrecuencia,
conocidos después como teléfonos celulares o teléfonos móviles.
 Durante los años 90 se establecen los protocolos y bandas de frecuencias para la transmisión
por radio de datos binarios, llamada también transmisión digital. Los teléfonos móviles pasan a
usar la tecnología GSM que transmite la señal digitalmente. La señal de radio y TV de satélite
también se digitaliza.
 Principio del siglo 21, se establecen las bases para digitalizar la señal de radio y televisión
terrestre (esto es, la transmisión digital no realizada por satélite) y se comienza su
comercialización. También se establecen los estándares para la conexión de ordenadores a
redes inalámbricas (WiFi, Bluetooth y otras).

MODULACIÓN DE LA SEÑAL

Para transmitir la señal mediante OEM es necesario una modulación:


La señal se transforma en impulsos eléctricos (corrientes o potenciales variables en un circuito) cuyas
amplitudes reflejan fielmente las amplitudes de las ondas sonoras que los generaron y su evolución
temporal.

Varias formas de modular la señal:

▪ Modulación de amplitud (AM). La OEM se emite a una frecuencia denominada frecuencia


portadora cuya amplitud está modulada por la amplitud de la señal que pretendemos transmitir

▪ Modulación de frecuencia (FM). La frecuencia de la portadora es modulada en torno a un valor


principal por la amplitud de la señal que se transmite

ANCHO DE BANDA

En telecomunicaciones se usa el análisis de Fourier de las señales. Una OEM que transporte señales
tiene que cumplir, entre otros, los siguientes requisitos:

▪ La frecuencia de la OEM portadora tiene que ser mayor que la máxima frecuencia de la señal que
pretendemos transmitir.

▪ La OEM portadora no puede ser monocromática sino constituirse en un paquete de frecuencias


próximas a la portadora (desde f 0−∆ f a f 0+ ∆ f donde f 0 es la frecuencia nominal de la onda
portadora y ∆ f es el ancho del paquete de frecuencias o ancho de banda) El ancho de banda tiene
que ser mayor que la mayor frecuencia de señal que quiere transmitirse.

De hecho, los canales de comunicación se establecen según protocolos que tienen en cuenta el tipo de
comunicación que se pretende. Para un mismo tipo de comunicación, cuanto mayor sea la frecuencia
de la banda utilizada, mayor número de canales tenemos disponibles.

POTENCIA Y ALCANCE

Para poder reproducir en un receptor de radio o televisión las señales emitidas, éstas tienen que llegar
con una intensidad mayor que el límite de sensibilidad de los circuitos y antenas receptores.
La intensidad de la señal se debilita con el cuadrado de la distancia.

Juan Carlos Cruz Álvarez Página 30 TEMA 3


Cuanto mayor sea la potencia de emisión de la estación, mayor alcance tiene; esto es, mayor distancia
alrededor de la estación alcanzarán las OEM con una intensidad suficiente para ser captadas y
demoduladas.

Hay otros factores que condicionan el alcance de receptibilidad:

▪ La Transparencia del medio. Ésta depende de la frecuencia considerada, pero la atmósfera es


transparente a todas las bandas de radiofrecuencia. De hecho, el límite superior de la banda de
frecuencia más elevada (EHF), 300 GHz, es el límite de transparencia de la atmósfera, por
encima del cual se sitúan los rayos infrarrojos. Cuanto mayor es la frecuencia de la radiación, la
atmósfera se hace algo más opaca a ésta, especialmente debido al vapor de agua.

▪ Los Obstáculos: montañas, edificios… Sin embargo, cuanto mayor sea la longitud de onda de las
OEM, mejor pueden éstas “rodear” los obstáculos en virtud del fenómeno de difracción. Por
tanto, las bandas de frecuencias más bajas se ven menos afectadas por obstáculos.

▪ El Horizonte: las OEM se propagan en línea recta y no siguen la curvatura terrestre. Pero las
OEM de longitud de onda más larga, por difracción, sí pueden ser captadas algo más allá del
horizonte visible desde la antena, el cuál será más extenso cuanto más elevada se sitúe ésta.

▪ El Ancho de banda: La densidad de potencia emitida se reparte en toda la zona del espectro que
abarca el ancho de banda del canal. Cuanto más ancho, más potencia será necesaria para tener
alcances similares a anchos de banda pequeños. Es decir ás obtendremos más alcance con la
misma potencia si nos limitamos a anchos de banda más pequeños.

▪ La Ionosfera: está por encima de los 80 km, compuesta por átomos y moléculas ionizadas
formando un plasma de muy baja densidad, esta densidad es suficiente para considerar e plasma
como conductor, provocando que el campo eléctrico de la OEM sea reflejado hasta frecuencias
del orden de 30 MHz (HF o SW) con lo que la señal de radio puede alcanzar, por rebote en la
ionosfera, zonas más lejanas al horizonte visible desde la antena emisora.

3.3.2 RADAR

Se basa en la propiedad que tienen los objetos conductores de reflejar las OEM.

El radar es una antena muy direccional que emite en un estrecho margen angular. Si un objeto
conductor se sitúa en la dirección que apunta la antena, ésta es capaz de captar el reflejo de la OEM en
el objeto y deducir su distancia y velocidad.

Utiliza las mismas bandas que telecomunicaciones, pero sin interferir en ellas debido a su directividad
y por lo general su señal no se modula

3.3.3 LOCALIZACIÓN POR SATÉLITE

24 satélites artificiales siguiendo unas órbitas que desde cualquier punto de la superficie terrestre y en
cualquier momento establece línea de visión con al menos cuatro de ellos.
El GPS funciona de la siguiente forma: el receptor GPS capta la señal de los satélites que están “a la
vista”. Mediante un código que éstos envían, el receptor reconoce de qué satélite ha surgido la señal y
cuándo la ha emitido de acuerdo al reloj interno del satélite; el dispositivo determina el tiempo que
tarda en llegar la señal y calcula la distancia al satélite (simplemente, multiplicando el tiempo de
llegada por la velocidad de la onda, que es la velocidad de la luz). Con las distancias a los satélites, y
sabiendo la posición de éstos a partir de sus órbitas (datos que son enviados por el satélite al aparato),
es posible por triangulación conocer las coordenadas del usuario (latitud, longitud y altura) con
bastante precisión.

Juan Carlos Cruz Álvarez Página 31 TEMA 3


Las señales que envían los satélites se encuentran en un rango de 1,2-1,8 GHz. Su intensidad es
bastante reducida por la distancia que tienen que recorrer desde el satélite (~20.000km) y por la
relativa poca potencia de las antenas usadas.

3.3.4 RADIOASTRONOMÍA

Las señales emitidas por los astros no se limitan al espectro visible, sino que hay emisión en el resto
del espectro electromagnético, incluyendo el espectro radioeléctrico.
Los instrumentos usados en radioastronomía se llaman radiotelescopio y son grandes antenas
orientables y direccionales.

La radioastronomía presenta dos grandes inconvenientes frente a la astronomía tradicional: al ser ondas
captadas OEM de gran longitud de onda, la resolución espacial que se alcanza es peor que con
instrumentos ópticos. Por otra parte, el tipo de astro más familiar, la estrella, apenas produce OEM en
longitudes de onda de radio.

La ventaja es que ciertas regiones del Cosmos, opacas a la luz visible, son transparentes a las OEM de
radiofrecuencia. Permiten el estudio de objetos celestes como cuásares, púlsares y núcleos galácticos
que tienen gran actividad en esta parte del espectro

3.3.5 HORNO DE MICROONDAS

Su principio se basa en la gran absorción por parte del agua líquida, de radiación situada en el rango de
las microondas.
En el horno microondas se producen ondas estacionarias, esto es, ondas que no viajan, sino que, por
diseño, quedan confinadas en una caja. Las ondas se generan en un magnetrón, que es un tubo de vacío
divido en cavidades cilíndricas con paredes metálicas que actúan como espejos para la radiación;
mediante un mecanismo parecido al de los tubos de vacío de las televisiones, se produce un haz de
electrones que son forzados a seguir trayectorias espirales debido a un intenso campo magnético
producido por fuertes imanes.
qB
La intensidad de campo magnético es tal, que la frecuencia ciclotrón de los electrones ( ω c = ) es
m
idealmente la misma que la de la radiación que se desea producir. Los electrones que siguen una
trayectoria espiral producen radiación de la misma frecuencia que la frecuencia ciclotrón
correspondiente, aunque con una gran imprecisión puesto que es muy difícil conseguir que el campo
magnético sea uniforme por lo que, dada la fórmula anterior, si el electrón es sometido a campos
magnéticos de distinta intensidad, entonces se producirá radiación en un amplio rango de frecuencias.
La cavidad cilíndrica selecciona entonces el modo resonante de frecuencia requerida que es el que
prevalece, de forma parecida al funcionamiento de una cavidad de láser.
La frecuencia de la radiación seleccionada es de 2,45 GHz, lo que corresponde a una longitud de onda
de 122,4mm y es óptima para su absorción por el agua, lo que hace que esta se caliente. La radiación
se mantiene confinada dentro de las paredes del horno, ya que éstas son metálicas y actúan como
espejos, la cara frontal del horno es de un material translúcido pero recubierto de una película metálica
agujereada, para poder ver el interior. El tamaño de los agujeros es mucho menor que la longitud de
onda de la radiación producida, por lo que ésta no “ve” los agujeros y se refleja en la película metálica,
mientras que la luz visible, de mucha menor longitud de onda, se filtra a través de los agujeros y nos
permite contemplar el interior del horno sin problemas.

Esta aplicación de las OEM es la que más intensidad de radiación involucra (≈ 10 4 Wm-2), pero también
es la única que mantiene la radiación encerrada en una caja.

3.4 FUENTES DE RADIOFRECUENCIA

Que pueden interactuar con los seres vivos:

▪ Fuentes naturales: el Sol


Juan Carlos Cruz Álvarez Página 32 TEMA 3
▪ Antenas de radiofrecuencia
▪ Telefonía móvil

3.4.1 FUENTES NATURALES: EL SOL

De la radiación que llega del Sol, sólo una ínfima fracción es radiofrecuencia.
Sin embargo, la actividad solar en forma de manchas solares, erupciones, tormentas, etc., sí que
produce OEM de radiofrecuencia. Esto es debido a que la actividad solar está ligada a su campo
magnético y al movimiento de partículas cargadas en su seno, las cuales siguen trayectorias curvas y
radian por estar aceleradas, en un proceso similar al del magnetrón.
Como la actividad solar es cíclica, los procesos que generan radiofrecuencia también lo son. Pero la
intensidad de la radiación que llega a la Tierra es muy pequeña, incluso en épocas de máxima actividad
solar. Su efecto es que a veces perturban las comunicaciones por radio, pero son mucho menos
intensas que las OEM producidas artificialmente.

LA IONOSFERA

La acción de los rayos ultravioleta provenientes del Sol ioniza principalmente átomos de oxígeno en
esa capa de la atmósfera, en la que se dan dos condiciones favorables: aún tiene una densidad de gas
apreciable y está por encima de la capa de ozono estratosférico, que absorbe la radiación UV.
Además de la acción de espejo de OEM en la banda HF, la ionosfera actúa sobre casi toda la radiación
del espectro de radiofrecuencia. Ralentiza la velocidad de la onda en la señal GPS y altera las señales
que captan los radioastrónomos.

3.4.2 ANTENAS DE RADIOFRECUENCIA

Las antenas de AM son bastante grandes (decenas de metros), debido a la gran longitud de onda que
emiten. La banda de AM se encuentra aprox. en 0,5 ~ 1,5 MHz, lo que supone longitudes de onda de
200 ~ 600 m.

La potencia emitida depende del alcance que se desea. Las estaciones de AM suelen tener alcance
provincial. Para ello se usan potencias 10 ~ 100 kW.
La antena que emite con mayor potencia en España usa 600kW para el canal de 585 kHz; tomando esta
estación como referencia, podemos calcular la intensidad de las OEM emitidas por esa antena en el
límite de la zona de radiación (a una distancia tres veces mayor que la longitud de onda, esto es, unos
1500 metros), aplicando la fórmula (de la intensidad de la antena):
P
Smax =D . S prom=D
4 πr2

Y suponiendo que la antena tiene una directividad de 1,5 en el plano horizontal:

P 60010 3 W
Smax =D . S prom=D 2
=1,5 2
≅ 31 mW m−2
4 πr 4 π (1500 m)

La radiodifusión de la banda SW (onda corta) utiliza la ionosfera para multiplicar el alcance, las
antenas son más pequeñas y no se precisan grandes potencias de emisión.

La radiodifusión mediante FM se realiza en la banda VHF (88 ~ 108 MHz). Las longitudes de onda
están en torno a los 3 metros, por lo que las antenas no son muy grandes. Su alcance es muy local,
tienen bandas más anchas que AM y no precisan potencias muy elevadas para ser emitidas.

Las emisiones de televisión tradicional (analógica terrestre) se realizan en las bandas de VHF y UHF,
con antenas direccionales y alcance local, lo que supone potencias de emisión reducidas. Un canal de
televisión tiene alcance regional o nacional mediante repetidores.

Juan Carlos Cruz Álvarez Página 33 TEMA 3


La actividad de radiodifusión “contamina” el medio de OEM, pero con intensidades de radiación muy
pequeñas.

3.4.3 TELEFONÍA MÓVIL

Los sistemas de telefonía móvil se basan en una red de radiofrecuencia que consiste en un conjunto de
estaciones fijas (estaciones base o EB) y los terminales móviles distribuidos de forma irregular en el
espacio entre estaciones fijas. Ambos transmiten y reciben información mediante OEM.
El sistema de estaciones fijas forma una red hexagonal, con una distancia máxima entre estaciones de
35 km (normalmente, 20km). En las situaciones que, bien porque la zona tenga muchos obstáculos
para la transmisión o el tráfico de llamadas es intenso, se reduce la distancia entre estaciones o se
configuran sub-redes llamadas microcélulas, o picocélulas cuando se establecen dentro de un mismo
edificio.

El sistema de mayor uso en telefonía es GSM (Global System Mobile Comunications), con tecnología
digital. En el futuro el UMTS (Universal Mobile Telecomunication System) sustituirá progresivamente
al GSM.

SISTEMA GSM

Se utiliza principalmente en Europa y opera en las bandas de 900 y 1.800 MHz. La transmisión de
información se hace mediante modulación digital de fase, por lo que la onda portadora sólo sufre, de
forma aleatoria, ligeros cambios de amplitud.

Cada canal de transmisión requiere un ancho de banda de 200 kHz. Como para 900 MHz la anchura de
banda utilizada es de 35 MHz, se puede transmitir simultáneamente, como máximo, 175 canales. En el
caso de 1800 MHz la anchura de banda es 75 MHz y el número máximo de canales que pueden
transmitirse simultáneamente es de 374. Los canales se distribuyen entre las estaciones fijas de manera
que las estaciones próximas operen en frecuencias diferentes con objeto de evitar interferencias. Cada
estación fija se suele dividir en sectores de 120º, y a cada sector se le asigna una frecuencia distinta.

Estas consideraciones ponen de manifiesto que hay un límite para el número de usuarios que pueden
comunicarse simultáneamente. Para ampliar dicho número se utiliza la técnica conocida como TDMA
(acrónimo de Time División Múltiple Access), que permite el uso simultáneo de un canal por ocho
teléfonos.

La máxima potencia emitida por un teléfono móvil, que se permite con la normativa actual, es de 2 W
en la banda de 900 MHz, y 1 W en la de 1800 MHz. Con el sistema TDMA el valor medio se reduce a
un octavo, es decir, a 0,25 y 0,125 watios respectivamente. Esta potencia, además, se reduce por el
sistema APC (acrónimo de Adaptative Power Control ), que consiste en modificar la potencia emitida
por el teléfono en función de la distancia a la estación fija que le sirve para conectarse a la red. Otra
reducción adicional se obtiene con la transmisión discontinua, que consiste en desconectar la emisión
de señal cuando el usuario no habla mientras escucha o cuando ninguno está hablando o transmitiendo
información.

En resumen, la potencia emitida por cada usuario será mayor si la estación fija está más lejos del
teléfono utilizado, y mediante los sistemas de transmisión simultánea se pueden utilizar las estaciones
fijas por más usuarios. Teniendo en cuenta las consideraciones anteriores, los máximos de potencia
permitidos son 2 W para 900 MHz y 1 W a 1800 MHz, y los valores medios que se emiten son
respectivamente 0,25 y 0,125 watios.

RED DE ESTACIONES FIJAS

Formada por antenas o conjuntos de antenas. Sobre torres metálicas de 10 a 25 m o sobre torres
menores sobre edificios. Cada torre soporta antenas en tres sectores de 120º.

Juan Carlos Cruz Álvarez Página 34 TEMA 3


La mayor parte de la potencia emitida está localizada en un sector de aproximadamente 6º que se
inclina ligeramente hacia el suelo, de forma que el máximo alcance el suelo entre 50 y 200 m de la
torre, la directividad de las antenas de telefonía móvil es muy grande, estando comprendido su valor
entre 40 y 60.

La potencia que emiten las EB está limitada por normas que dictan los Gobiernos. Estas normas fijan
la máxima potencia que puede emitir el lóbulo principal (haz principal). Dicha limitación se hace a
través del máximo EIRP (acrónimo de Equivalent Isotropically Radiated Power), que es la potencia
equivalente que habría de emitir se en todas las direcciones (isotrópicamente) para producir un
máximo de intensidad en la dirección del lóbulo principal.

Las licencias autorizan un máximo EIRP de 1500 W por canal de frecuencia; teniendo en cuenta la
directividad, esto supone que se emiten unos 30 vatios por canal. También se limita el número de
canales que se puede utilizar, 16 para la banda de 1800 MHZ y 10 para la de 900 MHz. En la práctica
se utilizan menos canales, unos 4 para 1800 MHz y entre 2 y 4 para 900 MHz. Con estos datos se
puede estimar que la potencia EIRP radiada por una torre de antenas estará comprendida entre 60 y
120 watios.

INTESIDADES DE CAMPO ASOCIADAS A TELÉFONOS Y ANTENAS FIJAS

Si tomamos como referencia los datos de las potencias emitidas por las antenas de los teléfonos y de
las estaciones fijas, podemos calcular las intensidades de radiación correspondientes.

En el caso de la antena del terminal móvil, si suponemos que se mide la intensidad a 2,2 cm de
distancia y emite una potencia de 1 W, con directividad aprox. igual a 1, la intensidad radiada es,
S ≅ 165 W m−2
Las intensidades de campo eléctrico y magnético que corresponde a esta radiación son
aproximadamente 350V·m-1 para el campo eléctrico y 1 μT para el campo magnético.

Las antenas fijas emiten más potencia pero las distancias donde se localizan los usuarios son mayores.
P
Suponiendo que la distancia es de 50 metros, podemos aplicar la fórmula S prom= (recordemos
4 π r2
que la potencia de las antenas fijas se da en términos EIRP) la intensidad vale:
W
S ≅ 120 2
≅ 3,8mW m−2
4 π (50 m )
Que corresponde a un campo eléctrico de 1,7 V m-1 y un campo magnético de 0,006 μT. La intensidad
de los campos que recibe un usuario desde la antena es unas doscientas veces más baja que los
emitidos por su teléfono.

Juan Carlos Cruz Álvarez Página 35 TEMA 3


TEMA 4. CAMPOS ELECTROMAGNÉTICOS Y SALUD

La ausencia de trabajo de laboratorio que muestre que las radiaciones de los campos electromagnéticos
sean cancerígenas y la completa ausencia de un mecanismo biofísico plausible que explique como los
CEM pueden afectar a los sistemas biológicos. Desde entonces, numerosos comités científicos y
grupos de trabajo se han reunido para analizar los datos disponibles concluyendo que no esta probado
que los CEM tengan un efecto cancerígeno. Sin embargo, con el fin de ser precavidos, la Agencia
Internacional de Investigación del Cáncer (IARC) ha clasificado las exposiciones a las CEM como
“posible cancerígeno humano” (Clase 2B, como el café).

Todavía sigue sin entenderse claramente las causas específicas del desarrollo de los diferentes tipos de
cáncer. Sin embargo, los estudios con células mamíferas han mostrado suficiente información acerca
de los agentes externos (físicos, químicos o biológicos) que contribuyen a la aparición del cáncer.
Existen dos caminos (no exclusivos) en el origen de la aparición del cáncer.

1. Un camino genotóxico, donde una exposición a un determinado agente ambiental induce una
serie de daños en el material genético (ADN) en la célula.

2. Un camino “epigenético” donde ciertos factores ambientales, que puede que no causen cáncer
por si mismos, pueden contribuir a la aparición de este mediante el aumento de la
genotoxicidad de otros agentes. De esta forma, la genotoxicidad de los campos
electromagnéticos debe estudiarse tanto como posible origen del cáncer o como posible
elemento que aumente la genotoxicidad de otros agentes que sí son peligrosos, como pueden
ser las radiaciones ionizantes.

Existen dos formas de estudiar el problema de los posibles efectos cancerígenos de los campos
electromagnéticos:

▪ Estudios directos, in vitro, donde se estudia en laboratorio la influencia que puede tener una
determinada radiación sobre algún tipo de estructura biológica.

▪ Trabajos de campo, donde se analiza la posible influencia que ha tenido en la salud de la


población la exposición a campos electromagnéticos.

4.1 MODELO DE LA MATERIA VIVA

Desde el punto de vista del electromagnetismo, la materia viva reúne las siguientes características:

1. Es una disolución iónica, sin portador preferente, que la convierte en un buen conductor
electrostático y en un moderado conductor electrodinámico. La densidad de portadores de carga
es, entonces, n ≅ 10 24 1026 m−3 que, suponiendo que aquellas son iones monovalentes (
q ≅ 1,6 x 10−19 C ), dan lugar a una densidad de carga portadora de 105 107 C ∙m−3 (ρ=q ∙ n). Su
conductividad la tomamos directamente de la tabla comoγ ≅ 0,1 10 S ∙ m−1.
2. Es un medio con actividad eléctrica interna. Los intercambios iónicos en las paredes de las
células es un ejemplo de tal actividad. Los sistemas neural y locomotriz tienen una actividad
eléctrica especialmente importante, con corrientes que transportan impulsos nerviosos; parte de
esa actividad es detectable mediante sutiles cambios de potencial en las regiones donde tiene
lugar la actividad: esto es el fundamento de los electrocardiogramas y electroencefalogramas.
3. Es un medio permeable a los campos magnéticos.

La mayor parte de los efectos que los campos electromagnéticos producen en la materia viva están
ligados a las corrientes eléctricas que aquéllos sean capaces de inducir, y que pueden interferir con la
actividad eléctrica natural o bien causar un calentamiento excesivo por efecto Joule.

Juan Carlos Cruz Álvarez Página 36 TEMA 4


El umbral de disipación del metabolismo basal = potencia calorífica que es capaz de disipar un
organismo (hombre ~ 4 W kg-1). Si el calentamiento específico producido por una corriente eléctrica
inducida desde el exterior según la fórmula:
J 2 γ E2
P/ Kg= =
γD D
D: densidad de masa del material
γ: conductividad [S.m-1]
J: densidad de corriente
E: campo eléctrico

supera esa cantidad, entonces el tejido aumenta su temperatura porque no es capaz de disipar el exceso
de calor.

Algunos de los procesos biofísicos que podrían dar lugar a modificaciones en el comportamiento
celular o en los tejidos biológicos. Se descarta por completo cualquier tipo de interacción basada en
transiciones atómicas y/o ionizantes, producida por la radiación en esta zona del espectro. Las
transiciones atómicas se producen cuando la radiación, considerada como un haz de fotones, es capaz
de promocionar un electrón de un estado a otro, y para ello se necesitan energías de fotones del orden
de 1 eV. La energía de un fotón viene determinada por su frecuencia según la fórmula de Planck
E=h f (o E=h v siendo “v otra manera de denominar a la frecuenciaf ) donde h es la llamada constante
de Planck y tiene un valor de4,14 ∙10−15 eV ∙ s . Si aplicamos la fórmula de Plank a la radiación de
máxima frecuencia de esta sección de espectro, 300 GHz, entonces la energía del fotón
correspondiente no pasa de ser 1meV, mil veces inferior a lo necesario para provocar transiciones
atómicas. Obviamente, la parte baja del espectro queda fuera de toda consideración.

4.1.1 CAMPO ESTÁTICO

Un campo estático queda total y perfectamente apantallado por la materia viva, dada la naturaleza
conductora de esta última.

El fenómeno del apantallamiento sólo está restringido por la cantidad de carga libre disponible. El
campo máximo que puede apantallar una capa de material conductor de espesor d, con una cantidad de
carga ρ es:

ρd
Emax =
ε0

FUERZAS SOBRE OBJETOS CARGADOS

Los CEM generan fuerzas sobre las cargas eléctricas. Sabemos que la fuerza de una carga eléctrica (
1,6 X 10−19 C ) puede expresarse como
F=qE

Juan Carlos Cruz Álvarez Página 37 TEMA 4


Por tanto, supongamos que tenemos una célula de 10 μm de diámetro (1 μm=10−6 m¿ que pesa unos
5pN (1pico pN = 10-12) en aire. Entonces, sostener una célula como ésta usando un campo de 1 V/m
supondría que estuviese cargada con 32 millones de electrones.

Los campos eléctricos pueden generar fuerzas en las partículas cargadas, pudiendo moverlas si estas no
se encuentran fijas. En tal caso, el material es conductor, y dispondrá, como hemos visto de una
corriente J que será tanto más intensa cuanto mayor sea la conductividad,σ . Por ejemplo, la
conductividad de los huesos o la grasa humana es de 0,05 (Ωm) -1 y la de la sangre es 0,6 (Ωm) -1;
conductividades extremadamente bajas en comparación con la del cobre que es del orden de 600.000
(Ωm)-1.

Otro posible efecto de las fuerzas generadas por los campos sobre las células puede ser aquel que
afecte a las “fuerzas biológicas”. Con fuerzas biológicas nos referimos a procesos biológicos celulares
que generan algún tipo de dinámica que puede medirse en términos de fuerza. Por ejemplo, la fuerza
requerida para extraer una molécula de ADN es del orden de 20 pN. En comparación, la fuerza
ejercida por una OEM de 1000 V/m sobre moléculas cargadas es del orden de 10 -10 pN, y por tanto,
totalmente despreciables en comparación.

4.1.2 CAMPOS OSCILANTES

TRANSMISIÓN, REFLEXIÓN Y ABSORCIÓN DE LAS OEM

Las OEM en este rango del espectro se comportan como ondas a todos los efectos.
En la interacción de las OEM con la materia se pueden dar tres fenómenos: transmisión, reflexión y
absorción.

La materia absorbe parte de la potencia de radiación. En esta parte del espectro, el único mecanismo de
absorción es la producción de corrientes inducidas y su disipación en forma de calor. En los aislantes
también ocurren fenómenos de inducción de corrientes de polarización y pérdidas dieléctricas,
especialmente en el agua.

Los conductores anulan el campo eléctrico. En el caso de OEM el campo eléctrico, al ser variable, no
llega a anularse totalmente y la fracción que penetra en el material depende de la conductividad del
mismo y de la frecuencia de oscilación. El material actúa como un freno para la oscilación y produce el
mismo efecto en la OEM, que el fijar el extremo de una cuerda produce en las ondas que viajan por la
misma: parte de la onda se refleja.

Los metales, como buenos conductores, reflejan muy bien las OEM de esta zona del espectro e,
incluso, de la zona óptica (infrarrojos, visible y ultravioleta). La materia viva y las disoluciones
acuosas reflejan parcialmente las OEM de radiofrecuencia, tanto mejor cuanto menor es la frecuencia.

Los aislantes amortiguan ligeramente el campo eléctrico en virtud del fenómeno de la polarización, por
lo que presentan cierta reflectancia a las OEM, aunque mucho menor que un conductor.

La parte de la onda que no es reflejada ni absorbida se transmite al otro lado del objeto. En general,
depende del espesor de éste. Para garantizar la conservación de energía, se debe cumplir:
1=T+A+R

donde T, A y R son los coeficientes de transmisión, absorción y reflexión.

Para conocer la intensidad de la onda transmitida, sabiendo el coeficiente de transmisión del material y
la intensidad de la onda incidente, So, simplemente aplicamos ST = SoT para obtener la intensidad de
onda transmitida ST.
Parte de la intensidad de una OEM que llega a un objeto, sufre una difracción si la longitud de onda es
mayor o parecida a la dimensión del objeto; por lo tanto, esa parte de onda que “rodea” al objeto no

Juan Carlos Cruz Álvarez Página 38 TEMA 4


puede considerarse estrictamente como parte de la onda transmitida que no ha sido absorbida o
reflejada.

Las OEM e reflejan parcialmente en conductores. Hay que tener en cuenta factores como el ángulo de
incidencia.

Intensidad que no se refleja (SAT) porque se absorbe o se transmite:

1
S AT =S 0 γ: conductividad. Depende del conductor [(Ω.m)-1]
γ
1+ SAT: intensidad que no se refleja (Se absorbe o se transmite)
ω ε0
(4.1)
La intensidad reflejada es: SR = 1 – SAT

Expresado en términos de transmisión, absorción y reflexión:

1
T + A = 1 – R = 1+ γ
ω ε0
(4.2)

EJEMPLO PRÁCTICO DE APLICACIÓN DE (4.2)

Un buen conductor (un metal) ante una radiación de microondas de 10 GHz; teniendo en cuenta las
conductividades de metales, entonces tenemos que
T + A ≅ 10−20
es decir, que prácticamente toda la onda se refleja.
Si tomamos la misma onda y la hacemos incidir sobre materia viva, con una conductividad promedio
de 1 S ∙ m−1, entonces el resultado de aplicar 4.2 sería
T + A ≅ 0,25
es decir, que un 25% de la intensidad de la onda penetra el material, mientras que el 75% restante se
refleja.

EJEMPLO PRÁCTICO DE MEDIO CON PÉRDIDAS DIELÉCTRICAS

El agua pura, con conductividad óhmica muy baja, reacciona a las OEM de 50 GHz de forma tal que el
cociente γ /ωε vale aproximadamente 1,75, en lugar de 3 x 10−8, que saldría de sustituir formalmente
γ ≅ 4 x 10−6 y ε =ε 0; lo que da una idea de la magnitud de las pérdidas dieléctricas en el agua a estas
frecuencias. El correspondiente coeficiente de penetración sería
T + A ≅ 0,25
que es el mismo resultado obtenido anteriormente, considerando un medio que sí es conductor.

El agua es un líquido polar, es decir, formado por moléculas que presentan asimetría de carga y forman
' 1
pequeños dipolos eléctricos. Estos dipolos contribuyen a disminuir el campo ( E = E ) y, además,
Ɛr
tienen relativa movilidad con lo que pueden seguir las oscilaciones del campo. Esto se refleja en que la
constante Ɛ 0 hay que sustituirla por Ɛ =Ɛ r Ɛ 0 , donde Ɛ sería la permitividad dieléctrica del agua, pero
cuyo valor depende de la frecuencia de oscilación.

Por otro lado, el movimiento de dipolos siguiendo el campo se “relaja” por los choques con otras
moléculas, transmitiendo a éstas parte de la energía de oscilación que adquieren; esto redunda en un
aumento de temperatura, similar al del efecto Joule en conductores, y se le puede asignar una cierta

Juan Carlos Cruz Álvarez Página 39 TEMA 4


“conductividad” que refleja las pérdidas energéticas (o pérdidas dieléctricas) por relajación de los
dipolos.
Además, resulta complicado establecer los coeficientes de absorción, transmisión y reflexión para cada
tipo de tejido, ya que, en función de su composición y textura, puede presentar distintas reacciones a
las OEM de radiofrecuencia.
Cuanto mayor es la frecuencia de la radiación (menor longitud de onda), más penetrante es ésta y
menor fracción se refleja. En el caso concreto del horno microondas, su frecuencia de funcionamiento,
2,45 GHz, está dentro de una zona de frecuencias que el agua absorbe muy bien (el valor concreto se
eligió para que no coincidiera con ninguna frecuencia usada en comunicaciones) debido al detalle de la
interacción de los dipolos moleculares del agua con la radiación. Esto quiere decir que prácticamente
toda la radiación de esta parte del espectro que penetra en los tejidos se absorbe, puesto que la
extensión de éstos es generalmente mayor que las distancias de penetración. Por tanto, podemos
considerar que
T ≅ 0 y A ≅ 1−R
Dentro del rango de frecuencias considerado en este capítulo, toda la radiación que se absorbe en un
material disipa su potencia en forma de calor. El campo eléctrico de la onda produce corrientes al
arrastrar las cargas libres del sistema; estas corrientes disipan calor por efecto Joule o por relajación
dieléctrica.
Es este efecto térmico lo que aprovecha el horno microondas para producir calentamiento.
El factor que nos interesa conocer no es directamente la potencia absorbida por el tejido, sino lo que
hemos denominado calentamiento específico, esto es la potencia absorbida por unidad de masa del
tejido.
En el contexto de interacción con las OEM, este parámetro lo denominamos tasa de absorción
específica, que también se conoce como SAR, acrónimo inglés de Specific Absorption Rate, y que
evaluaríamos como:

P ab Pab: potencia absorbida


SAR= [W/kg] m: masa del tejido afectado
m

Los criterios de dosimetría, tienen como horizonte que el SAR máximo que puede absorber un tejido
sin sufrir aumento de temperatura es de 4W· kg -1, que es el umbral de disipación del metabolismo
basal.
En definitiva, los campos eléctricos procedentes de líneas de alta tensión, transformadores, etc., son
apantallados por los objetos conductores, de forma que estos poseen poca capacidad para penetrar en
edificios o tejidos biológicos. Sin embargo, los efectos térmicos pueden tener un efecto, así como los
campos magnéticos, asociados con los campos eléctricos, que sí que pueden penetrar en edificios o
tejidos biológicos, con la consecuente dificultad a la hora de apantallarlos. En general, la energía
térmica absorbida por los tejidos suele ser pequeña en la mayor parte de las situaciones de riesgo, de
manera que se suele considerar que, en caso de que existiesen, los posibles efectos biológicos debidos
a las OEM de baja frecuencia, deberían proceder de su componente magnética o de las corrientes o
campos eléctricos inducidos por los campos magnéticos en el cuerpo.

TRANSMISIÓN DE UNA ONDA EN UN CONDUCTOR

Amplitud de campo eléctrico que se propaga en la dirección x en un medio conductor:


−x δ: distancia de penetración (cuando la onda ha avanzado
δ
E ( x )=E0 e una distancia x= δ la intensidad de campo disminuye una
fracción e-1≅ 0.37
E0: intensidad de campo que ha penetrado en el material
(descontada la fracción reflejada)

La expresión anterior al cuadrado nos dice cómo varía la intensidad de la onda:


−2 x
δ
ST ( x )=S AT e

Juan Carlos Cruz Álvarez Página 40 TEMA 4


(4.3)
Con lo que vemos que la onda se va atenuando exponencialmente a medida que atraviesa el material.
Cuando ha recorrido una distancia equivalente a la distancia de penetración δ, la intensidad ha
disminuido hasta el 13%

La fracción total de intensidad transmitida depende del espesor del material (L):
−2 L −2 L
T =( 1−R ) e δ
, A=( 1−R ) (1−e )
δ

La distancia de penetración (δ) depende del material (conductividad, permitividad) y de la frecuencia


de la radiación, considerando sólo la materia viva y otros malos conductores:

2 ε
δ=

γ μ0
[m] (siempre que γ « ωε)

(4.4)

La profundidad de penetración decrece con el valor de la conductividad ya que cuanto más conductor
sea el material, mejor apantalla el campo y menor será la distancia de penetración.
La distancia de penetración puede variar, dependiendo del tipo de material y de frecuencia, entre 1 mm
y 10 cm10

INTERACCIÓN CON OTROS MATERIALES


Los objetos metálicos reflejan prácticamente toda la radiación, salvo que sean pequeños en
comparación con la longitud de onda y entonces parte de la onda se difracta (rodea al objeto).
Los aislantes son más transparentes a la radiación en esta zona del espectro, reflejan menos radiación y
la profundidad de penetración de la misma es mayor.
En menor medida que el agua, los aislantes también presentan el fenómeno de pérdidas dieléctricas y
la respuesta de su polarización depende de la frecuencia de la onda; en general podemos aplicar el
principio de que a mayor frecuencia de oscilación, más opacos a la radiación se vuelven los medios
dieléctricos.
A la hora de analizar, por ejemplo, la influencia de los muros y mobiliario de un edificio tenemos que
tener en cuenta su composición, su disposición, su tamaño, etc. Por ejemplo, los muros están formados
principalmente por materiales que son aislantes eléctricos: cemento, ladrillo, plástico, vidrio, etc; pero
también cubren vigas y forjados metálicos que son conductores. Por eso, los edificios suponen un
obstáculo parcial para las OEM. El parámetro de profundidad de penetración, aunque elevado, hace
que la onda se atenúe al atravesar los muros de los edificios como hemos visto en la ecuación 4.3

ENERGÍA ASOCIADA A LOS CAMPOS

Energía por unidad de volumen asociada a un campo eléctrico:

ϵ 2
E [J] ϵ : cte. dieléctrica del medio
2
(4.5)

Ej.: la energía eléctrica (por unidad de volumen) asociada a un campo típico de 10 kV/m, es 4 x10 -
6
J/m3.
Para la parte magnética de la onda, la expresión de la energía por unidad de volumen es similar:
1 2
B μ: permeabilidad magnética

(4.6)
Ej.: un campo típico de 0,1 mT nos dá una energía por unidad de volumen de 4 x 10-3 J/m3

Juan Carlos Cruz Álvarez Página 41 TEMA 4


CAMPO INTERNO Y EXTERNO

Los conductores (particularmente la materia viva) también apantallan el campo oscilante, dependiendo
de la conductividad del material.
Cuanto mayor sea la conductividad, mejor será el apantallamiento, y para una conductividad dada, el
apantallamiento será peor cuanto mayor sea la frecuencia de oscilación, porque a las cargas del medio
les cuesta más reaccionar a los cambios externos.

Relación entre el campo interno y el campo externo, si éste es oscilante:

E∫ ¿ 1
= ¿
Eext γ 2

√ 1+( )
ω ε0
(4.7)

Para bajas frecuencias (f <300 kHz), la fórmula anterior se puede aproximar por:

E∫ ¿ ω ε 0
≅ ¿
Eext γ

Donde se ve la dependencia con la frecuencia y la conductividad.


Ej.: una conductividad típica de una disolución salina γ 1 S ∙ m−1 y la frecuencia de red ω ≅ 314 s−1
tenemos que E∫ ¿≅ 10 E ¿ −9
ext

es decir, el campo interior es mil millones de veces inferior al campo exterior; si tomamos un valor de
campo exterior de 1 kV ·m-1, que es uno de los campos más elevados al que puede estar sometida una
persona en un ámbito doméstico, entonces E∫ ¿ 1 μV ∙m ¿, lo que corresponde a una densidad de corriente
−1

J 1 μA ∙ m−2 que está muy por debajo del nivel de activación de cualquier proceso biológico.

RUIDO TÉRMICO

Las células sufren de ruido eléctrico. Contienen iones y moléculas cargadas eléctricamente que se
mueven de forma aleatoria en su interior, este movimiento produce campos eléctricos que varían de
forma aleatoria. Las trayectorias caóticas de los iones generan entonces un ruido eléctrico que depende
de la temperatura (ruido térmico). El campo eléctrico asociado a través de este ruido es:

ρ: resistividad
4 ρkT ∆ f
E KT =
√ d3
[V/m] ∆f:
d:
k:
ancho de banda de la frecuencia que nos interesa
lado del cubo de tejido a estudiar
cte. Boltzmann = 1,38 10-23 J/K
T: temperatura = 300ºK
(4.8)
en esta fórmula se ha aproximado el tejido a un cubo de lado d de una resistencia R tal que
ρxlongitud
R= =ρ /d.
área

Cuanto menor sea la dimensión del tejido, mayor será el valor de este campo eléctrico.
Para saber cuál es el campo dado un cierto valor del voltaje aplicado, podemos emplear que, en este
modelo simplificado:
VKT = EKT ∙ d

Cuanto menor sea la dimensión del tejido, mayor será el valor del campo eléctrico.

Juan Carlos Cruz Álvarez Página 42 TEMA 4


Supongamos una célula a temperatura ambiente (kT = 4,28 x 10 -21 J) y que el ancho de frecuencias que
nos interesa es ∆f = 100 Hz, ancho que incluye las frecuencias de 50 a 60 Hz. Para la membrana
celular se puede obtener que R 108 Ω y que d = 5 nm (R=ρ/d). Entonces, el campo eléctrico asociado
al ruido sería igual a EkT = 2600 V/m.
Es decir, un campo eléctrico sobre la membrana de la célula del orden de 3x10 3 V/m podría afectar al
comportamiento de esta, debido a la variación en el ruido térmico generado por el movimiento caótico
de iones y moléculas cargadas.

CAMPO MAGNÉTICO: EFECTO HALL

Asumamos que la actividad neurológica y locomotriz genera corrientes eléctricas del orden de
1 A ∙ m−2; a falta de más información sobre la naturaleza de esas corrientes, podemos suponer que
están soportadas por portadores de un solo tipo. Bajo la acción del campo más intenso posible, B ≅ 1T ,
el campo eléctrico transversal que producen estas corrientes, según la fórmula
−JxB
Et = es Et ≅ 10 μV ∙ m−1.
ρ
El movimiento de fluidos en cuyo seno están disueltos iones, puede producir un campo transversal en
presencia de un campo magnético a partir de la fórmula Et =− ⟨ V ⟩ xB. El fluido que más rápidamente
se desplaza en un organismo vivo es la sangre, principalmente a la salida de la arteria aorta donde su
velocidad alcanza los 0,6 m·s-1; con los campos magnéticos más intensos se producen entonces campos
eléctricos del orden Et ≅ 1V ∙ m−1.

INDUCCIÓN MAGNÉTÍCA

El campo alterno, por su facilidad para inducir corrientes en conductores, sí es un agente que
potencialmente puede interferir la actividad biológica.
Los conductores presentan cierto diamagnetismo ante campos magnéticos oscilantes, en virtud de que
B∫ ¿ ' 1
las corrientes inducidas se oponen a los cambios de flujo. La ecuación =μr ≅ ¿ nos
Bext √ 1+(r ωγ μ 0)2
2

da la razón entre las amplitudes de los campos externo e interno en función de la frecuencia; cuando
ésta se mantiene en los límites que hemos fijado, la expresión mencionada se puede aproximar por:
2
B∫ ¿ (r 2 ωγ μ0 )
≅ 1− ¿
Bext 2
Para la frecuencia doméstica, ω ≅ 314 s−1, y conductividades típicas de tejidos biológicos,
γ ≅ 1 S ∙ m−1, y radio de actuación del campo, r ≅ 1 m, tenemos que
B∫ ¿
≅ 1¿
Bext
Con lo que no hay apenas exclusión de campo por diamagnetismo inducido

Analicemos ahora la magnitud de las corrientes de Foucault inducidas, que vienen dadas por la
γω B 0 r
fórmula J ind
0 = ; para frecuencias domésticas, conductividades habituales de material biológico,
2
campos alternos del orden de 1mT (que son los máximos campos domésticos a los que podemos estar
sometidos,) y tamaño de la zona de actuación del campo equivalente a un cuerpo humano r ≅ 1 m,
entonces la fórmula mencionada nos da una magnitud de corrientes inducidas J=0 100 mA ∙ m−2 que
entra dentro de los límites inferiores de interferencia con la actividad biológica.

En situaciones menos extremas (con campos magnéticos más moderados, del orden de 1 μT , que
corresponderían a campos ambientales típicos teniendo en cuenta la distancia habitual de separación de
las personas a las fuentes del campo) las corrientes inducidas quedan muy por debajo de los umbrales
de efectos biológicos.

Juan Carlos Cruz Álvarez Página 43 TEMA 4


OTROS EFECTOS ASOCIADOS A CAMPOS MAGNÉTICOS

Ciertos estudios científicos han mostrado que existen cristales (de tamaño nanométrico) puros de
magnetita contenidos dentro del cerebro humano. La magnetita interacciona con el campo magnético,
de forma que se ha argumentado que es posible que estos cristales interaccionasen con los campos
magnéticos externos asociados a las OEM a las que nos vemos expuestos. Sin embargo, hay que tener
en cuenta que haría falta una gran cantidad de cristales de este tipo para vencer, al menos, el efecto del
ruido térmico. Además, si este efecto fuese apreciable los cristales deberían responder al campo
magnético de la Tierra y producir efectos a medida que nos movemos y nuestra orientación respecto al
campo va cambiando. Este efecto sería algo que, en el supuesto caso de que ocurriese, solaparía el
efecto de la componente magnética de las OEM.

Otros autores indican que los campos magnéticos pueden afectar a la recombinación de radicales libres
y aumentar su tiempo de vida. Dado que existen estudios que afirman que los radicales libres tienen un
papel en el daño genético, se argumenta que la incidencia de un campo magnético puede provocar un
aumento de la presencia de los radicales aumentando el posible daño genético. Sin embargo, a efectos
de recombinación de los radicales libres, serían necesarios campos con frecuencia superior a 10 5 Hz,
algo que no ocurre para las OEM a las que estamos expuestos normalmente.

TRANSITORIOS

Cuando alteramos el estado estacionario de un circuito (Ej.: encendiéndolo o apagándolo) u ocurre una
disrrupción eléctrica (como la caída de un rayo) se produce una variación brusca de las fuentes
electromagnéticas “potenciales, corrientes...” hasta que el sistema recupera la estabilidad en su nuevo
estado.
Estos cambios bruscos se pueden analizar en términos de componentes armónicas de distinta
frecuencia, en lo que se llama análisis de Fourier o también análisis espectral. Las características
comunes del análisis armónico de un proceso transitorio son:

 La componente de frecuencia más baja es la que corresponde a ω ≅ τ−1, donde τ es tiempo en


que tarda en llevarse a cabo el proceso de cambio.
 La componente de frecuencia más baja es también la más intensa, siendo la intensidad de los
armónicos decreciente a medida que éstos suben en frecuencia.

Los campos asociados a las diferentes componentes armónicas oscilan a la misma frecuencia que éstas
y son proporcionalmente intensos a sus amplitudes.
Es decir, podemos tener campos oscilando a frecuencias superiores a la que cabría esperar cuando se
producen cambios en las condiciones de un circuito y durante el breve intervalo de tiempo en el que
ocurre la transición.

FENÓMENOS RESONANTES

La resonancia es un fenómeno mediante el cual una acción muy débil y oscilante puede producir un
efecto relativamente grande en un sistema. Para ello tiene que ocurrir que la frecuencia de oscilación
de la perturbación externa sea igual a alguna frecuencia característica del sistema, que se denomina
precisamente frecuencia de resonancia.

Este fenómeno podría ocurrir en la interacción de campos oscilantes con los seres animados. Ya hemos
visto la ínfima influencia de los campos habituales CA sobre el organismo; sin embargo, puesto que
esta acción ocurre con una frecuencia de oscilación determinada, podría estar reforzando la actividad
biológica que tiene lugar con esa misma frecuencia.

Actualmente se están investigando posibles mecanismos resonantes de interacción de CEM de baja


frecuencia con la materia viva. Un mecanismo razonable es una resonancia denominada resonancia
iónica de ciclotrón. Consiste en una resonancia de la trayectoria circular de determinados iones bajo la

Juan Carlos Cruz Álvarez Página 44 TEMA 4


qB
acción del campo magnético terrestre (cuya frecuencia de ciclotrón está dada por fórmula ω c = ),
m
con el campo magnético CA de baja frecuencia (50 - 60 Hz) producido por la electricidad doméstica.

Estos campos CA son muy débiles; sin embargo, si su frecuencia coincide con la frecuencia de
ciclotrón del ion considerado, entonces la acción del campo CA puede verse incrementada. Los iones
de interés en este modelo son aquellos que, por una parte, tienen importancia fisiológica y, por otra,
tienen una relación carga/masa compatible con frecuencias próximas a la de oscilación de la
electricidad doméstica bajo la acción del campo geomagnético. Por ejemplo, el ion Ca2+ presenta
frecuencias de ciclotrón entre 22 y 53 Hz. Algunos investigadores han propuesto este fenómeno como
un mecanismo que facilitaría la migración de los iones por la membrana celular, aunque los datos
experimentales no han confirmado estas expectativas.

A partir de este modelo, se han elaborado otros más complejos basados en el mismo fenómeno de la
resonancia de campos magnéticos CC y CA, entre los que destaca el modelo IPR (del inglés Ion
Parametric Resonance) propuesto originalmente por Lednev. Este modelo produce efectos en sistemas
biológicos para ciertas combinaciones de amplitudes y frecuencias de campos magnéticos CA y CC.
Esta teoría está basada en la asunción de que la interacción de campo magnéticos débiles con los
sistemas biológicos es “anómala” debido al bajo contenido energético de estos campos magnéticos
comparados con las energías térmicas. Lednev argumenta que la teoría muestra cambios en el sistema
energético de los iones, mostrando resonancia y, por tanto, efectos biológicos para ciertos valores de
los campos aplicados.

Se han realizado varios experimentos para encontrar estas respuestas resonantes, siendo los resultados
no concluyentes ya que numerosos experimentos han encontrado resultados negativos y solo unos
pocos han mostrado resultados en situaciones muy concretas. Por ejemplo, cultivos de un tipo de
células denominadas neuritas, en condiciones controladas de determinados campos CA y CC, muestran
algunas anomalías en su crecimiento. En cualquier caso, existen dudas a la hora de aplicar esta teoría
porque aún no se dispone de un nexo adecuado entre las teorías físicas y la biología de la célula. Por
ejemplo, no es conocido como pueden influir las variaciones físicas que indica este modelo, tales como
las variaciones de los niveles energéticos de los iones o de la orientación de sus momentos angulares,
en la química de las proteínas.

La conclusión actual en cuanto a la influencia que pueden tener las OEM de baja frecuencia sobre
sistemas biológicos no está clara debido a que no se conocen los mecanismos que puedan dar lugar a
algún efecto. Las teorías desarrolladas en la actualidad no predicen efectos a priori, no proporcionan
resultados biológicos a partir de la introducción en el modelo de los datos correspondientes a las OEM
aplicadas.

4.2 ESTUDIOS EXPERIMENTALES

4.2.1 ESTUDIOS IN VITRO

Consiste en exponer a células humanas o mamíferas a campo electromagnéticos con el fin de analizar
su posible genotoxicidad. Son idóneos para estudiar los bio-efectos de las ondas. Avanzan en el
conocimiento fundamental de la influencia de a exposición a nivel celular, pero las posibles
conclusiones obtenidas son difícilmente extrapolables en términos de seguridad y salud.

La energía fotónica de las radiaciones de radiofrecuencia es demasiado débil como para romper
uniones químicas y es aceptado que estas radiaciones no dañan directamente a la molécula de ADN.
Los estudios experimentales buscan detectar alteraciones del metabolismo celular que aparezcan
debido a la radiación aplicada.

Durante los años entre 1990 y 2003 se realizaron una serie de investigaciones con células humanas
expuestas a campos de baja frecuencia de los cuales, de 63 trabajos científicos analizados, 26 de ellos
(46 %) no indican ningún aumento en el daño del material genético, mientras que 14 (22 %) sí que
Juan Carlos Cruz Álvarez Página 45 TEMA 4
parecen mostrar algún tipo de daño en las células. Para los otros 20 trabajos (22 %) los resultados no
son concluyentes. En cualquier caso, estas comparaciones de trabajos medidas al peso no son el
método más adecuado de valorar los trabajos científicos. Muchas veces, los protocolos experimentales
o el análisis de los resultados son criticables desde distintos puntos de vista, de manera que algunos
trabajos se pueden considerar más fiables que otros.

Existen algunos datos experimentales, pertenecientes al proyecto REFLEX que indican la posibilidad
de rupturas de ADN tras la exposición a señales típicas de la telefonía móvil. Sin embargo, estos
resultados no han conseguido reproducirse de nuevo en laboratorio.
En un estudio in vitro sobre cultivos de fibroblastos y linfocitos humanos, se observa un aumento del
daño en el ADN de los fibroblastos. De nuevo, el artículo ha sido también criticado ampliamente
debido a la metodología estadística empleada. Un resultado en cierto modo inverso a este observó un
efecto de reparación de ADN en linfocitos humanos. Este estudio es a su vez criticable porque se
realizó en una muestra muy pequeña (10 voluntarios y 10 personas que afirmaban tener
hipersensibilidad a los campos EM) y se refiere a efectos encontrados sólo en algunos de los pacientes.

En general, puede decirse que los estudios no encuentran que las OEM de baja frecuencia tengan algún
efecto cancerígeno por si mismas; sin embargo, sí que pueden ser un factor que aumente el daño del
ADN o que puedan tener una influencia en procesos genotóxicos ya iniciados.
En 2007, se mostró que los campos magnéticos y eléctricos que aplicaron sobre células humanas
aumentaban la capacidad mutagénica, después de aplicar radiación de rayos γ , en un factor
2,7. Otros factores que se han estudiado en este sentido son la influencia de la radicación en muerte
celular programada (apoptosis), en la modulación de la regulación genética, en la cinética del ciclo
celular, etc. Estos trabajos han venido mostrando mayoritariamente una ausencia de evidencia clara de
la influencia de la radiación. No obstante, algunos trabajos publicados recientemente, llevados a cabo
con metodologías avanzadas, han mostrado indicios de respuestas celulares (inducción de
micronúcleos, roturas en el ADN, cambios en la expresión y fosforilación de proteínas) a señales GSM
con intensidades iguales o próximas a los límites internacionales de seguridad. Estos datos, aunque de
interés evidente en el estudio de respuestas biológicas no térmicas, son actualmente considerados de
relevancia limitada para la evaluación precisa y directa de riesgos en humanos expuestos. En cualquier
caso, las investigaciones en este sentido siguen su curso.

4.2.2 ESTUDIOS IN VIVO

Consisten en la experimentación con animales, normalmente ratas y ratones de laboratorio. Tiene la


ventaja de que sus resultados puede que presenten una mayor relación con los posibles efectos sobre la
salud de los humanos que los estudios in vitro. Por el contrario, el control de las condiciones
experimentales y los niveles de exposición es notablemente más complicado, lo cual puede llevar a
resultados o conclusiones equivocadas o no concluyentes.

El estudio in vivo más ambicioso realizado hasta el momento finalizó en 2007 y se denominó
PERFORM A. Este proyecto estaba compuesto de 4 subproyectos con modelos experimentales
distintos cada uno de ellos (PERFORM A1-A4). Los animales eran expuestos a señales típicas de
telefonía móvil 2 horas al día, 5 días a la semana, durante 2 años. Para mejorar la exposición algunos
de los animales estaban embutidos en contenedores de plástico que impedían que se movieran. El
proyecto determinó que no se habían observado evidencias de la influencia de la exposición en 3 de los
4 subproyectos. Solo en uno de ellos se observó una respuesta al investigar los efectos de las
radiofrecuencias sobre las respuestas en tumores mamarios inducidos por un potente producto
carcinógeno. La primera crítica que se puede realizar a este proyecto es la influencia de la limitación
de los movimientos de los animales, que podría influir en los resultados. De hecho, el propio estudio
encontró diferencias entre los animales totalmente inmovilizados y aquellos que estaban simplemente
enjaulados.

Con respecto a este subproyecto mencionado, se han realizado experimentos más detallados bajo esas
condiciones, siendo los resultados no concluyentes. Se considera que los posibles efectos observados

Juan Carlos Cruz Álvarez Página 46 TEMA 4


se deben a la elevada variabilidad biológica del modelo utilizado. No se observa, en cualquier caso, un
efecto de la radiación aplicada en la evolución de los tumores.
Otro tipo de efectos que se están estudiando actualmente son los efectos sobre el sistema nervioso
(cambios en la actividad electroencefalográfica, por ejemplo), así como en efectos sobre el desarrollo
de los animales cuando son expuestos en la fase prenatal.

4.2.3 EFECTOS EN HUMANOS

Se han encontrado una serie de evidencias de posibles efectos en voluntarios de la exposición a señales
de radiofrecuencia en laboratorio sobre el patrón electroencefalográfico, en la estructura del sueño o en
ciertos aspectos cognitivos. No se sabe si estos efectos pueden influir en el comportamiento o la
memoria o si pueden desencadenar patologías. Otro punto de investigación es el efecto de la
exposición sobre la caída de la presión sanguínea. Este efecto no ha sido observado, pero sí que se han
constatado incrementos en el flujo sanguíneo en el oído externo en voluntarios, aunque este efecto se
piensa que es debido a la vaso-dilatación debida a la transmisión de calor producida por el
funcionamiento del teléfono.

Algunas personas afirman que sufren de una serie de síntomas tales como dolor de cabeza, mareo,
fatiga o insomnio que aparecen cuando están expuestas a señales de radiofrecuencia. Los pacientes que
alegan la sintomatología descrita se dice que sufren del Síndrome de Hipersensibilidad
Electromagnética Percibida. De los estudios realizados hasta el momento, que incluyen experimentos
de doble ciego, se concluye que no existe suficiente evidencia sobre una presunta relación causal entre
exposición a CEM y el mencionado síndrome, cuyos síntomas sí pueden ser reales. De hecho, se han
detectado diversos factores que parecen intervenir en esta sintomatología; entre ellos se incluye: medio
poco hidratado, luz parpadeante, factores ergonómicos, enfermedades previas, síndromes neurasténicos
y diversos factores sociales y psicológicos.

4.3 ESTUDIOS EPIDEMIOLÓGICOS

Consisten en el estudio comparado de poblaciones sometidas a distintas dosis de un posible agente


causal. Se analiza el efecto beneficioso/pernicioso del agente, comparando el número de individuos
afectados en cada población. Se realizan principalmente en el campo médico.

La parte fundamental del éxito de este tipo de análisis es la selección de las poblaciones y sus
condiciones experimentales. En muchos casos, es posible diseñar las condiciones de control: por
ejemplo, en el estudio de nuevos medicamentos o sus efectos secundarios, se establecen al menos dos
grupos, cada uno de los cuales contiene una muestra suficientemente diversa de la población (ambos
sexos, diversidad de edades, diversidad social, diversidad de antecedentes sanitarios, etc) y a los que se
les administra respectivamente el producto bajo control y un placebo. Esta diversificación de ambos
grupos es esencial para que podamos asignar la acción del agente al posible efecto observado, sin
temor a que alguna diferencia entre ambas poblaciones imponga un sesgo no deseado e incontrolable a
los resultados.

En el estudio de la influencia de campos y ondas sobre la salud no es posible acotar las condiciones de
control de los grupos, por la razón obvia que nadie quiere exponerse a un agente cuya peligrosidad es
precisamente el objeto del estudio. Alternativamente, los investigadores observan la incidencia de
determinadas enfermedades en grupos distintos “tanto residenciales como ocupacionales”,
caracterizados en principio por diferente exposición a campos/ondas. A partir de las diferencias de
incidencia de estas enfermedades, los investigadores procuran encontrar alguna correlación entre
ambos hechos.

La dificultad de esta forma de proceder es evidente: es casi imposible aislar la influencia de campos y
ondas de muchos otros factores que sí que pueden tener influencia: alimentación, calidad de las aguas,
Juan Carlos Cruz Álvarez Página 47 TEMA 4
contaminantes atmosféricos, hábitos, materiales de construcción de las viviendas, etc. Con lo cual
cualquier correlación se ve muy mediatizada por la incertidumbre en todos estos factores, salvo que
aquella sea muy evidente.

4.3.1 CARCINOGÉNESIS DE LOS CEM DE BAJA FRECUENCIA

La mayoría de los estudios epidemiológicos se centran en una posible correlación entre la incidencia
del cáncer y la exposición a campos magnéticos de baja frecuencia (particularmente los campos
magnéticos CA de frecuencia doméstica 50 Hz producidos por las líneas de transporte eléctrico).

Existen muchas investigaciones donde no se ha observado correlación alguna. Sin embargo, algunos
autores sí han observado una relación con la leucemia infantil. En este caso, se han llegado a los
resultados que se presentan seguidamente, los cuales no corresponden a un estudio concreto, sino a dos
recopilaciones “cada una su correspondiente análisis estadístico” de los datos obtenidos en multitud de
estudios previos. Estas dos recopilaciones fueron realizadas por dos grupos independientes en el año
2000 y presentan prácticamente las mismas conclusiones:

 Todas las viviendas analizadas se encontraban en las cercanías de alguna línea de alta tensión.
En el 95% de las viviendas los campos encontrados fueron inferiores a 0,3 μT.
 Con exposiciones entre 0,3 y 0,4 μT se observa un cierto aumento del número de casos, pero
con una incertidumbre muy grande porque el número de casos es mucho más pequeño (5% de
las viviendas, en comparación con el 95% anterior). En cifras equivalentes a número de casos
por 100.000, este aumento correspondería a 8,5 ± 5 casos por 100.000.

Es decir, la posible mayor incidencia de leucemia tiene una incertidumbre de casi el 60%, lo que llevó
a los autores a advertir que la asociación observada pudiera ser producto de un artefacto de selección
de las muestras. Sin embargo, en los últimos años se ha publicado una investigación23 que confirma el
resultado de la leucemia infantil, relacionando la enfermedad con la distancia de las viviendas a las
líneas de alta tensión. En el estudio se expone que niños que viven a una distancia entre 200m de las
líneas de alta tensión tienen un incremento del riesgo relativo de contraer leucemia del 69%, mientras
que aquellos que viven entre 200 y 600m tienen un incremento del riesgo del 29%.
Como siempre, estos estudios deben ser tenidos en cuenta, pero todavía necesitan de mayor
confirmación empírica.

Una reciente revisión de los resultados hasta el momento sobre la relación entre las CEM de baja
frecuencia y la leucemia infantil confirma el patrón sistemático entre ambos eventos. En esta revisión
de los artículos sobre el tema publicados hasta el momento, los autores confirman que aparece un
incremento de los casos de leucemia para campos mayores que 0,3 μT o incluso menores. En el
artículo se recomienda, por precaución, revisar los límites actuales de la intensidad de los campos a los
que está sometida la población. Sin embargo, y como es habitual en los estudios epidemiológicos,
puede criticarse ampliamente la metodología empleada debido a que las posibles variables no
conocidas pueden equivocar la interpretación de los resultados.

4.3.2 CARCINOGÉNESIS DE LAS OEM DE LA TELEFONÍA MÓVIL

Se estudia la incidencia de tumores cerebrales y del neuroma acústico (tumor benigno) en usuarios de
teléfonos móviles (descartando la influencia de las antenas fijas).
En general, estas investigaciones concluyen que los datos no muestran una relación causal entre el uso
de teléfonos móviles GSM y el desarrollo de los mencionados tumores; aunque estas conclusiones se
consideran parciales debida a la relativa corta vida de esta tecnología.

Juan Carlos Cruz Álvarez Página 48 TEMA 4


Si embargo, algunos estudios han encontrado que el uso prolongado y diario de teléfonos móviles
durante un periodo de más de 10 años está relacionado con el aumento del riesgo de sufrir tumores
cerebrales, incluyendo neuroma y glioma, especialmente en el lado de uso habitual del teléfono. La
potencial relevancia de estos resultados es difícil de evaluar actualmente, ya que, aunque la muestra
poblacional sea relativamente amplia, la potencia estadística de los datos es pobre. La metodología
empleada ha sido muy criticada ya que si se emplean otro tipo de cálculos estadísticos los resultados
cambian.
La IARC coordina un estudio epidemiológico que emplea un protocolo único y en el que participan 48
investigadores de 13 países, denominado INTERPHONE cuyos resultados definitivos se hicieron
públicos en el año 2010. Este proyecto comenzó en el año 2000 y en el mismo participaron 14.000
personas que incluyen encuestas sobre los hábitos de consumo de teléfono móvil de 2.708 personas
con glioma y 2.409 con meningioma. Este tipo de modelos caso-control siempre pueden presentar
sesgos, pero los autores también han presentado una metodología muy específica para controlarlo. Los
resultados finales del proyecto, de nuevo, son “no concluyente” ya que no se observa una relación clara
entre el uso del móvil y los casos estudiados.

De nuevo, existen críticas a la metodología empleada por este estudio. Entre los argumentos
esgrimidos se encuentra que el uso de los móviles hoy en día es mucho mayor que hace 10 años, de
forma que una estadística a sólo los últimos 10 años no es adecuada. Se reconoce desde el mismo
estudio INTERPHONE que el periodo de exposición para todos los sujetos evaluados es demasiado
corto como para esperar una posible relación con el cáncer. Es más, ninguno de los cancerígenos
actuales (incluido el tabaco) pueden ser identificados como causa de aumento del riesgo cancerígeno
en los primeros 10 años. Incluso, y salvo ciertos casos específicos, la radiación ionizante, que se sabe
que es causa de tumores cerebrales, no tiene efectos claros entre los 10 a 20 años después de la primera
exposición.

Tal vez la primera prueba clara de que no existe relación entre los tumores cerebrales y los móviles
venga dado por el estudio recientemente publicado (27 de julio de 2011) en una de las revistas más
prestigiosas en la lucha contra el cáncer. En un editorial anexo a la misma los autores afirman que: “De
acuerdo con prácticamente todos los estudios realizados en adultos e expuestos a las ondas de
radiofrecuencia, no existen pruebas convincentes de que los niños que usan teléfonos celulares tengan
un mayor riesgo de desarrollar un tumor cerebral que los niños que no lo utilizan”. Un muy reciente
estudio del Instituto de Salud Pública de Noruega (publicado en septiembre de 2012) descarta que los
campos electromagnéticos de baja frecuencia tengan efectos nocivos en humanos. El comité designado
por este Instituto ha revisado la bibliografía científica de los últimos años y ha concluido que no existe
ninguna evidencia acerca de efectos nocivos en humanos, aunque recomienda prudencia en el uso de
los distintos aparatos (cumplir las normativas vigentes).

En la actualidad hay en marcha nuevos experimentos y proyectos para aclarar un poco más los puntos
tratados aquí, tanto con experimentos in vitro como empleando estudios epidemiológicos. En este
último campo destaca el proyecto MOBI-KIDS que fue lanzado en 2009 en 13 países para investigar el
posible efecto de las radiofrecuencias en tumores cerebrales en niños. Dado que los tumores cerebrales
en niños han aumentado en los últimos años, los organizadores del estudio esperan poder reclutar a
2.000 pacientes para realizar el mismo. Otro proyecto similar es COSMOS, lanzado en Abril de 2010,
que pretende estudiar el efecto de los teléfonos móviles mediante el seguimiento a 250.000 personas en
5 países europeos durante 30 años.

4.4 NORMATIVA

Dada la posibilidad de que los CEM de baja frecuencia tengan algún efecto sobre la salud de las
personas, la Agencia Internacional para la Investigación del Cáncer (IARC), perteneciente a la OMS,
ha decidido admitir cautelarmente los CEM de baja frecuencia, así como los campos electromagnéticos
de radiofrecuencia (incluyendo la telefonía móvil) como posible cancerígeno de tipo 2B, donde se
encuentran 249 agentes, entre ellos el café.

Juan Carlos Cruz Álvarez Página 49 TEMA 4


Conviene aquí mencionar que un producto habitualmente empleado por la población, como son las
lámparas de bronceado hasta hace poco han sido declaradas por la IARC como “probable cancerígeno
para humanos” (tipo 2A). Sin embargo, una reciente actualización a elevado a estas lámparas al grupo
1, directamente cancerígeno, como lo son el tabaco o la radiación solar, entre otros muchos. También
se ha incluido recientemente en el grupo 2A a las carnes rojas y en el grupo 1 a las carnes procesadas.
En definitiva, la normativa actual considera que la exposición a CEM y OEM no tiene efectos
acumulativos, al contrario que las radiaciones ionizantes. Dicho en otras palabras, el posible daño
depende de la potencia absorbida en cada momento, no de la energía total. Los efectos comprobados
como perjudiciales para los humanos son los efectos térmicos superiores a un SAR de 4W· kg-1.

Los límites de exposición aceptados hoy en día se basan principalmente en una recomendación del año
1998 del ICNIRP. En esta recomendación se fijan las restricciones básicas (en términos SAR o J) y
límites derivados (E, B, S) y se toma como tiempo promedio para las medidas 6 minutos. Esta
recomendación incluye un factor de seguridad de:
- 10% de la restricción básica para exposiciones agudas (ambientes ocupacionales)
- 2% de la restricción básica para público general (ambientes residenciales)

Esta recomendación del ICNIRP ha dado lugar a una legislación variada tanto a nivel nacional como a
nivel europeo. En estos momentos está vigente en España el Real Decreto 1066/2001, por el que se
aprueba el Reglamento que establece condiciones de protección del dominio público radioeléctrico,
restricciones a las emisiones radioeléctricas y medidas de protección sanitaria frente a emisiones
radioeléctricas.

En este decreto se establece que los Servicios Técnicos del MITyC elaborarán planes de inspección
para comprobar que las estaciones emisoras y, entre ellas, las estaciones base de telefonía móvil,
cumplen lo establecido en el Reglamento. Por ejemplo, en el informe publicado en 2008, que
corresponde a las actuaciones llevadas a cabo en 2007, se informa de que las antenas de telefonía
móvil instaladas en España son muy débiles, en magnitudes de centenas o miles de veces inferiores a
los valores de referencia en las bandas UMTS (955 μW/cm2) y GSM (450μW/cm2)

El Real Decreto 1066/2001 además establece que habría que minimizar la exposición en los llamadas
zonas, áreas o lugares sensibles, que son aquellos que por su naturaleza se considera que existen una
mayor percepción del riesgo en la exposición. Entre los lugares sensibles se encuentran guarderías,
centros de educación infantil, centros de salud, hospitales, parques públicos, etc. En el informe del
MICyT de 2007, se proporcionan unos resultados que oscilan entre un máximo de 2,320 μW/cm2 en
Madrid y un mínimo de 0,024 μW/cm2 en Melilla. La media del nivel nacional en 2007 es de 0,452 μ
W/cm2. Dado que el nivel de referencia es de 450 μW/cm2 para la frecuencia de 900 MHz, vemos que
las mediciones muestran que la exposición a la que está sometida la población es muy baja.

En el contexto europeo, se publica en el año 2004 la Directiva 2004/40/CE del Parlamento y Consejo
Europeos, de 29 de abril sobre las disposiciones mínimas de seguridad y salud relativas a la exposición
de los trabajadores a los riesgos derivados de los campos electromagnéticos, que responde a las
recomendaciones del ICNIRP de 1998. Estas recomendaciones son menos estrictas los “niveles de
referencia” del RD 1066/2001.

Juan Carlos Cruz Álvarez Página 50 TEMA 4


TEMA 5. VIBRACIONES Y SONIDO

5.1 OSCILACIONES Y VIBRACIONES

Un sistema mecánico en equilibrio estable, si sufre una perturbación que lo aparte del equilibrio, se
mueve de tal forma que tiende a restaurarlo; ese movimiento, por el principio de conservación de la
energía, hace pasar al sistema, a través del equilibrio, a otro estado de desequilibrio produciéndose el
fenómeno de la oscilación. Si el sistema tiene una manera de disipar la energía trasmitida por la
perturbación original, entonces volverá a su situación de equilibrio estático en algún momento.

5.1.1 OSCILACIÓN EN SISTEMAS PUNTUALES: EL RESORTE

El sistema más sencillo es el resorte unidimensional, el medio carece de masa y su intervención se


concreta en la acción sobre el móvil real.

ECUACIÓN DE MOVIMIENTO
k: constante de Hooke
F=−k x proporciona la fuerza elástica de recuperación cuando
se establece una deformación

Aplicando la 2ª Ley de Newton:

d2 x d 2 x −k k d2 x
m =−kx ; = x ; =ω20 ; 2
=−ω 0 x
dt2 d t2 m m d t2
(5.1) (5.2) (5.3)

El parámetro ω0 se conoce como frecuencia propia del oscilador.

Ecuación de movimiento de la onda:

x (t)= A cos(ω 0 t +φ) k ω0 1


(5.4)
ω=
√ m
; f=

; T=
f

que corresponde a un movimiento armónico simple (MAS) de frecuencia ω 0, donde las constantes A y
φ quedan determinadas por las condiciones iniciales del problema. A no es más que la máxima
amplitud del movimiento, esto es, el máximo desplazamiento del móvil respecto a su posición de
equilibrio.

ENERGÍA

La energía mecánica del sistema viene dada por la suma de la energía potencial E p y la energía cinética
Ek; esta última depende sólo de la velocidad y masa del móvil:

1
Ek = m v 2
2

Ecuación de velocidad de la onda:

v=− A ω 0 sen(ω 0 t +φ) 1


Ek = m A2 ω20 sen2 (ω 0 t +φ)
2

La energía potencial sólo depende del desplazamiento y de la rigidez del resorte; por tanto, depende
únicamente de circunstancias que se dan en el resorte mismo:

Juan Carlos Cruz Álvarez Página 51 TEMA 5


1 1
E p = k x2 = k A 2 cos 2 (ω 0 t +φ)
2 2

Y la energía total es la suma de ambos:

1
ET = m A 2 ω 20
2

La energía mecánica total se mantiene constante (por el principio de conservación de la energía) y se


va distribuyendo entre energía potencial y cinética en las distintas fases del ciclo.

OSCILACIONES EN MEDIO VISCOSO

El móvil se desplaza en un medio con rozamiento viscoso (agua o aire). Este rozamiento se puede
describir mediante una fuerza que actúa en dirección opuesta a la velocidad del móvil; en el límite de
flujo laminar esta fuerza es proporcional a la propia celeridad de la partícula:

dx b: coeficiente de rozamiento viscoso


F vis=−b depende del medio en el que se mueve el objeto, y de
dt su tamaño y forma geométrica

d2 x 2
A la ecuación de movimiento 2
=−ω 0 x , hay que añadir esta fuerza de rozamiento:
dt

d2 x dx
m 2
=−b −kx
dt dt
(5.5)
2
d x dx 2
2
=−γ −ω 0 x γ= b/m: coeficiente de amortiguamiento [s-1]
dt dt
(5.6)

Si el amortiguamiento es pequeño (γ < 2ω0), el movimiento oscilatorio se ve modulado por una


exponencial decreciente. Se denomina solución oscilatoria amortiguada:
− γt
2
x ( t )= A e cos ( ωt+ φ )

donde:

2π 2π
γ2 ; T '= =

ω= ω20 −
4
ω
√ ω 20−
γ2
4

T ’= pseudoperiodo: tiempo que transcurre entre dos máximos consecutivos de la señal.

El prefijo pseudo viene del hecho que esta señal no es periódica y por tanto no se puede hablar en
propiedad de un “periodo”; pero se parece al periodo de una señal oscilatoria como la que surge de la
fórmula 5.4.

Si el amortiguamiento es grande (γ > 2ω0), entonces decimos que el movimiento está


sobreamortiguado y no se llega a producir ninguna oscilación. El móvil alcanza asintóticamente la
condición de equilibrio sin sobrepasarla como en el caso oscilatorio. El amortiguamiento viscoso se
utiliza para proteger de vibraciones (amortiguadores de automóviles).

Juan Carlos Cruz Álvarez Página 52 TEMA 5


En situación de amortiguamiento la energía mecánica no se conserva porque parte de la misma se
cede al medio que causa el amortiguamiento.

OSCILACIONES FORZADAS
El móvil no oscila libremente porque se le aplica una fuerza exterior al sistema (F) aparte de la fuerza
interna de recuperación del resorte (ley de Hooke) y la fuerza de rozamiento viscoso:
d2 x dx
m 2 =−b −kx+ F
dt dt

Cuando F es función del tiempo y periódica:

F ( t )=F 0 cos ⁡(ωt)

La ecuación de movimiento se puede expresar:

d2 x dx 2 F0
2
=−γ −ω 0 x + cos ⁡( ωt)
dt dt m
(5.7)

Solución estacionaria: solución que describe el comportamiento del sistema cuando ha transcurrido un
tiempo suficientemente largo

x ( t )= Acos( ωt−δ)

Amplitud:
F 0 /m
A= 2 2 2 2
√( ω −ω ) + γ
0 ω2

Cuanto más parecida sea la frecuencia de la fuerza externa (ω) y la frecuencia propia del oscilador
-también llamada frecuencia de resonancia- (ω0), mayor será la amplitud.

Si el amortiguamiento (γ) es muy pequeño (≈ 0) y la frecuencia externa es igual que la propia del
oscilador, la amplitud es infinita, a ese fenómeno se le llama resonancia.

5.1.2 OSCILACIONES EN MEDIOS EXTENSOS: LA CUERDA VIBRANTE

Las oscilaciones en la cuerda se pueden entender como la interferencia de dos ondas de vibración
propagándose en direcciones opuestas.

ECUACIÓN DE MOVIMIENTO

Si la cuerda descansa en el eje x, el desplazamiento vertical es sobre el eje y, de la forma y (x,t):


π
( )
y ( x . t ) =Asen x cos ⁡( ω0 t+ φ)
L

donde la fase φ es arbitraria y:


π F
ω 0=
L μ√ (5.8)
se denomina frecuencia del modo fundamental o del primer armónico. El desplazamiento es nulo en x
= 0 y en x = L, al estar anclada en los extremos de la cuerda.
Hay más soluciones, infinitas; pero todas ellas tienen la forma:
Juan Carlos Cruz Álvarez Página 53 TEMA 5
y n ( x , t )=A n sen ( nπL x) cos ⁡¿
(5.9)
donde n es un número entero (n = 1,2,3,4,...). Cada una de estas soluciones y n se llama modo de
vibración o también armónico, por eso el modo fundamental se llama primer armónico.

La oscilación de cada modo de vibración presenta n vientres (zonas de máxima amplitud) y n-1
nodos (zonas estáticas, excluyendo los extremos).

Frecuencias a las que vibran los modos: ω n = n ω0. Es decir, las frecuencias de los distintos
armónicos son múltiplos enteros de la frecuencia fundamental.

La cuerda puede vibrar en cualquier combinación de modos, cualquier combinación de amplitudes


de modo An, es una forma válida de vibración de la cuerda.

RELACIÓN CON EL MODO RESORTE

Las dos frecuencias dependen del cociente entre la rigidez y la inercia del sistema; recordemos que, en
el resorte, la rigidez está representada por la constante de Hooke k y la inercia por la masa m. Pues
ahora, en el caso de la cuerda, la tensión F juega el rol de la constante de Hooke y la densidad lineal de
masa de la cuerda sería lo que en el resorte es la masa m.

También significa que una cuerda tensa sujeta por sus extremos presenta múltiples frecuencias de
resonancia, es decir que del mismo modo que el resorte unidimensional, una fuerza externa periódica
tendrá más éxito forzando la oscilación de la cuerda si su frecuencia coincide con la frecuencia de
alguno de los modos de ésta.

Aunque no se ha incluido en la fórmula por simplicidad, la oscilación de la cuerda también presenta el


fenómeno de amortiguamiento de forma muy similar al del resorte, y que cualquiera que haya jugado
con un instrumento de cuerda ha podido verificar: tras excitar la vibración en una cuerda ésta va
amortiguando poco a poco su movimiento por el rozamiento de la cuerda con los puntos de apoyo y,
sobre todo, por ceder parte de su energía al medio que la rodea (el aire) que transporta la vibración en
forma de ondas

5.2 PROPAGACIÓN DE VIBRACIONES EN MEDIOS MATERIALES

La propagación se produce por medio de ondas, llamadas ondas elásticas y acústicas. En una onda
acústica lo que se propaga es algún tipo de compresión o desplazamiento del medio. La forma general
de una onda propagándose en una dirección es:

ξ ( x , t ) =f (ct−x)
(5.10)
La dependencia de la perturbación (representada por la letra ξ) en (x; t) es tal que puede ser
representada por cualquier función de una variable f (z) donde z aglutina a (x,t) como z = ct - x.

La velocidad (c) tiene una expresión distinta según el medio y tipo de onda que tratemos,
genéricamente:

K
c=
√ ρ
(5.11)
K:
ρ:
compresibilidad del medio (rigidez)
densidad de masa (inercia)

5.2.1 TIPOS DE ONDAS ELÁSTICAS

Juan Carlos Cruz Álvarez Página 54 TEMA 5


Las ondas acústicas pueden ser:
 Transversales: (Como las OEM) si la magnitud que se propaga es una deformación
perpendicular a la dirección de la onda (las ondas en un estanque).
 Longitudinales: si lo que se propaga es una deformación en la misma dirección de propagación
(sonido del aire).

Según la dimensionalidad de la onda pueden ser:

ONDAS UNIDIMENSIONALES
Son ondas transversales que se dan en un medio unidimensional, como una cuerda. (manguera de agua
cuando se propaga la joroba al paso del agua de forma brusca). Si está sujeto por ambos extremos los
resultados expuestos anteriormente se pueden obtener a partir del análisis de ondas viajeras que
interfieren con las ondas reflejadas en una cuerda sujeta por los extremos.

Velocidad de una onda en una cuerda:


F

ONDAS SUPERFICIALES
c=
√ μ

Se dan en la superficie frontera de dos medios y son siempre transversales (olas marinas).

También se dan ondas superficiales en la frontera de sólidos con fluidos, las más importantes son las
ondas L y ondas Raleigh (ondas sísmicas de superficie en terremotos).

ONDAS EN SÓLIDOS
Pueden ser longitudinales (también llamadas ondas P) y transversales (también llamadas ondas S).
Ondas longitudinales:
Y Y: módulo de Young
c=
ρ √ (5.12)
Mide la elasticidad en términos de cociente entre el
esfuerzo de compresión que se aplica y a deformación
que se produce en el sólido [Pa]

Velocidad de las ondas P (más rápidas, llamadas también ondas primarias):

4
c=

K+ G
ρ
3

(5.13)
K: módulo de compresibilidad [Pa]
G: módulo de cizalladura [Pa]

Velocidad de las ondas S (llamadas también ondas secundarias):

G
c=
√ ρ
(5.14)
G: módulo de cizalladura [Pa]
cociente entre el esfuerzo de corte
y la deformación obtenida

ONDAS EN FLUIDOS
Las ondas en fluidos (líquidos y gases) son longitudinales, pues los fluidos no soportan esfuerzos de
corte.

Velocidad:
K
c=

ρ
(5.15)
K: módulo de compresibilidad [Pa] K=−V
∂P
∂V
(5.16)

Juan Carlos Cruz Álvarez Página 55 TEMA 5


K es proporcional al cambio de la presión (∂ P) necesaria para cambiar el volumen del material en una
cantidad ∂ V .

El módulo de compresibilidad del agua oscila entre 2,2 GPa (2,2x10 9Pa) para el agua pura y 2,5 GPa
para el agua marina. Las velocidades típicas de las ondas elásticas en el agua son de 1500 m/s en agua
dulce y 1560 m/s en agua marina.

Tanto en fluidos como en sólidos se define la Impedancia acústica:


P
z=ρc [Pa m-1] ó [kg m-2 s-1] = [rayl] ρ=nM = M
RT
(5.17)

5.3 ONDAS ELÁSTICAS EN EL ARIE: EL SONIDO

El sonido abarca las ondas elásticas que el ser humano es capaz de oír (en un rango entre 20 Hz y 20
kHz).

En física, el concepto sonido se ha generalizado a todo lo relacionado con las ondas elásticas en
cualquier medio, por eso las ondas elásticas se denominan también ondas acústicas.

FUENTES DE SONIDO
Los objetos en vibración en el seno del aire transmiten esa vibración a éste en forma de ondas
acústicas.

Si se trata de vibraciones periódicas, la onda que se transmite al aire conserva la misma frecuencia que
la vibración fuente.

5.3.1 VELOCIDAD DEL SONIDO

En el proceso de propagación de la onda sonora, las compresiones y rarificaciones del medio se


verifican de forma adiabática, conservando la entropía. Bajo esta circunstancias, la presión y el
volumen de un gas están conectados:

P V γ =B
(5.18)
Donde B es una constante y γ es el coeficiente de dilatación adiabática cuyo valor es:

Cp
γ=
Cv
esto es, el cociente adimensional entre la capacidad calorífica del gas a presión constante y la
capacidad calorífica del gas a volumen constante. Para gases compuestos por moléculas diatómicas,
como el aire, este valor es:

γ =1,4
(5.19)
Aplicando la ecuación 5.16 y teniendo en cuenta la dependencia de P con V que nos da la expresión
5.18, K será:

K=γP
(5.20)
Si consideramos al aire un gas ideal, entonces la ecuación de estado de los gases ideales nos da la
relación entre la presión, densidad y temperatura del aire:

P=nRT
(5.21)
Juan Carlos Cruz Álvarez Página 56 TEMA 5
donde R es la constante molar de los gases, cuyo valor en el SI es 8,314 J mol -1 K-1, y n es la densidad
molar del gas.

Por otro lado, la densidad de un gas no es más que:

ρ=nM
(5.22)

donde M es la masa molar expresada en kgmol-1. Introduciendo las expresiones 5.20, 5.21 y 5.22 en
5.15 obtenemos la velocidad del sonido en un gas, que es directamente proporcional a su masa molar y
a su temperatura:

γRT
c=
√ M
(5.23)
γ: coeficiente de dilatación adiabática (gases diatómicos = 1,4)
R: constante molar de los gases
M: masa molar expresada en kg.mol-1

5.3.2 ONDAS ACÚSTICAS

Las ondas acústicas en el aire son ondas longitudinales de presión, el medio sufre compresiones y
rarefacciones un su seno, pero sin que la materia sea transportada.

La presión en cualquier punto del medio es la suma de la presión promedio más la presión perturbada:

P ( x , t )=f (ct−x)
(5.24)

Velocidad de arrastre: es la velocidad a la que es sometida una partícula suspendida en el medio en el


punto x y momento t. Cuando a la partícula testigo llega la zona de compresión, ésta se acelera en el
sentido de la propagación, y cuando le llega la zona de rarefacción lo hace en sentido opuesto. Esta
velocidad tiene un promedio nulo puesto que la onda no transporta material neto:

P(x ,t )
v ( x ,t )=
z z: impedancia acústica
(5.25)

Es importante no confundir la velocidad de arrastre, que es una propiedad de cada punto del medio que
varía con el tiempo, con el de velocidad de propagación de la onda, que es una propiedad global del
medio, constante en el tiempo.

ONDAS ACÚSTICAS PLANAS

Es una forma de propagación periódica en el espacio y en el tiempo, con un frente de onda plano.
Forma de la función:

P ( x , t )=P0 cos ( 2λπ (ct −x ))


(5.26)
la cual representa una onda de longitud de onda 𝝀 que se propaga en la dirección x en sentido positivo.
Esta expresión se puede escribir de una forma más familiar, como la que usamos para las OEM
P ( x , t )=P0 cos ( ωt−kx )
(5.27)
Donde “k” es la constante de propagación o número de onda y ωson radianes por segundo

Velocidad de arrastre:
Juan Carlos Cruz Álvarez Página 57 TEMA 5
v ( x ,t )=v 0 cos ( ωt−kx )
(5.28)

Siendo su amplitud:
P0
v 0=
z
(5.29)

Intensidad de la onda (flujo de potencia -potencia por unidad de área-), depende de la amplitud de
oscilación de la presión al cuadrado: (se mide en W/m2)

1 2
I =⟨ P ( x , t ) v ( x , t ) ⟩ = ⟨ P ( x , t )⟩
z

P20
I=
2z
(5.30)
La intensidad depende de la amplitud de oscilación de la presión al cuadrado, de forma similar a cómo
la intensidad de la OEM depende de la amplitud de los campos al cuadrado.

ONDAS ACÚSTICAS ESFÉRICAS

Para describir mejor las ondas acústicas que emanan de una fuente puntual usamos el modelo de ondas
esféricas, donde la amplitud depende de la distancia r como 1/r (la intensidad sonora disminuye con la
distancia como 1/r2):

k
P0 (r )=
r
(5.31)

5.3.3 TRANSMISIÓN Y REFLEXIÓN DE ONDAS ACÚSTICAS

Cuando una onda cambia de medio conserva la misma


frecuencia y su constante de propagación se modifica en
función de la velocidad del sonido en el medio.
ω
k=
c
(5.32)

Si la onda acústica incide de forma perpendicular a la frontera


de separación entre los dos medios:

Onda incidente: A cos ( ωt −kx )


Onda reflejada: R cos ( ωt +kx )
Onda transmitida: T cos ( ωt−kx )

En la interfaz (tomada como origen de coordenadas, x = 0) se tiene que cumplir:

 Las presiones a ambos lados de la interfaz tienen que ser iguales en todo momento, para ello las
amplitudes tienen que cumplir:

A+ R=T

Juan Carlos Cruz Álvarez Página 58 TEMA 5


(5.33)

 Las velocidades de arrastre tienen que ser las mismas a ambos lados de la interfaz:

A R T
− =
z1 z 1 z 2
(5.34)
Uniendo las dos ecuaciones:

z 2−z 1 2 z2
R=A ; T=A
z2 + z1 z2 + z1
(5.35)

Si z2 < z1, la onda reflejada cambia de signo respecto a la onda incidente (si llega a la pared en fase
de compresión, la onda reflejada empieza desde el estado opuesto de rarefacción).

Si z2 > z1, situación normal cuando el primer medio es el aire y el segundo un sólido, la onda
reflejada está en la misma fase que la onda incidente.

Coeficiente de transmisión: cociente entre la intensidad de la onda transmitida y la intensidad de la


onda incidente:

T 2 /2 z 2 z 1 T 2 4 z2 z1
T= =
A 2 /2 z 1 z 2 A ( ) ; T=
( z 2+ z 1 )
2

(5.36)
Coeficiente de reflexión: cociente entre la intensidad de la onda reflejada y la intensidad de la onda
incidente:

R2 /2 z 1 2 2
R z 2−z 1
R= 2
A /2 z 1 A
= ( ) ; R= ( z 2+ z1 )
(5.37)

Se conserva la energía. La energía que porta la onda incidente se reparte entre la onda reflejada y la
onda transmitida: R+T =1

Cuanto más parecida sea la impedancia de los dos medios, menor reflectividad y más transmitividad
tiene la frontera entre ambos (en el límite z1 = z2, R = 0 y T = 1).

Cuanto mayor es la diferencia de impedancias, mayor es la reflectividad y menor la transmitividad.

La reflectividad y transmitividad de la frontera no cambia al pasar incidir desde el otro medio.

TRANSMISIÓN A TRAVÉS DE UN TABIQUE

Transmisión de sonido a través de un tabique sólido de grosor L.

Tenemos dos fronteras: medio 1 (aire) → medio 2 (sólido) → medio 1, por lo tanto: c1 « c2 y z1 « z2.

Si suponemos que no hay absorción en el medio y que se cumple c1 « c2 y z1 « z2, tenemos la expresión
2
2 z1
T≅
( z 2 sin ( k 2 L ) )
Juan Carlos Cruz Álvarez Página 59 TEMA 5
Si la pared del tabique es pequeña comparada con la longitud de onda L << 𝝀2, entonces sen (k2L) ≈
k2L:

2 z1 2 z = ρ.c
T≅ ( )
ρ2 ωL
ki = /ci

(5.38)

El tabique transmite con mayor facilidad ondas de baja frecuencia que ondas de alta frecuencia, los
sonidos graves pasan con más facilidad que los agudos a través de un
tabique.

INCIDENCIA OBLÍCUA
Las ondas acústicas se comportan exactamente igual que los rayos de
luz en la frontera de dos medios.

Las ondas acústicas cumplen las siguientes condiciones en la frontera


de dos medios:

 Ley de reflexión. Los ángulos de incidencia y reflexión son iguales.

θi = θr
(5.39)
 Ley de refracción. Los ángulos de incidencia y transmisión están relacionados con las
velocidades de propagación en ambos medios de la siguiente manera:

sen ( θ i ) sen ( θt )
=
c1 c2
(5.40)

 Ángulo límite o de reflexión total. Cuando una onda acústica viaja desde el medio de menor
velocidad hacia el de mayor, hay un ángulo de incidencia (ángulo límite θ L) a partir del cual no
existe onda transmitida y sólo hay reflexión:

c1
sen ( θ L ) =
c2
(5.41)
ABSORCIÓN

Las ondas acústicas también presentan atenuación por pérdida de energía al viajar por el medio.

−x P0: amplitud de la onda transmitida justo al pasar la barrera


P ( x , t )=P0 e δ cos ( ωt−kx ) δ: distancia de penetración (lo que avanza la onda hasta
amortiguarse significativamente). Cuanto más pequeño más
(5.42) absorbente es el medio

El valor de la distancia de penetración (δ) o del coeficiente de atenuación (α = 1/ δ) de los distintos


medios depende de los mecanismos precisos por los que la onda cede su energía al medio, por ejemplo,
la heterogeneidad del medio favorece la absorción de sonidos y vibraciones.

En un medio con absorción, la intensidad sonora se ve corregida por un factor:

e−αr α = 1/ δ : coeficiente de atenuación del material [m-1]

Juan Carlos Cruz Álvarez Página 60 TEMA 5


La intensidad de la onda también disminuye según nos adentramos en el medio:

P20 −2δ x
I (x)= e
2z
(5.43)
Supongamos un medio acústicamente absorbente con un cierto grosor L y una onda acústica plana con
una intensidad Io que incide sobre él. Inicialmente, la intensidad acústica que ha pasado la barrera
viene dada por IoT donde la transmitancia T viene dada por la fórmula 5.38. Cuando tenemos en
cuenta la absorción, su intensidad será IoT ' 0, donde T ' es la transmitancia total de la barrera dada por,
−2 L
T ' =T e δ

Podemos definir por tanto un coeficiente de absorción, A, de la barrera como:

A=T −T ' =T ¿
(5.44)

El valor de la distancia de penetración δ “o del coeficiente de atenuación, α” de los distintos medios


depende de los mecanismos precisos por los cuales la onda cede su energía al medio. A priori, hay
ciertos factores que favorecen que un medio absorba más eficazmente la energía acústica. Por ejemplo:
heterogeneidad, es decir, que sea compuesto por diversos materiales. Que sea un medio disgregado,
como, por ejemplo, la arena, que es un gran absorbente de sonido y vibraciones. O bien que sea una
mezcla de un medio homogéneo con otro disgregado, con una interacción entre ambos muy poco
rígida. Por ejemplo, la niebla, que es una mezcla de aire con gotitas de agua en suspensión y que
absorbe el sonido mucho más eficazmente que el aire puro.

Para dar un ejemplo concreto: el aire puro y seco prácticamente no atenúa el sonido. Pero el aire
húmedo, aunque sea parcialmente, presenta algo de atenuación. Las siguientes fórmulas son una
aproximación experimental de cómo es el coeficiente de atenuación para el aire con un 50% de
humedad relativa:

α ≅ 4 x 10−7 f si100 Hz< f <1 kHz

α ≅ 3 x 10− 4+ 10−10 f 2 si 1 kHz< f <100 kHz

(5.45)

Donde f está en hercios y α esta en m-1

Juan Carlos Cruz Álvarez Página 61 TEMA 5


TEMA 6. EL RUIDO Y SU CARACTERIZACIÓN

Se considera entonces que el ruido es aquel sonido no deseado. Es una emisión de energía originada
por un fenómeno vibratorio, detectada por el oído y provoca una sensación de molestia. El ruido
corresponde generalmente a una variación aleatoria de la presión a lo largo del tiempo. La mayoría de
los ruidos que escuchamos están formados por más de una frecuencia.

El ruido es, por tanto, un sonido complejo que puede ser estudiado a partir de la frecuencia de los
sonidos puros que lo componen y por la amplitud de la presión acústica correspondiente a cada una de
esas frecuencias. En el caso de que las frecuencias que componen el ruido sean demasiadas, se realiza
una clasificación en bandas de frecuencia contiguas. De esta forma, se define un espectro frecuencial
del ruido. Este espectro de frecuencias, correspondiente a un ruido variará de forma aleatoria a lo largo
del tiempo, a diferencia de otros sonidos complejos, como los acordes musicales, que siguen una ley de
variación precisa.

Existen multitud de posibilidades y clasificaciones para diferenciar unos ruidos de otros: su


composición en frecuencias, su intensidad, su variación temporal, su cadencia y ritmo, etc.

6.1 ANÁLISIS DE FRECUENCIAS

Tono puro: sonido cuyas variaciones de presión dependen de una sola frecuencia. Si la frecuencia es
baja, el tono es grave y si es alta, el tono es agudo.

El oído humano reacciona de manera diferente según las frecuencias, estando el intervalo audible de
frecuencias comprendido entre los 20 y los 20.000 Hz (20Hz-20kHz).

Para realizar un análisis de frecuencias debemos descomponer un sonido real (formado por varias
ondas de distintas frecuencias) en grupos de tonos puros. Esta técnica es muy útil para seleccionar
protectores auditivos adecuados.

Para realizar un análisis de frecuencias se descompone este intervalo en bandas y se determina el nivel
de presión sonora correspondiente a cada una de las bandas. Estas bandas pueden ser:

 De ancho constante tal que ∆ f =f 2−f 1=cte .


 De ancho proporcional a la frecuencia central ∆ f /fc=cte , donde f c es que
es la media geométrica de las dos frecuencias extremas:

f c =√ f 1 f 2

El método más habitual para realizar un análisis de frecuencias es dividir la señal en bandas de ancho
proporcional a la frecuencia central, midiendo con unos filtros que dejarán pasar el ruido entre unas
frecuencias mínima y máxima determinadas. Estos filtros eliminarán el ruido en las frecuencias
superiores o inferiores a estas frecuencias. Se emplean principalmente dos tipos de bandas: andas de
octava y tercio de banda.

Banda de octava: grupo de frecuencias comprendidas entre dos valores que cumplan:

f2
=2
f1

Tercio de octava: se utiliza para un análisis más detallado del espectro, cumplen la condición:
f2 3
=√ 2
f1

Juan Carlos Cruz Álvarez Página 62 TEMA 6


Cada vez que hablamos de subir una octava, lo que hacemos es doblar el ancho del intervalo de
frecuencias.

En la práctica, y analizando el espectro mediante el segundo método de los expuestos anteriormente,


las frecuencias centrales del espectro se articulan en torno al valor f c =1000 Hz. En ese caso, la
anchura de los filtros de octava (con f 2=2 f 1) que se suele emplear es:

f 2−f 1=0,707 f c

3
mientras que la anchura de los filtros de tercio de octava (f 2=√ 2 f 1) que se utiliza es:

f 2−f 1=0,232 f c

6.1.1 CARACTERIZACIÓN ESPECTRAL DEL RUIDO

El ruido se puede caracterizar según la forma de su espectro:

 Tono puro: distribución de intensidad sonora que es cero para todas las frecuencias, salvo
para una. Un pico estrecho alrededor de la frecuencia referida.

 Sonido armónico: compuesto por un pico alrededor de una frecuencia principal, f 0, y otros
picos más pequeños que disminuyen progresivamente con la frecuencia, a frecuencias que son
múltiplos enteros de la principal o fracciones simples de las mismas. (agradables al oído, la
música se basa en ellos)

 Ruido blanco: se obtiene de una fuente totalmente aleatoria. Máxima expresión del ruido
caótico, suena desagradable al oído. Las componentes de todas las frecuencias tienen más o
menos el mismo valor de intensidad. En la misma ambos ejes dan de forma logarítmica, en su
representación.

 Ruido rosa: la intensidad tiene una dependencia de la frecuencia como 1/f α, donde 0< α <2.
Sólo se considera ruido rosa cuando α =1, pero se suele englobar aquí a toda la familia de este
tipo de espectros. Adquiere la forma de una recta en su representación logarítmica

6.2 SENSACIÓN SONORA

El oído humano puede detectar variaciones de:

- Presión (entre 2 x 10-5 (20 μPa¿ y 20 Pa)


- Frecuencia (entre 20 y 20.000 Hz) (20Hz y 20kHz)

Para medir la variación de la presión acústica se emplea una escala logarítmica, expresada en
decibelios (dB) llamada “nivel de presión sonora”:

P 2 P
L p=10 log ( )
P0
=20 log
P0
(6.1)

donde P0 es un valor de referencia de la presión acústica que corresponde con la menor presión
acústica audible, esto es, 20 μPa. Para este valor, y según la definición anterior Lp=0 dB. En el otro
extremo de la escala, tenemos que el llamado “umbral del dolor” se encuentra en torno a los 120 dB,
para valores por encima de este se pueden producir daños físicos, incluso con la rotura del tímpano.

Juan Carlos Cruz Álvarez Página 63 TEMA 6


6.2.1 SUMA DE NIVELES SONOROS

Como la escala es logarítmica, la suma de ruidos no es igual a la suma directa de las cantidades en dB.

Si una determinada fuente sonora emite el doble que otra, esto significa que, a la misma distancia del
receptor, la intensidad de la onda se duplica.
P20
La intensidad de la onda depende cuadráticamente de la presión: I =
2z
2
I P
I∝P 2 =
I 0 P0 ( )
Si la segunda onda tiene el doble de intensidad I ' =2 I , entonces la relación de presiones es
P' = √ 2 P
La presión sonora correspondiente será:
1 P
L p ' =20 log 2+ 20 log ≈ 3+ L p (en dB)
2 P0

Al doblar la intensidad sonora se produce un aumento de 3 dB en la presión sonora existente. Dicho de


otra forma, aumentar en 3 dB el nivel de ruido implica duplicar la energía de la onda.

Para sumar niveles sonoros no podemos sumar directamente las cantidades expresadas en decibelios.
Lo que se hace realmente es sumar las intensidades reales que subyacen a la definición de dB:
L1 ∅ L2=10 log (10 L / 10 +10 L /10 )
1 2

La fórmula general para sumar un número indeterminado de niveles sonoros es:


n
Ltotal=10 log ∑ 10 L /10 i
n: número de fuentes sonoras
i=1 Li: niveles debidos a cada fuente (dB)
(6.2)

Si todas las fuentes emitiesen el mismo ruido L, tendríamos:

Ltotal=L+10 log n
(6.3)

También se puede emplear un método gráfico para sumar niveles sonoros de dos en dos. En el caso de
que tengamos más de dos niveles sonoros, se ordenan de menor a mayor y se van sumando de dos en
dos empezando por el menor. Los datos se obtienen de la fórmula:

A=−0,0665+3,148. e−B /5,425 A: decibelios que se añaden al nivel más alto


B: diferencia entre los niveles en dB

6.2.2 PERCEPCIÓN DE LOS SONIDOS

La sonoridad es una característica subjetiva. Una de las principales características de nuestro oído es
que discrimina de forma no lineal, atenúa las frecuencias de 20 a 1.000 Hz, amplifica aquellas que van
desde los 1.000 hasta los 5.000 Hz y vuelve a atenuar de 5.000 Hz en adelante.

El fonio o fon es una unidad de medida logarítmica y adimensional, que se usa para indicar la
sonoridad con que se percibe un sonido dado.

Para definir la sonoridad de referencia se usa una onda que tenga una frecuencia de 1.000 Hz y una
amplitud igual a P0=20 μPa . Esa onda tendrá una sonoridad igual a 0 fonios. Pero, al igual que
Juan Carlos Cruz Álvarez Página 64 TEMA 6
habíamos hecho notar antes, podríamos conseguir 0 fon empleando una onda de presión sonora 60 dB
con una frecuencia de 70 Hz

La característica no lineal del oído humano a la hora de percibir los sonidos es lo que obliga a que,
cuando se quiere medir un ruido, sea necesario un dispositivo especial que mida los niveles de presión
acústica de forma similar a como los percibimos nosotros.

ESCALA DE PONDERACIÓN TIPO A

Un ruido será más molesto cuanto mayor proporción de altas frecuencias contenga. Es necesario tener
un método que permita diseñar aparatos que den medición de presión sonora, con ciertos filtros de
corrección, que se asemejen a la respuesta del oído humano.

Se definieron una serie de filtros que ponderan la señal recogida por un micrófono de acuerdo con la
sensibilidad del oído humano. Basándose en las curvas de isosonoridad del oído humano se introduce
el concepto de filtros de ponderación. Estos filtros actúan de manera que los niveles de presión de cada
banda de frecuencia son corregidos en función de la frecuencia según unas curvas de ponderación. Con
este criterio se han definido varios filtros, siendo los más conocidos los denominados A, B, C y D. El
filtro utilizado en el dominio del ruido del transporte es el A, único filtro recogido por el Real Decreto
1316/89. En decretos posteriores empiezan a aparecer otros filtros, como el C, que aparece en el Real
Decreto 286/2006, de 10 de marzo. Los niveles de presión acústica utilizados se miden en “decibelios
A”, algo que es denotado como dBA. Los valores de este filtro pueden obtenerse, mediante la siguiente
expresión:
A=−125,42+ 74,185 B−10,814 B 2
Donde A son dB y B=log f con f frecuenci en Hz

6.2.3 ÍNDICES PARA LA EVALUACIÓN DEL RUIDO

Las molestias debidas al ruido pueden ser palpables cuando provocan daños físicos evaluables. Sin
embargo, en la mayoría de los casos el riesgo para la salud no es tan fácil de cuantificar, tiene un claro
componente subjetivo y es difícil establecer criterios de calidad.

Dado que las molestias debidas al ruido dependen de varios factores, los índices deben indicar
variaciones tales como la energía sonora de la fuente, el tiempo de exposición, características del
sonido, sensibilidad auditiva del receptor, actividad que esté realizando…

Así, la selección del indicador adecuado es una cuestión especialmente importante, ya que puede dar
lugar a distintas interpretaciones acerca de la molestia acerca del valor medido a través del mismo.
Estos índices deben servir para definir una serie de máximos que no deben sobrepasarse. Pero debe
tratarse de varios índices ya que existen distintos criterios que hay que considerar: existen los criterios
sanitarios para la protección del sistema auditivo y salud en general, límites máximos admisibles de
ciertos índices que reflejan la exposición de las personas al ruido. Para nivelar adecuadamente el
componente subjetivo de la respuesta individual de las personas se realizan estudios y encuestas psico-
sociológicas para establecer qué indicadores de ruido son los más indicados para limitar las molestias
percibidas. Tras muchos años de investigación todavía no existe unanimidad de criterios acerca de los
indicadores que es necesario emplear.

ÍNDICES BÁSICOS

 Nivel de presión sonora (L): varía con el tiempo y se expresa como L A cuando se mide en
dBA. Existen otros dos valores asociados que se emplean para un periodo determinado de la
onda sonora: valor máximo LAmáx y valor mínimo LAmin para ese intervalo temporal. Estos
índices aportan información de la intensidad de la onda sonora pero no dicen nada sobre la
duración de la onda sonora o sobre la exposición que sufre el sujeto.
Para corregirlo se define el

Juan Carlos Cruz Álvarez Página 65 TEMA 6


 Nivel de presión acústica ponderado A, LpA, que se ha medido a través de un filtro de
ponderación A. Este índice se emplea cuando se tiene un ruido estable.
Más habitual y útil es el uso del
 Nivel de presión sonora continuo equivalente, LAeq(T ), el cual expresa la media de la energía
sonora percibida por el sujeto en un determinado intervalo de tiempo T (expresado en dBA), o
dicho de otra forma es el nivel de presión que habría sido producido por una ruido constante
con la misma energía total que el ruido percibido en ese instante de tiempo T . Esta cantidad
depende del tiempo en concreto durante el cual se realiza la medición (T ) y debe ser indicado
entre paréntesis a la hora de referirse a esta cantidad.

La formulación matemática de LAeq(T ) es:

T0 ❑ P 2
L Aeq ( T ) =10 log ∫
T T P0 ( )
dt

(6.4)
Donde T es el tiempo de duración de la medición, P es la presión instantánea, P0=20 μPa y T 0
normalmente se toma como igual a 1 s.

Esta cantidad se calcula mediante la suma de n niveles de presión sonora Li emitidos en intervalos t i
tales que ∑ t i=T , de manera que:
i

T0 L /10
L Aeq (T )=10 log ∑ 10 i ti

T T
(6.5)
De la definición de LAeq(T) vemos que podemos dividir el nivel de presión total en una serie de
intervalos constantes y obtener para cada uno de ellos los correspondientes niveles de presión sonora.
Ocurre que si el periodo total es suficientemente largo la distribución de estos niveles sigue una ley
normal. Así, pueden definirse una serie de niveles percentiles, LN, que representan el nivel de ruido
que se alcanza o sobrepasa durante el N% del tiempo en el periodo considerado. Esto es:

 L1: este es el nivel de ruido que se alcanza o sobrepasa durante el 1% del tiempo en el periodo
considerado.

 L10: nivel alcanzado o sobrepasado durante el 10% del tiempo.

 L50: nivel alcanzado o sobrepasado durante el 50% del tiempo. Este valor representa el ruido
medio ya que es la mediana estadística.

 L90: nivel al 90% del tiempo. A veces se emplea este valor como ruido de fondo.

Estas cantidades eran muy utilizadas anteriormente, pero dejaron de utilizarse porque se
necesita un gran número de mediciones y no responden a una formulación matemática precisa
además de que no informan más que de la probabilidad de superar o no un determinado nivel.

OTROS ÍNDICES

 Nivel de exposición sonora (SEL): para comparar sucesos de ruido de diferente duración.
L /10
SEL=10 log ∑ 10 i ti

T
(6.6)

La relación entre L Aeq ( T ) y SEL para un determinado suceso de ruido es:

Juan Carlos Cruz Álvarez Página 66 TEMA 6


T
SEL=L Aeq (T )+10 log
T0
(6.7)
 Nivel diario equivalente (LAeq,d): Se emplea habitualmente y es una cantidad derivada del
nivel de presión sonora continuo equivalente (LAeq(T)) cuando el tiempo de exposición se
refiere a una jornada de trabajo de 8 horas. Usado recurrentemente por la legislación española
(exposición laboral)
T
( )
L Aeq , d=L Aeq ( T )+ 10 log e
8 Te: tiempo de exposición
(6.8)
 Nivel semanal equivalente (LAeq,s): se utiliza cuando hay una gran variabilidad en los niveles
de ruido de un día a otro.
 Nivel de pico (Lpico): muy empleado en la normativa más moderna
2
P
( )
L pico =10 log pico
P0
(6.9)

donde Ppico es el valor máximo de presión acústica instantánea (en Pa) a la que está expuesto el
trabajador determinado por el índice de ponderación frecuencial C (P0 = 20 µPa).

Volviendo al LAeq(T), el nivel de presión sonora equivalente, este es un índice mayoritariamente


aceptado como indicador del ruido general en la mayor parte de las legislaciones más avanzadas en
materia de protección acústica. Sin embargo, a menudo se piensa que este índice es una media
aritmética de los niveles sonoros instantáneos y esto no es así. Este índice hace la suma de la energía
acústica recibida durante el intervalo de tiempo T , de ahí que se incluya al tiempo en el símbolo que
representa al índice.

En general, en España, se emplea el LAeq(T) extendido a periodos largos de tiempo, especialmente para
el ruido asociado al tráfico. Sin embargo, esta medición no explica las grandes variaciones que se
obtienen a nivel de las personas, la respuesta individual de cada uno al ruido. Por tanto, resulta
necesario completar la medición de este índice con otras magnitudes que tengan en cuenta estos
factores. Una forma de hacerlo es emplear LAeq(T) pero referido a un periodo diurno y nocturno. La
determinación de estos periodos varía según los municipios y el sector del que estemos hablando
(laboral, residencial, colegios, hospitales, etc). Un problema habitual en la medición de ruido es el
generado en el entorno de los aeropuertos. Actualmente, para esta situación en concreto del impacto
acústico del tráfico aéreo, se emplea el índice L Aeq(T) porque proporciona una medida adecuada como
indicador energético y porque permite sumar fácilmente el ruido que proviene de diversas fuentes.
Como hemos comentado, la evaluación del ruido depende de otros factores, además de la propia
energía de la onda sonora. Un ruido puede ser soportable en ciertas circunstancias, pero no en otras.
Por ejemplo, es lógico pensar que no será los límites para el ruido no pueden ser los mismos durante el
día o durante la noche. Así, la mayoría de las reglamentaciones de los países de nuestro entorno
incluyen una separación entre los índices durante ambos periodos, LAeq(día) y LAdía(noche). Cada país
tiene unas costumbres distintas en cuanto a horarios y horas de luz, así que de definir cuándo es la
“noche” y cuando el “día” no es algo trivial, aunque lo parezca. Según las recomendaciones de la
normativa europea, se considera que el periodo diurno se encuentra entre las 7h y las 17h, la tarde
desde las 17h hasta las 23h y el periodo nocturno desde las 23h hasta de nuevo las
7h. Sin embargo, muchas normativas municipales consideran como periodo diurno directamente desde
las 8h hasta las 22h, y nocturno el resto del día.

 Nivel sonoro día-tarde-noche (Lden): propuesto por la Unión Europea para unificar criterios
en función de los distintos periodos de actividad a lo largo del día:

Juan Carlos Cruz Álvarez Página 67 TEMA 6


Ldía Ltarde +5 Lnoche +10

Lden=10 log
1
24 ( [
12 x 10 10 + 4 x 10 10
+8 x 10 10 ])
(6.10)
Otro nivel que se emplea legislación española actual, entre los definidos en el Anexo I del RD
1367/2007 del 19 de octubre, es el índice de ruido continuo equivalente corregido, LKeq,T, que evalúa
niveles sonoros con correcciones por componentes tonales de baja frecuencia o ruido de carácter
impulsivo. Se define de acuerdo a la expresión siguiente:

L Keq, T =L Aeq ,T + K t + K f + K i
(6.11)

donde K t , K f y K i son parámetros de corrección para evaluar la molestia de componentes tonales


emergentes, de baja frecuencia o de carácter impulsivo, respectivamente.
 Nivel de vibración máximo en el espacio interior de edificios (L aw): evalúa los niveles de
vibración máximos en el espacio interior de edificios. Este índice, en dB, se determina
mediante la expresión:

aw
Law =20 log
a0
(6.12)
a
donde w es el máximo del valor eficaz (RMS) de la señal de aceleración, con ponderación de
frecuencia ω m en el tiempo t; mientras que a 0 es la aceleración de referencia (10−6 m/s 2)

6.3 NORMATIVA SOBRE CONTAMINACIÓN ACÚSTICA

- Disposición: se trata de un Reglamento, Directiva, Ley, Real Decreto o Disposición


administrativa, aprobados por la autoridad competente y con carácter vinculante.
- Norma: especificación técnica, aprobada por un organismo normalizador, sin carácter vinculante.
- Recomendación: especificación de una entidad de prestigio, sin carácter vinculante.

Conceptos:

- Emisión: de ruido es la radicación sonora de la fuente.

- Inmisión: de ruido es el impacto del ruido en un punto determinado, donde se encuentra la


persona afectada, por ejemplo.

- Exposición: impacto que tiene el ruido sobre la persona afectada.

6.3.1 RUIDO Y SALUD

Se pueden clasificar los efectos del ruido sobre la salud como auditivos o no auditivos.

EFECTOS AUDITIVOS
Las vibraciones producidas por las ondas sonoras se perciben en el oído que se divide en tres partes:
externo, medio e interno. El oído externo está formado por el pabellón auditivo, que es un cartílago
elástico recubierto por piel, y el conducto auditivo exterior que se extiende hasta el tímpano. Esta parte
del oído sirve para la recepción y conducción de la onda sonora. A continuación, tenemos el oído
medio que es la zona comprendida entre la membrana timpánica y la ventana oval que comunica con el
oído interno. Entre ambas zonas se encuentra la cadena de huesecillos, esto es, martillo, yunque y
estribo, los cuales son móviles y son los culpables de transformar las ondas acústicas en vibraciones
mecánicas y de amplificar el sonido captado. Por último, tenemos el oído interno, que tiene apariencia

Juan Carlos Cruz Álvarez Página 68 TEMA 6


de caracol, donde se encuentra el órgano de Corti y que está formado por las células ciliadas que son
las encargadas de enlazar con el nervio acústico mediante la transformación de la energía mecánica.
Estas células nerviosas son el verdadero órgano receptor auditivo y según la zona donde se encuentren
recogen diferentes tonos.
Las células encargadas de la transformación de los sonidos en impulsos nerviosos no tienen capacidad
de regeneración, cuando se lesionan se pierde audición de manera irremediable. Cuando existe un
exceso de ruido el daño se produce concretamente en estas células, primero perdiendo los cilios y
posteriormente degradándose a medida que el ruido persiste.

Un ruido brusco o intenso (como una explosión), puede provocar una disminución de la capacidad
auditiva, pudiendo llegar a la rotura del tímpano. Ruidos menos intensos pero persistentes también
pueden producir daños auditivos.

Un fenómeno habitual es el “desplazamiento temporal del umbral auditivo” que consiste en la fatiga
auditiva producida después de una exposición a altos niveles de ruido en un corto periodo de tiempo.
Al cabo de un tiempo, gracias al descanso, se recupera la capacidad auditiva habitual. Sin embargo, si
el oído no tiene tiempo de recuperarse entre una exposición y la siguiente puede aparecer una lesión
permanente en el mismo y a esto se le denomina “desplazamiento permanente del umbral auditivo”,
hipocausia, o más comúnmente, sordera. Este proceso se produce lentamente debido a la lesión
progresiva de las células nerviosas del oído interno. Las primeras células dañadas son aquellas
encargadas de detectar ruidos agudos de frecuencia próxima a los 4000 Hz para a continuación irse
propagando el daño al resto de frecuencias. La lesión se puede haber producido ya, pero solamente
somos conscientes de la misma cuando las células afectadas son aquellas que se encargan de las
frecuencias conversacionales.

Para conocer el estado auditivo de una persona se realiza una prueba denominada audiometría. Dentro
del entorno laboral, se considera la sordera como una enfermedad fruto de las actividades profesionales
y producida por agente físicos. Esta se puede contraer en trabajos en los que los trabajadores estén
sometidos a ruidos continuos de un nivel sonoro equivalente o superior a 80 dBA durante 8 horas
diarias (o 40 horas semanales).

EFECTOS NO AUDITIVOS
Los niveles elevados de ruido tienen efectos sobre otros órganos del cuerpo, pudiendo alterar la salud
de las personas. Para la mayor parte de estos efectos no se ha encontrado una relación clara dosis-
respuesta que pueda establecer un conocimiento claro de la influencia de estos niveles en la salud ya
que muchas veces estos efectos dependen del estado física, psíquico y psicológico de las personas
afectadas, a veces generando simplemente una “molestia”. En cualquier caso, aunque la “molestia”
pueda tratarse de un elemento relativamente subjetivo, sí que se ha encontrado una relación entre la
intensidad y frecuencia de la onda sonora con el grado de molestia que percibe la persona expuesta.

Posibilidad de reacciones fisiológicas debido a la aparición de situaciones de estrés, relacionado con


numerosas enfermedades cardiovasculares, alteraciones del aparato digestivo y del sistema endocrino.
Interferencia con el sueño, que puede causar graves trastornos de salud.
El ruido también altera el estado de concentración para la lectura, escritura y cualquier actividad que
requiera especial atención.
El fondo acústico monótono puede producir somnolencia.
Si hay que levantar la voz para hacerse oír por encima del ruido, se pueden producir alteraciones de
garganta y laringe.

Se puede considerar que hay molestias, pero no daño reflejado en pérdidas auditivas, cuando la
exposición es a niveles por debajo de 75 dBA como nivel equivalente diario. Las personas expuestas
pueden llegar a afirmar que se han acostumbrado al ruido. Sin embargo, esto no supone una ventaja,
sino un inconveniente en el sentido de que significa que el organismo se ha rendido al elemento
agresivo exterior, eliminando la resistencia consciente del sujeto. Por descontado, el daño físico o

Juan Carlos Cruz Álvarez Página 69 TEMA 6


mental y los posibles efectos sobre la salud aparecerán igualmente independientemente de la
percepción subjetiva de la persona.

MEDICIÓN DEL RUIDO


Los equipos de medición dependen de los datos que se quieran obtener y del tipo de ruido que se
quiera medir:

 Sonómetro: responde al ruido de forma parecida a como lo hace el oído humano, generando
medidas objetivas y reproducibles. Posee un micrófono que transforma la energía sonora
medida en energía eléctrica. El micrófono debe ser de campo libre y estar orientado en aquella
dirección en que la respuesta en frecuencia sea más uniforme. Al inicio y al final de cada
medición acústica debe efectuarse.
Este instrumento mide de forma directa el nivel de presión sonora de un fenómeno acústico.
Presenta tres opciones de cara a la velocidad de respuesta al fenómeno de variación de la
presión sonora: respuesta lenta (_Slow_) con una respuesta lenta de 1 segundo, rápida (_Fast_)
con una respuesta rápida de 125 ms (milisegundos) o estadística (_Impulse_) con una respuesta
de 35 ms.
Los sonómetros convencionales sólo se pueden emplear para la medición de nivel de presión
acústica ponderada A, LpA del ruido estable. La lectura promedio se considerará igual al nivel
de presión continuo equivalente ponderado A, L Aeq(T), de dicho ruido, pudiéndose calcular a
partir de este, el Nivel Diario Equivalente, LAeq, d. Existen unos sonómetros llamados
integradores que pueden emplearse para la medición de LAeq(T) para cualquier tipo de ruido y
así después poder obtener LAeq, d.

 Dosímetro: medidor que acumula el ruido constantemente mediante el uso de un micrófono y


circuitos similares a los medidores de presión sonora. Es un instrumento portátil que el
trabajador puede llevar encima. Proporciona lecturas de LAeq(T) y Laeq,d.

 Acelerómetro: mide vibraciones. Se le acopla un sonómetro que realiza las funciones de


análisis y valoración. La magnitud de la vibración a medir por el aparato es la aceleración
expresada como valor eficaz (rms) en m/s, y corregida mediante la aplicación de las
ponderaciones. Para cuantificar la intensidad de la vibración se puede emplear la lectura directa
de la curva que corresponde a la vibración considerada o bien midiendo el espectro de la
vibración considerada en bandas de tercio de octava (entre 1 y 80Hz).

Otro punto en el que se deben realizar mediciones es el aspecto del aislamiento acústico, algo que se
exige en los recintos de las edificaciones y que se realiza siguiendo las prescripciones establecidas en
la norma UNE 74-040.

CLASIFICACIÓN DEL RUIDO


Descripción de la Ley 7/1997, de 11 de agosto:
 Ruido continuo: se manifiesta ininterrumpidamente durante más de 10 minutos:
☼ Ruido continuo uniforme: ruido continuo con un nivel de presión acústica L pA medido
empleando la posición de respuesta lenta, que se mantiene constante o bien los límites en
que varía difieren en menos de ± 3 dB(A) en periodos de medición de 2 minutos.
☼ Ruido continuo variable: cuando LpA se mide con la respuesta lenta del equipo de medición y
varía entre unos límites que difieren entre ± 3 y ± 6 dB(A).
☼ Ruido continuo fluctuante: LpA se mide con posición de respuesta lenta del equipo de
medición y varía entre unos límites que difieren entre ± 6 dB(A).
 Ruido transitorio: se manifiesta ininterrumpidamente durante un periodo de tiempo igual o
menor a cinco minutos:
Juan Carlos Cruz Álvarez Página 70 TEMA 6
☼ Ruido transitorio periódico: se repite con mayor o menor exactitud, con una periodicidad de
frecuencia que es posible determinar.
☼ Ruido transitorio aleatorio: se produce de forma totalmente imprevisible. Para analizarlo es
necesario un análisis estadístico de la variación temporal del nivel sonoro durante un periodo
suficientemente significativo.
☼ Ruido de fondo: existente en un determinado ambiente o recinto con un nivel de presión
acústica que supera el 90% de un tiempo de observación significativo en ausencia del ruido
objeto de la inspección.

Existe otra clasificación teniendo en cuenta la relación entre la fuente sonora y el propietario o
manipulador de dicha fuente:
 Ruido objetivo: producido por una fuente sonora o vibrante que funciona de forma automática,
autónoma o aleatoria, sin que intervenga persona alguna que pueda variar las condiciones de
funcionamiento de la fuente.
 Ruido subjetivo: producido por una fuente sonora o vibrante con condiciones de
funcionamiento supeditadas a la voluntad del manipulador.

6.3.2 LEY DEL RUIDO

La Directiva Europea 2002/49/CE del Parlamento Europeo y del Consejo del 25 de junio de 2002
sobre la evaluación y gestión del ruido ambiental, define el ruido ambiental como un sonido exterior
no deseado o nocivo generado por las actividades humanas, incluido el ruido emitido por los medios de
transporte, por el tráfico rodado, ferroviario y aéreo y por ciertos emplazamientos de actividades
industriales.

La ley del ruido, Ley Española 37/2003, de 17 de noviembre, incorpora al derecho interno las
previsiones de la citada Directiva, definiendo la contaminación acústica como: “La presencia en el
ambiente de ruido o vibraciones, cualquiera que sea el emisor acústico que los origine, que implique
molestia, riesgo o daño para las personas, para el desarrollo de sus actividades o para los bienes de
cualquier naturaleza, incluso cuando su efecto sea perturbar el disfrute de los sonidos de origen
natural, o que causen efectos significativos sobre el medio ambiente”.

Esta ley enlaza el problema de la contaminación acústica con los artículos 18.1 (intimidad personal y
familiar), 43 (salud) y 45 (medio ambiente) de la Constitución Española de 1978. La ley establece los
parámetros y las medidas para la evaluación y gestión del ruido ambiental, incluye el ruido y las
vibraciones en el espacio interior de determinadas edificaciones. Así mismo, dota de mayor cohesión a
la ordenación de la contaminación acústica a través del establecimiento de los instrumentos necesarios
para la mejora de la calidad acústica de nuestro entorno.

Conviene aclarar que el alcance de esta Ley está fuera del entorno relacionado con la contaminación
acústica originada en las actividades domésticas o vecindad. Tal y como dice el texto de la Ley:
“Parece ajeno al propósito de esta ley alterar este régimen de relaciones vecinales, consolidado a lo
largo de siglos de aplicación, sobre todo teniendo en cuenta que el contenido de esta ley en nada
modifica la plena vigencia de los tradicionales principios de convivencia vecinal”. Algunas de las
normativas locales son muy detalladas y cada municipio cuenta a su vez con una Ordenanza sobre
contaminación acústica. Además, la ley también excluye la regulación de la contaminación acústica en
el entorno laboral.

La Ley del Ruido fue desarrollada por dos reglamentos: R.D. 1513/2005 y R.D. 1367/2007.

El primero de ellos, el Real Decreto 1513/2005, de 16 de diciembre, trata de la evaluación y gestión


del ruido ambiental, y en él se completa la transposición de la Directiva 2002/49/CE y se precisan
conceptos de ruido ambiental y sus efectos sobre la población, junto a una serie de medidas necesarias
para la consecución de los objetivos previstos, tales como la elaboración de los mapas estratégicos de
ruido y los planes de acción o las obligaciones de suministro de información. En este RD, se especifica
Juan Carlos Cruz Álvarez Página 71 TEMA 6
que la contaminación acústica es producida no sólo por el ruido ambiental, sino también por las
vibraciones. Este RD sólo comprende la contaminación acústica derivada del ruido ambiental y la
prevención y corrección, en su caso, de sus efectos en la población.

El segundo, el Real Decreto 1367/2007, de 19 de octubre, es referente a zonificación acústica,


objetivos de calidad y emisiones acústicas. Este desarrollo reglamentario va más allá de la directiva
comunitaria y aborda un tratamiento generalizado de la contaminación acústica con especial atención a
la actuación preventiva, la planificación acústica en la ordenación territorial y la incorporación de los
conceptos de evaluación y gestión del ruido ambiental.

Esta nueva norma tiene como objetivo básico asegurar unos mínimos comunes de calidad acústica en
el ámbito estatal. Sus puntos más reseñables son los siguientes:

 Mapas estratégicos del ruido: Estos mapas estratégicos de ruido aportan metodología, criterios
e información estratégica que orientarán las políticas y estrategias que apliquen las CCAA y las
administraciones locales en materia de planificación urbanística en relación a la contaminación
acústica.

 Planes de acción: A partir de los mapas del ruido, y en un plazo de un año después de su
elaboración, se elaboran planes de acción dirigidos a solucionar en el territorio afectado las
cuestiones relativas al ruido.

 La evaluación de la contaminación acústica: se definen los índices del ruido y de vibraciones


atendiendo a los distintos periodos temporales de evaluación. Así, en el caso del ruido
ambiental, para las 24 horas del día, se fijan, siguiendo los criterios establecidos por la Unión
Europea, tres periodos temporales de evaluación que son: día (d), tarde (e) y noche (n). Se
contempla la caracterización del “clima sonoro” de un entorno, evaluado mediante promedios a
largo plazo (un año).

 Objetivos de calidad acústica: se fijan los objetivos de calidad aplicables tanto a las áreas
acústicas (espacio exterior) como al espacio interior de las edificaciones destinadas a vivienda,
usos residenciales, hospitalarios, educativos o culturales. Se realiza una delimitación territorial
de los distintos tipos de áreas acústicas de cada territorio y a cada una de estas áreas se le asocia
un objetivo de calidad acústica. Las zonas acústicas se revisarán cada diez años desde la fecha
de su aprobación.

De acuerdo a la Ley de Ruido se diferencia entre las construcciones nuevas de las existentes.
Por ejemplo, si se trata de zonas del tipo área acústica residenciales de nuevo desarrollo
urbanístico, se exige los niveles sonoros en las fachadas de las viviendas no superen los 60
dBA durante los periodos día y tarde y los 50 dBA durante el periodo noche. Por contra, en
áreas urbanizadas existentes se exige 65 dBA día y tarde o bien los 55 dBA durante el periodo
noche. En cualquier caso, se considera objetivo de calidad acústica que los niveles se
encuentren por debajo de los 60 dBA durante los periodos día y tarde y los 50 dBA durante el
periodo noche.

En cuanto a los espacios naturales que requieran una especial protección contra la
contaminación acústica, se establecerán objetivos de calidad acústica para cada caso en
particular.

 Planes zonales: Se definen dos tipos de mapas de ruido:


 Mapas estratégicos de ruido: para grandes ejes ferroviarios, grandes aeropuertos y
aglomeraciones con poblaciones de más de 100.000 habitantes.
 Mapas de ruido no estratégicos: Para áreas acústicas en las que se compruebe el
incumplimiento de los objetivos de calidad acústica.

Juan Carlos Cruz Álvarez Página 72 TEMA 6


 Planes de acción: Una vez aprobados los mapas del ruido, las administraciones elaborarán los
correspondientes planes zonales específicos y los planes de acción necesarios. Las
infraestructuras existentes deberán adoptar medidas para adaptarse a los objetivos de calidad
acústica de 65 dBA durante el día y de 55 dBA durante la noche. Estos objetivos se lograrán
mediante planes de acción que supongan la introducción de medidas técnicas correctoras tales
como pantallas acústicas, pavimentos sono-reductores, aislamiento acústico, etc.

 Ruido de los emisores acústicos: Se fijan valores límite de inmisión de ruido aplicables para
nuevas infraestructuras viarias, ferroviarias y aeroportuarias, portuarias, así como instalaciones,
establecimientos y actividades de naturaleza industrial, comercial, de servicios o de
almacenamiento, etc. A las infraestructuras nuevas les serán exigibles unos valores límite de
inmisión de 60 dBA durante el día y de 50 dBA durante la noche en las áreas acústicas
residenciales.

Sobre vehículos de motor y ciclomotores, debido a la antigüedad de estos, se adopta una


disposición transitoria que permite la determinación del nivel de emisión sonora a vehículo
parado, transitoriedad que se extinguirá con la natural renovación del parque de vehículos.

 La creación de un Sistema Básico de Información de la Contaminación Acústica (SICA)


http://sicaweb.cedex.es con toda la información clara y fácilmente accesible al público sobre el
ruido.

6.3.3 EXPOSICIÓN LABORAL AL RUIDO

La normativa contra el ruido relativa al entorno laboral tiene su propia regulación. Se basa en una
directiva europea: Directiva del Consejo 86/188/CEE de 12 de mayo de 1986 relativa a la protección
de los trabajadores contra los riesgos debidos a la exposición al ruido durante el trabajo.

La directiva europea fue transpuesta a nuestro ordenamiento jurídico mediante el R.D. 1316/1989 de
27 de octubre. Más adelante se adoptó la Directiva 2003/10/CE del Parlamento Europeo y del Consejo,
de 6 de febrero de 2003, deroga a la Directiva 86/188/CEE, de 12 de mayo. Por tanto, el 286/2006, de
10 de marzo deroga el Real Decreto 1316/1989 y se transpone al derecho español la Directiva
2003/10/CE.

Este decreto se encuentra en consonancia con la actual Ley de Prevención de Riesgos Laborales. Este
RD es la norma fundamental sobre el ruido en el lugar de trabajo. Básicamente, se encarga de regular:

 La inmisión de ruidos
 La medición del ruido y su comparación con los niveles de exposición
 La evaluación de la función auditiva de los trabajadores.

El campo de aplicación de esta normativa se extiende a todos los trabajadores por cuenta ajena,
cualquiera que sea la naturaleza de su contrato. La responsabilidad de velar por la protección auditiva
de los trabajadores recae sobre el empresario, el cual tiene una serie de obligaciones que se pueden
resumir en las siguientes:

 Cumplir las obligaciones específicas de la norma.


 Tener en cuenta la reducción del ruido a la hora de construir y diseñar nuevos centros de
trabajo.
 Reducir al máximo posible (técnica y razonablemente hablando) los riesgos derivados de la
exposición al ruido.

Según cómo sea la exposición a la que está sometido el trabajador. el RD establece una serie de
actuaciones que además tienen revisiones periódicas. Cuanto más elevada sea la exposición, más

Juan Carlos Cruz Álvarez Página 73 TEMA 6


exigentes son las revisiones. Los valores límite de exposición, según el RD de 2006, son más
restrictivos que los del decreto anterior y se establecen como:

 Valores límite de exposición: LAeq, d = 87 dBA y Lpico = 140 dBC

 Valores superiores de exposición que dan lugar a una acción: LAeq, d = 85 dBA y Lpico = 37 dBC

 Valores inferiores de exposición que dan lugar a una acción LAeq, d = 80 dBA y Lpico = 135 dBC

A la hora de realizar una evaluación del riesgo, según el decreto actual, se tendrá en cuenta la
atenuación que procuran los protectores auditivos individuales utilizados por los trabajadores.

A su vez, los órganos internos competentes en materia de seguridad e higiene, así como los
representantes de los trabajadores tienen derecho, entre otras cosas, a estar presentes en el desarrollo de
las evaluaciones y a ser informados acerca de las conclusiones de las mismas. Ambas organizaciones
tienen también derecho a ser consultados acerca de la elección de los protectores auditivos que
proporcione la empresa. Estos protectores deben conseguir que el trabajador tenga una exposición en el
interior inferior a los límites de exposición.

La función auditiva de los trabajadores se controla bajo reconocimiento que son responsabilidad de un
médico. Los controles deben incluir una otoscopia y una audiometría. La otoscopia consiste en una
inspección del conducto auditivo externo, en busca de signos de infecciones externas, eczemas y
tapones, así como una inspección de la membrana timpánica en busca de posibles perforaciones,
coloración anómala, etc. La audiometría consiste, como mínimo, en una audiometría de todos puros
para la determinación de umbrales de audición por conducción aérea.
Tanto los resultados obtenidos en las evaluaciones de la exposición al ruido como los controles
médicos de la función auditiva de los trabajadores deben ser registrados y archivados por el empresario
durante un periodo de al menos treinta años.

OTRAS NORMATIVAS

La Directiva del Consejo 89/392/CEE de 14 de julio de 1989 relativa a la aproximación de las


legislaciones de los Estados miembros sobre las máquinas. Esta directiva fue adaptada mediante el RD
1435/1992 de 27 de noviembre.

En esta normativa se reconoce al ruido como un peligro de las máquinas y exige que estas deban ser
construidas de forma tal que los riesgos que resulten de la emisión del ruido se reduzcan al nivel más
bajo posible de acuerdo con las posibilidades técnicas. Además, el fabricante debe incluir en el manual
de instrucciones la “declaración del ruido aéreo” emitido por la máquina. De esta forma, el empresario
que adquiere las máquinas puede calcular, a priori, como variará el nivel de inmisión de ruido en su
fábrica cuando las instale. Así, podrá elegir la máquina más silenciosa y de esa forma los fabricantes
diseñarán máquinas más silenciosas a su vez para mejorar las ventas.

A este respecto existen además una serie de 19 Directivas europeas relativas a la determinación y
limitación de potencia acústica admisible de cierto material y maquinaria de obras públicas. Estas han
sido transpuestas a través del RD 245/1989 de 27 de febrero y modificados por la Orden Ministerial
(OM) de 17 de noviembre de 1989 y la OM de 18 de junio de 1991.

Por otro lado, también existe una normativa relacionada con los equipos de protección individual (EPI)
contra la contaminación acústica. Por un lado se regula su comercialización (requisitos protectores,
ensayos, medidas de atenuación) mediante la Directiva 89/686/CEE y por otro se regula su utilización
(selección, uso, cuidado) mediante la Directiva 89/656/CEE.

Juan Carlos Cruz Álvarez Página 74 TEMA 6


Juan Carlos Cruz Álvarez Página 75 TEMA 6
TEMA 7. EMISIÓN DE RADIACIONES IONIZANTES

7.1 CONCEPTOS BÁSICOS DE ESTRUCTURA NUCLEAR

7.1.1 DESCUBRIMIENTO DEL NÚCLEO

Bohr postuló la existencia de órbitas electrónicas estacionarias en el átomo alrededor del núcleo. Estas
órbitas tienen valores definidos y cuantizados, múltiplos de la constante de Planck:
me: masa electrón
h v: velocidad electrón
m e =nℏ ℏ=
2π r: radio de la órbita
n: nº entero

La teoría de Bohr fue modificada y perfeccionada posteriormente, se considera el movimiento del


núcleo alrededor del centro de masas, las órbitas circulares se sustituyeron por órbitas elípticas
(Sommerfeld) que estaban en planos bien definidos.

7.1.2 COMPOSICIÓN DEL NÚCLEO: NUCLEONES

El centro del átomo se encuentra ocupado por un núcleo cargado positivamente de radio 10 -10 m,
sabiendo que el radio atómico: 10-14m, se concluye que el átomo está casi vacío

Conocida la masa nuclear y su radio, se puede calcular la densidad de la materia nuclear, que resulta
ser 1014 g /cm3, que es un valor muy grande, inconcebible en la macrofísica.

El núcleo está formado por nucleones = protones + neutrones (masa ligeramente superior a la de
protones).

La estructura nuclear descrita es, a primera vista, fuertemente inestable, pues la repulsión electrostática
entre los protones resulta muy intensa. (confinados en un volumen de unos 10−42 m 3)

7.1.3 NOMENCLATURA NUCLEAR. ISÓTOPOS

Z: nº atómico = nº de protones. Determina las propiedades químicas del átomo.


A: nº másico = nº de nucleones (protones + neutrones)

Se denomina nucleído toda especie nuclear caracterizada por valores determinados de Z y de A.


X AZ
Los nucleídos con:
 el mismo nº másico A, se denominan isóbaros
 el mismo nº de neutrones (N = A – Z) se denominan isótonos
 el mismo nº atómico Z, se denominan isótopos, que tienen propiedades químicas similares
(pues son la misma especie química) pero diferente comportamiento nuclear.

Para un determinado valor de Z existe un límite superior e inferior en el nº de neutrones que


forman nucleídos estables. Los nucleídos cuyo número de neutrones queda fuera de la banda de
estabilidad definida para cada Z tenderá a sufrir cambios nucleares que aumenten la estabilidad del
conjunto, emitiendo partículas y radiaciones (radiactividad), denominándose radionucleídos o
radioisótopos a los nucleídos inestables o radiactivos.

7.1.4 LA CARTA DE NUCLEIDOS

En la carta de nucleidos se representa cada especie nuclear por una casilla dispuesta en una cuadrícula,
en la que se representa Z frente a N= A−Z; cada posición lleva un código de color o sombreado para
diferenciar a los nucleidos estables de los radionucleidos, así como algunos datos numéricos, tales
como abundancia en el caso de que sea estable, y para los radionucleidos, el modo de desintegración,
Juan Carlos Cruz Álvarez Página 76 TEMA 7
etc... Los catálogos y cartas de nucleidos suponen un medio de almacenamiento de información
nuclear de gran utilidad en el trabajo práctico.

7.1.5 UNIDADES DE MASA Y ENERGÍA EN FÍSICA NUCLEAR

Unidad de masa atómica (uma) = 1/12 de la masa de un átomo de C12:

1
1 uma= =1,6606 x 10−27 kg
NA

La unidad de energía del SI es el electronvoltio (eV): energía cinética que adquiere un electrón en
reposo, acelerado bajo una diferencia de potencial de 1 voltio.
1 eV = 1,6 10-19 J
7.1.6 EQUIVALENCIA ENTRE MASA Y ENERGÍA

Los principios de conservación de masa y energía, inexactos aisladamente, deben remplazarse por un
principio único, donde se afirma que la suma de la energía y la energía equivalente a la masa en un
sistema aislado, debe mantenerse constante.

La energía equivalente a una uma se puede calcular

Equivalencia de amplia utilización en el cálculo de la variación de energía en desintegraciones y


reacciones nucleares

ENERGÍA DE ENLACE
La relación entre las masas atómicas m y las masas nucleares M, es:

M ( X AZ )=m ( X ZA ) −Z m 0 m0: masa en reposo del electrón


(7.1)

La masa del nucleido debería ser la suma de la masa de Z átomos de hidrógeno más la masa de A – Z
neutrones, pero se observa sistemáticamente que las masas medidas m ( A , Z) son inferiores a las
calculadas en una cantidad ∆m, llamada defecto másico:

mH: masa del átomo de hidrógeno


∆ m=Z m H + ( A−Z ) mn −m ( A , Z ) (que se utiliza en lugar de la masa del protón).
mn: masa del neutrón

El defecto másico queda explicado dentro del contexto de estabilidad nuclear; cuando se reúnen Z
protones y N neutrones para formar un núcleo, se emite la denominada energía de enlace, Eb
Eb =∆ m . c2

que da lugar a que los nucleones queden atrapados en un estado que configura el núcleo formado. Por
ello, para separar un nucleón de un núcleo se requiere la aportación de una energía bastante alta, lo que
explica la estabilidad de la materia.

E B ( A , Z )=( Z m H + ( A−Z ) mn −m ( A , Z ) )c2


(7.2)
donde mH es la masa del átomo de hidrógeno (que se utiliza en lugar de la masa del protón al usar
masas atómicas) y m n es la masa del neutrón.

Juan Carlos Cruz Álvarez Página 77 TEMA 7


Energía de enlace media por nucleón:
E b ∆ m. c 2
Éb = =
A A
(7.3)
En los núcleos pesados (A > 200) la energía media de enlace
por nucleón es de unos 7,9 MeV. La escisión de un núcleo
pesado generará energía, ya que al ser mayor Ēb en la zona de
núcleos medios, para alcanzar este valor, parte de la masa se
convierte en energía; este es el fundamento de generación de
energía de fisión.
La unión de núcleos ligeros conduce a núcleos de mayor
energía media de enlace, el fenómeno es la base de la generación de energía por fusión, que explica la
producción de energía de las estrellas.

7.2 RADIACTIVIDAD: LEYES Y TIPOS DE RADIACIÓN

7.2.1 INTRODUCCIÓN: DESCUBRIMIENTO DE LA RADIACTIVIDAD

Rayos alfa: son partículas dotadas de una carga positiva de + 2 e - y una masa de aproximadamente 4
uma. En 1909 Rutherford y Royds probaron que las partículas α eran núcleos de átomos de He4.
Rayos beta: también son partículas, pero tienen una carga negativa –e-. Estas partículas son electrones.
Rayos gamma: no transportan carga eléctrica y no tienen masa. Consisten en una radiación
electromagnética de muy corta longitud de onda, similar a los rayos X.

Cada emisión de radiación radiactiva altera al elemento que lo emite y lo convierte en otro, fenómeno
llamado transmutación.

7.2.2 NATURALEZA DE LOS FENÓMENOS RADIACTIVOS: ESTABILIDAD


NUCLEAR

Al aproximarse dos nucleones a una distancia de 10-15 m entran en acción las fuerzas nucleares, de
corto alcance, pero de gran intensidad, que contrarrestan la acción dispersora debida a la repulsión
electrostática de los protones.

Cuando la distancia es de unos 10-17 m, se invierte la acción de la fuerza, volviéndose repulsiva,


manteniendo así la estabilidad.

Las fuerzas nucleares son independientes de la carga de los nucleones, pero su alcance es limitado a
sus próximos vecinos. En cambio, las fuerzas de repulsión electrostática son de largo alcance. Cada
protón experimenta la acción repulsiva del resto de los protones, por lo que un núcleo compuesto sólo
por protones sería inestable. La acción de los neutrones es contribuir con fuerzas atractivas formando
la “argamasa nuclear” que hace estable la coexistencia de los protones.

En general, la estabilidad se observa en los casos en que el número de neutrones es similar al de


protones. Al crecer el número atómico se requiere mayor número de neutrones, debido a que, desde el
punto de vista de repulsión electrostática, cada protón “siente” a todos los restantes, pero por el
contrario, dado el corto alcance de las fuerzas nucleares, cada nucleón interactúa únicamente con sus
vecinos inmediatos.

La estabilidad o inestabilidad de los núcleos está ligada a su estructura, para un valor de numero
atómico existe un cierto intervalo de número de neutrones que configuran nucleídos estables, llamado
banda isotópica de estabilidad nuclear.

Juan Carlos Cruz Álvarez Página 78 TEMA 7


Cuando la relación entre protones y neutrones está desequilibrada respecto a la estabilidad, los núcleos
tienden a alterar su composición y emitir partículas, hasta alcanzar la estabilidad (radiactividad).

En la naturaleza, existen mayoritariamente nucleidos estables, y un número mucho más pequeño de


radionucleidos. También se pueden sintetizar radionucleidos artificiales, cuyas leyes de desintegración
son idénticas a las de los naturales.

7.2.3 LEYES DE DESINTEGRACIÓN RADIACTIVA

La desintegración de un núcleo individual es un proceso estocástico, con una constante de


desintegración λ (probabilidad de desintegración por unidad de tiempo),

Cada radionucleido queda caracterizado por el valor λ, llamada constante de desintegración radiactiva,
cuyas dimensiones son la inversa del tiempo.

λ (constante de desintegración), es independiente de variables externas al núcleo: presión, temperatura,


campos eléctricos o magnéticos, ... También es invariable con el tiempo, es independiente de la edad
del núcleo.

 La probabilidad de desintegración de un núcleo radiactivo por unidad de tiempo λ es igual para


todos los núcleos de la misma especie.
 La probabilidad de desintegración no depende del tiempo transcurrido, si depende del intervalo
de tiempo de observación.

Si en un tiempo t=0 existe un número N 0 de núcleos radiactivos, y transcurrido un tiempo t;


sobreviven únicamente N (t ) y se han desintegrado N ' (t), se trata ahora de calcular el número de
núcleos, d N ' , que sufren desintegración en el intervalo de tiempo comprendido entre t y t+ dt. La
probabilidad de desintegración en el intervalo dt será λdt, por lo que el número de núcleos
desintegrados vale

d N ' =N (t) λdt


(7.4)
Pero, como en todo momento

N ( t ) + N ' ( t ) =N 0 → dN =−d N '


(7.5)
Por lo que

dN =−N (t )λdt
(7.6)
Separando variables

dN
=−λdt
N (t )
(7.7)
Integrando y recordando que λ no depende de t

ln N ( t )=−λ t+ C

La constante de integración se determina, viendo que para t=0 , N=N 0 por lo que C=ln N 0

ln N ( t )−ln N 0=− λt
(7.8)

Juan Carlos Cruz Álvarez Página 79 TEMA 7


N (t ) − λt
=e
N0

Y finalmente obtenemos
[λ]: s-1
Ley de desintegración radiactiva: N (t )=N 0 e −λt
N0: núcleos radiactivos
N: núcleos sin desintegrar

(7.9)

Desde el punto de vista práctico, esta ecuación carece de utilidad, ya que no es posible medir el
número de átomos N y N 0 en un conjunto de radionucleidos.

7.2.4 PERIODO DE DESINTEGRACIÓN Y VIDA MEDIA

En lugar de λ se suele utilizar el periodo de semidesintegración: intervalo de tiempo en el que el


número inicial de átomos radiactivos de una muestra se reduce a la mitad. Se puede saber cuántos
núcleos sufrirán desintegración, pero no cuáles.

N0 ln 2
=N 0 e
−λT 1/2
T 1/ 2=
2 λ
(7.10)

Los valores de los periodos son característicos de cada radionucleido, y tienen un gran intervalo de
variación.

La duración de la vida real de cada núcleo determinado es impredecible, pudiendo valer entre 0 e
infinito, a partir de un instante inicial arbitrario. Sin embargo, se puede calcular la esperanza de vida,
igual a la media de vida de los núcleos de la muestra considerada.

1
Llamando τ a la vida media de cada núcleo: τ = ; T 1/ 2=τ ln 2
λ

La relación entre el número de núcleos y la masa es

NA m: masa en gramos
N=m NA: nº Avogadro (6,023.1023)
A A: masa atómica del elemento

La vida media y el periodo son conceptos físicos distintos que tienen como similitud la dimensión,
tiempo en ambos casos

[ T 1/ 2 ]=[ τ ] =T
7.2.5 ACTIVIDAD. ACTIVIDAD ESPECÍFICA

Actividad (número medio de desintegraciones en la unidad de tiempo):

A=λN
(7.11)
La unidad tradicional de actividad es el Curio (Ci)

1 Ci=3,7 x 1010 desintegraciones /s


(7.12)

Juan Carlos Cruz Álvarez Página 80 TEMA 7


Que es la actividad de 1 g de Radio. La unidad del sistema internacional es el Becquerelio (Bq)

1 Bq=1 d /s
(7.13)
Multiplicando la expresión (7.9) por 𝝀
λN ( t )=λ N 0 e−λt
O lo que es lo mismo

A ( t )= A0 e− λt
(7.14)
La actividad decrece siguiendo una ley exponencial.

A menudo se representa en forma semilogarítmica, donde la curva se convierte en una recta, como se
puede ver al tomar logaritmos en la expresión

ln A=ln A 0− λt
(7.15)

La actividad referida a una unidad de masa o de volumen se denomina actividad específica.

7.2.6 TRANSFORMACIONES RADIACTIVAS EN CADENA

En la desintegración de un radionucleido, el núcleo hijo da lugar a cadenas radiactivas; tras una serie
de transmutaciones se alcanza un núcleo estable, que finaliza el proceso.

En el estudio de la cadena radiactiva interesa conocer el nº de núcleos radiactivos de cada “eslabón” en


función del tiempo.

EQUILIBRIO RADIACTIVO
Se puede alcanzar una aproximación al equilibrio si el radionucleído que encabeza la cadena se
desintegra mucho más lentamente que cualquiera de los restantes radionucleídos integrantes.

Se distinguen dos variantes de equilibrio radiactivo:


N n: nº de átomos de la especie n al cabo de un tiempo t
λ n: cte. de desintegración radiactiva de la especie n

 Equilibrio secular:
Si se supone que N 1 ≈ cte . y λ1 ≪ λ2

N 1 λ1=N 1 λ1
(7.23)

Todos los miembros de la cadena se desintegran con un pseudoperiodo igual al del


radionucléido inicial, y todos ellos tienen la misma actividad.

La relación (7.23) es aplicable siempre que un radionucleido precursor de periodo


relativamente largo sea origen de una cadena de diversos radionucleidos de periodo mucho más
corto, siendo condición necesaria que la mezcla de radionucleidos, no haya sufrido
perturbación, es decir que no haya habido ninguna pérdida (por ejemplo por emisión de un
radionucleido gaseoso).

 Equilibrio transitorio:
Cuando el periodo del precursor es mayor pero no excesivamente más grande que el de su
producto de desintegración, λ 1< λ 2, y transcurrido un tiempo t, tal que e− λ t ≫ e−λ t:
1 2

Juan Carlos Cruz Álvarez Página 81 TEMA 7


λ1
N2 ≈ N 0 e− λ t
1

λ 2−λ1 1
(7.24)

En el equilibrio transitorio el hijo decae con el periodo aparente del padre, pero teniendo en
cuenta que:
N 1=N 01 e− λ t
1

(7.25)
N 1 λ 2−λ1
=
N2 λ1
(7.26)
Relación de actividades:
A 1 λ 1 N 1 λ 2 − λ1
= =
A2 λ2 N2 λ2
(7.27)

Por lo que la actividad padre es ( λ 2−λ1 )/ λ2 inferior a la del hijo

El equilibrio transitorio constituye el fundamento de los generadores isotópicos, dispositivos


muy utilizados en Medicina Nuclear para producir ciertos radionucleidos de periodo corto.

7.3 TIPOS DE DESINTEGRACIÓN RADIACTIVA

7.3.1 BALANCE ENERGÉTICO DE LA DESINTEGRACIÓN

Algunos núcleos, cuya relación carga/masa se encuentra fuera de unos ciertos límites, experimenta
espontáneamente cambios en su estructura nuclear, con objeto de modificar su carga o su masa, en el
sentido de aumento de la estabilidad.

En los procesos de desintegración radiactiva, la masa del núcleo precursor o padre es siempre mayor
que la suma de las masas del núcleo descendiente o hijo y la de la partícula/s emitida/s.

La energía que se libera en uno de estos procesos (energía de desintegración) procede de un


decremento de masa:

Q=( m p−m d −m e ) c 2 Q: energía de desintegración


m: masas de núcleos: precursor, descendiente y emergente
(7.28)

Para que un proceso de desintegración radiactiva se produzca de forma espontánea, debe cumplirse
Q>0

La energía de desintegración aparece como energía cinética de la partícula o partículas emitidas ( T p),
energía cinética de retroceso del núcleo hijo (T R ), y energía de excitación de niveles nucleares en el
núcleo hijo (T ex)

Q=T p +T R +T ex
(7.29)

ESPECTROS ENERGÉTICOS DE PARTÍCULAS Y FOTONES


Un espectro es una representación que proporciona un número de partículas o fotones, dn, con energías
comprendidas entre E y E+dE.

Juan Carlos Cruz Álvarez Página 82 TEMA 7


Los espectros energéticos se clasifican en discretos, cuando están formados por picos aislados de
radiación monoenergética, y continuos, cuando la distribución energética de la radiación tiene carácter
continuo, en el intervalo considerado.

7.3.2 ESQUEMAS DE DESINTEGRACIÓN

Los niveles energéticos de precursor y descendiente se representan


mediante trazos horizontales gruesos.
El nivel del núcleo precursor se encuentra siempre en una posición
superior respecto al núcleo descendiente.

El símbolo del nivel fundamental del núcleo residual está


desplazado a la derecha del núcleo precursor si el proceso
radiactivo conduce a la formación de un descendiente con nº
atómico mayor, y a la izquierda si es menor.
Por encima de los símbolos correspondientes a los niveles fundamentales, se disponen con trazos finos,
los niveles energéticos de los núcleos, en las correspondientes verticales.

Las transiciones que tienen lugar con emisión de partículas se simbolizan con flechas oblicuas, que
tienen su origen en el nivel fundamental del núcleo precursor (o más raramente en alguno de los
niveles excitados), y acaban en alguno de los niveles energéticos del núcleo descendiente. En cambio,
las transiciones entre distintos niveles de un mismo núcleo, se indican con flechas verticales.

En los esquemas de desintegración, se suelen indicar otros datos de interés, tales como el tipo de
desintegración radiactiva, los valores numéricos de las energías de los distintos niveles excitados, y
partículas y fotones emitidos, así como sus porcentajes de emisión, etc.

7.3.3 EMISIÓN DE PARTÍCULAS CARGADAS

DESINTEGRACIÓN ALFA
Las partículas alfa (α) son átomos de He doblemente ionizados, núcleos de He4, o la unión de dos
protones y dos neutrones.

En una desintegración alfa el número atómico disminuye en dos unidades y su número másico se
decrementa en cuatro, el núcleo hijo corresponde a un elemento distinto, situado dos lugares hacia
atrás en la Tabla Periódica respecto al núcleo padre que se desintegra:

X AZ → Y Z−2
A −4
+ He42

La desintegración alfa es típica de núcleos pesados, la condición Qα >0 solo la cumplen nucleidos
A>140, siendo imposible para núcleos más ligeros.

La energía cinética de la partícula alfa emitida es siempre menor que la energía de desintegración, pues
el núcleo descendiente se lleva parte de la energía liberada.

La energía cinética de la partícula alfa emitida es siempre menor que la energía de desintegración, pues
el núcleo descendiente se lleva parte de la energía liberada. Mediante la aplicación de los principios de
conservación de energía y cantidad de movimiento, llamando T α a la energía cinética de la partícula
alfa, y T r a la energía cinética del núcleo de retroceso, se demuestra que

mr
T α= Q
mα +m r α
(7.32)
Juan Carlos Cruz Álvarez Página 83 TEMA 7

T r= Q
mα + mr α
(7.33)
m
Donde α y m r son las masas de la partícula alfa y del núcleo de retroceso respectivamente.

Teniendo en cuenta (7.32) las partículas alfa emitidas deberían ser monoenergéticas y esto es lo que
ocurre en cierto número de casos, en los que el espectro energético de las partículas alfa presenta sólo
una línea, pero estudios cuidadosos de alta resolución, han puesto de manifiesto que un emisor alfa
puede emitir grupos de partículas alfa de distintas energías, que es lo que se denomina estructura fina.
Esto se debe a que cuando se produce la transición alfa, el núcleo hijo puede quedarse en el estado
fundamental o en algún estado excitado, por lo que la energía de las partículas alfa emitidas será
diferente dependiendo en qué estado se quede el núcleo hijo.

DESINTEGRACIÓN BETA
El ámbito se extiende a toda la carta de radionucleidos, desde os más ligeros a los más pesados.

La desintegración beta es un proceso seguido por nucleidos inestables para alterar su relación
carga/masa y convertirse en nucleidos estables.

En esta desintegración sólo varía el nº atómico Z, manteniéndose invariable el número másico A, por
lo que el núcleo descendiente es un isóbaro del núcleo precursor.

La desintegración beta puede ser:

 Beta negativa ¿
 Beta positiva ¿
 Captura electrónica (C . E .)

Desintegración beta negativa:


Emisión espontánea de electrones, llamados β−¿¿ , que son emitidos con velocidades próximas a las de
la luz.
Los espectros beta son continuos, y se extienden desde energía cero hasta una energía máxima o límite
superior que depende del radionucleido emisor.

Fermi, se basó en la suposición de que en la desintegración beta se emite, además del electrón, una
nueva partícula llamada neutrino, carente de masa y de carga, pese a lo cual se ha logrado detectar
mediante experimentos cuidadosos.

Según la teoría del neutrino, cada proceso de desintegración beta va acompañado de la liberación de la
energía de desintegración, prácticamente equivalente a la máxima del espectro beta, que se distribuye
entre la partícula beta, el neutrino y el núcleo de retroceso. En Mecánica se demuestra que cuando una
energía definida se reparte entre tres partículas, los principios de conservación de energía y de cantidad
de movimiento no son suficientes para determinar unívocamente la energía de cada partícula. Al
aplicar estos conceptos a la desintegración beta, la energía de la desintegración se reparte
prácticamente y en forma aleatoria entre el electrón y el neutrino, quedando sólo una parte despreciable
para el núcleo de retroceso, dada su masa mucho mayor. De esta forma el espectro beta queda
cualitativamente explicado, pues si la energía de la partícula beta tiende a cero, el neutrino se lleva
prácticamente toda la energía, mientras que si la partícula beta lleva la energía máxima, el neutrino
emerge con energía tendiendo a cero. El resto del espectro es por tanto la expresión continua de los
posibles repartos de energía entre ambas partículas, comprendidas entre los casos límites citados.

Juan Carlos Cruz Álvarez Página 84 TEMA 7


La transformación nuclear que se produce es la conversión de un neutrón en un protón, un electrón y
un antineutrino (ύ).
n → p+ e−¿+ ύ¿

El neutrino (υ) y su antipartícula, el antineutrino (ύ) son eléctricamente neutros, de masa en reposo
nula, que se mueven a la velocidad de la luz, por lo que pueden atravesar sin interaccionar grandes
espesores de materia.

Puesto que en la desintegración β−¿¿ un neutrón se transforma en protón, el núcleo hijo tendrá el
mismo número másico que el núcleo padre, pero su número atómico será una unidad mayor.

Proceso de la desintegración beta:

X AZ → Y ZA+1+ β−¿+ ν́ ¿
−¿¿

β−¿≡ e ¿

Las energías máximas de los espectros β−¿¿ se extienden desde emisores blandos (baja energía) como
el tritio ( H 3) de energía máxima 17 keV, hasta el P32 con energía máxima 1,7 MeV.

Son emisores β−¿¿ los radionucleidos muy ricos en neutrones. La emisión β−¿¿ reduce el cociente N / Z
con lo que el nucleido descendiente se encuentra más próximo a la zona de estabilidad, o la alcanza en
la transición.

Desintegración beta positiva


Emisión de positrones (e+) por ciertos radionucleidos. El positrón es la antipartícula del electrón, con
su misma masa y carga positiva, con valor absoluto igual a la del electrón

No existen positrones libres en el interior de los núcleos atómicos, un protón se convierte en un


neutrón, un positrón y un neutrino:
p →n+ e+¿+υ ¿

El núcleo hijo tiene el mismo número másico que el padre y el nº atómico desciende en una unidad, el
núcleo hijo corresponde al elemento químico que precede en un lugar al precursor en la Tabla
Periódica.

X AZ → Y Z−1
A + ¿¿

+ β +¿+υ¿ β +¿≡ e ¿

el espectro β +¿¿ es igualmente continuo, desde energía cero a un valor máximo que depende del
radionucleido considerado, y que alcanza en los emisores más duros (más energéticos), unos 5 MeV.

Los positrones emitidos son partículas inestables, tras ser emitidos y perder su energía cinética se
combinan con un electrón libre del entorno, produciéndose la aniquilación de positrones, en el que la
totalidad de la masa de ambas partículas se convierte en energía, en forma de dos fotones de igual
energía, 511 keV, que se propagan en la misma dirección pero en sentidos opuestos. Este tipo de
radiación electromagnética es denominada, por su origen, radiación de aniquilación.

Captura electrónica
Los electrones de átomo, en su movimiento, se aproximan al núcleo, e incluso pueden penetrar en él.
La mayor probabilidad de que esto suceda corresponde a los electrones de las órbitas más cercanas al
núcleo (electrones K y L). El electrón capturado se asocia a un protón, formándose un neutrón y un
neutrino

p+e−¿→ n+υ ¿

Juan Carlos Cruz Álvarez Página 85 TEMA 7


El núcleo hijo tendrá el mismo número de nucleones que el padre, pero su número atómico disminuye
en una unidad:
A

X AZ +e−¿→ Y Z−1 +υ ¿

La captura electrónica compite con la desintegración β +¿¿, pues en los dos procesos se produce la
misma transición nuclear, todo radionucleido que se desintegre mediante emisión β +¿¿ puede hacerlo
también por captura electrónica, pero la inversa no es cierta.

En todo proceso de captura electrónica, el átomo descendiente queda ionizado, con una vacante en la
capa K usualmente. En consecuencia, se emitirán rayos X característicos al producirse el reajuste
electrónico en el átomo descendiente.

7.3.4 EMISIÓN GAMMA

La radiación gamma carece de carga y de masa. Tiene una penetración muy superior al de las
partículas alfa y beta. Se produce en transiciones nucleares entre niveles excitados.

En general, en los campos de Física Atómica y Nuclear se produce radiación electromagnética en


distintos procesos como es la radiación X, por transiciones electromagnéticas atómicas en las capas
más cercanas al núcleo, la radiación de aniquilación, originada al recombinarse un electrón y un
positrón, la radiación gamma propiamente dicha, producida en transiciones nucleares entre niveles
excitados. En el caso de la generación de radiación electromagnética monoenergética (radiación
gamma, rayos X característicos y radiación de aniquilación) la denominación viene ligada al
mecanismo de producción, ya que los fotones emitidos no poseen ninguna característica que permita
discernir su origen.

Un núcleo en un nivel excitado se simboliza añadiendo un asterisco a su símbolo (U 236* hace referencia
al núcleo U236 en uno de sus niveles excitados). Los núcleos descendientes originados tras
desintegraciones radiactivas, o los núcleos residuales en una reacción nuclear, suelen quedar en un
estado excitado.

En general, cuando un núcleo atómico es promovido a alguno de sus niveles excitados, el estado
resultante es muy inestable y para su desexcitación el núcleo dispone varios mecanismos, la
desexcitación sucede de acuerdo con la probabilidad relativa de cada vía de las citadas, siendo la
emisión gamma una de las más frecuentes.
Los niveles excitados tienen generalmente una vida media muy corta, del orden del femtosegundo (≈
10-15 s).

EMISIÓN DE RADIACIÓN GAMMA


Un núcleo que se encuentra en uno de sus niveles excitados pasa a otro de menor energía mediante la
emisión de radiación electromagnética. La energía de los fotones de la radiación gamma, se encuentra
en los casos más habituales, entre keV y MeV, en orden de magnitud.
A

X A∗¿→ X +γ¿

(7.40)
A∗¿¿
donde X representa a un nucleido excitado

En este caso la energía de la desintegración será

Q γ =¿
(7.41)
donde Ei es la energía del estado nuclear inicial y E f la del final (que en el caso de que sea el estado
fundamental se considera cero). Teniendo en cuenta las energías cinéticas de retroceso del núcleo hijo (
T R ) y del fotón gamma emitido (T γ )
Juan Carlos Cruz Álvarez Página 86 TEMA 7
Q γ =T R +T γ
(7.42)

Como la T R es mucho más pequeña que T γ se puede considerar

T γ ≅ E i−Ef
(7.43)

El espectro energético de un radionucleido emisor gamma es discreto, formado por una o varias líneas
monoenergéticas cuyas energías e intensidades son específicas de cada radionucleido (lo que es muy
útil para el análisis cualitativo y cuantitativo).

Conversión interna
Proceso competitivo que se produce como alternativa a la emisión de radiación gamma.
Consiste en que la energía del nivel nuclear excitado se transfiere a la corteza electrónica, y a
consecuencia se emiten electrones de conversión, cuya energía ECI es igual a la de transición gamma
T γ menos la energía de ligadura Ee .

ECI =T γ −Ee
(7.44)

El espectro de electrones de conversión es discreto, correspondiendo a cada transición convertida, una


serie de líneas monoenergéticas. El efecto de la conversión interna se aprecia en ciertos espectros beta,
donde el espectro continuo genuino propio de las partículas beta, lleva superpuesto un espectro
discreto debido a las líneas de conversión de la radiación gamma asociada.

El proceso de conversión interna da lugar a vacantes electrónicas en capas profundas, en especial la K


(más cercana al núcleo) y la L (la inmediata superior). En consecuencia, como resultado de la
reorganización de la corteza electrónica, se emitirán rayos X característicos.

Isomería nuclear
Existen ciertos casos de nucleidos, donde por estar una transición gamma muy prohibida, ciertos
núcleos pueden permanecer en su estado excitado durante largos intervalos de tiempo, incluso años.

Estos niveles se llaman metaestables y los nucleidos que se encuentran en ellos, isómeros. Los
isómeros son capaces de tener sus propias transiciones sin tener que pasar por el nivel fundamental.

Los radionucleidos isómeros se simbolizan añadiendo la letra m al correspondiente número másico en


el símbolo del nucleido, así XAm es el isómero del XA.

7.4 GENERACIÓN DE RAYOS X

7.4.1 FORMACIÓN Y EMISIÓN DE RAYOS X

Se trata de una radiación electromagnética de longitud de onda comprendida entre 5 x 10−9 y 5 x 10−12 m
aprox. Estas longitudes de onda corresponden a la región del espectro electromagnético situada entre
la radiación ultravioleta y los rayos gamma, si bien el límite con éstos últimos es impreciso y la
clasificación obedece más a los modos de producción de las radiaciones que a su longitud de onda

Los rayos X tienen lugar en la corteza atómica, pues se debe a la emisión de energía en los saltos de los
electrones orbitales.

Juan Carlos Cruz Álvarez Página 87 TEMA 7


Esta longitud de onda tan pequeña es lo que le confiere la capacidad de poder atravesar determinados
materiales. Su capacidad de penetración es tanto mayor cuanto mayor es su energía, cuanto más baja es
la densidad de la materia y cuanto menor es el número atómico promedio de dicha materia atravesada.
La radiación se atenúa al atravesar la materia, lo que quiere decir que parte de ella es absorbida. La
fracción absorbida produce radiación difusa o secundaria y puede producir lesiones en los organismos
vivos.

Cuando electrones con mucha energía chocan con un material metálico, se producen rayos X. Esta
producción se debe a dos procesos: Rayos X característicos y rayos X de frenado.
RAYOS X CARACTERÍSTICOS
Los electrones energéticos penetran hasta la zona profunda de los niveles atómicos del material con el
que han chocado, y arrancan electrones que al salir dejan huecos. Estos huecos son llenados por otros
electrones que están en capas superiores de energía. En la transición entre los niveles se emite energía
en forma de radiación electromagnética, con una longitud de onda correspondiente a los rayos X.

Se obtiene así un espectro de rayos X característicos, con una serie de líneas de energías bien definidas
(monoenergéticos), cuyo valor es el correspondiente a la diferencia de energía entre los niveles y son
característicos del metal.

RAYOS X DE FRENADO
Cuando las partículas cargadas se frenan bruscamente emiten radiación electromagnética. Por esto
ocurre otro proceso simultáneo a la emisión de rayos X característico, cuando los electrones
energéticos se acercan al núcleo, por la acción del campo colombiano de éste, sufren una variación
brusca de su velocidad, lo que hace que emitan radiación electromagnética. Esta radiación se llama de
frenado o bremsstrahlung y presenta un espectro continuo. También es en rango de los rayos X.

7.4.2 TUBO DE RAYOS X

El cátodo del tubo de rayos X libera electrones por efecto termoiónico (calentamiento de un filamento)
al ser calentado con una corriente. Una vez emitidos desde el filamento, los electrones permanecen
momentáneamente en su proximidad antes de ser acelerados hacia el ánodo por la diferencia de
potencial que se establece entre el cátodo y el ánodo. Los electrones que viajan desde el cátodo hacia el
ánodo constituyen la corriente del tubo de rayos X y a veces se les denomina electrones proyectil.

Cuando los electrones proyectil chocan contra


el material pesado del blanco, interaccionan
con él y le transfieren su energía cinética. El
valor de esta energía cinética máxima coincide
numéricamente con la diferencia de potencial
aplicada.

Estas interacciones se producen dentro de una


profundidad de penetración muy pequeña en el
blanco.

Los electrones proyectil interaccionan con los electrones orbitales o los núcleos de los átomos blanco,
dando lugar a la transformación de la energía cinética en energía térmica (calor) y electromagnética
(rayos X).

Esta energía depende del material anódico, la energía máxima del espectro depende de la tensión
aplicada y su intensidad de la densidad de electrones que salen del cátodo, es decir del calentamiento
del filamento. También se producirán rayos X característicos del metal al arrancar los electrones
incidentes a los electrones atómicos del metal.

7.5 REACCIONES NUCLEARES


Juan Carlos Cruz Álvarez Página 88 TEMA 7
7.5.1 DESCRIPCIÓN DE LAS REACCIONES NUCLEARES

Rutherford en 1919 observó la primera reacción nuclear, al demostrar que el bombardeo de nitrógeno
con partículas alfa daba lugar a la emisión de protones:

N 14 4 17 1
7 + He 2 → O 8 + H 1

(7.45)
NOMENCLATURA

Esta expresión se expresa de forma genérica:

A A'
XA : símbolo del blanco
X ( p , q )Y p: proyectil
(7.47) q: partícula emergente
YA’: núcleo residual

7.5.2 MECANISMOS DE PRODUCCIÓN

Según la teoría de Bohr, una reacción nuclear se verifica en dos etapas claramente diferenciadas:

a) El núcleo blanco absorbe la partícula proyectil, formándose un núcleo compuesto (inestable).

b) El núcleo compuesto se desintegra, con emisión de partículas o fotones, quedando un núcleo


residual.

En la reacción 7.45 el paso por el núcleo compuesto queda

N 14 4 18 17 1
7 + He 2 → [ F9 ] →O 8 + H 1
(7.48)

Como consecuencia de la absorción del proyectil por el blanco, se forma un núcleo compuesto (F 18),
que posteriormente se desintegra emitiendo un protón y quedando un núcleo residual.

La partícula proyectil, al penetrar en el blanco pierde su identidad y reparte su energía cinética con los
nucleones del blanco, que adquieren una energía de excitación suma de la energía cinética de la
partícula incidente y de la energía de enlace de la partícula del núcleo. Si esta energía en un proceso
aleatorio se concentra en un nucleón o grupo de nucleones, y se alcanza la energía de separación, se
emite la partícula.

El núcleo compuesto “olvida” el modo de su formación, de forma que sus diversos modos de
desintegración (canales de salida) son independientes de los canales de formación (canales de entrada)
del núcleo compuesto.

La energía de excitación del núcleo compuesto puede distribuirse de muchos modos distintos entre sus
nucleones, y como a cada uno de estos estados le corresponde un nivel, el número de éstos resulta muy
elevado.

Estos niveles están íntimamente relacionados con el fenómeno de la resonancia, cuando la energía de
la partícula incidente es tal que la energía total del sistema formado por la partícula incidente y el
núcleo blanco, es igual a la de excitación de uno de los niveles del núcleo compuesto, la probabilidad
de que éste se forme, es mucho mayor que cuando no se cumple esta condición, fenómeno comparable
a la recepción de una onda de radio, cuando su frecuencia es igual a la del circuito de sintonía, en
cuyas condiciones es buena la recepción, pero ésta empeora cuando ambas frecuencias no son iguales.

La aparición de un máximo por resonancia en el rendimiento de una reacción nuclear al variar la


energía de la partícula incidente, demuestra que se ha alcanzado uno de los niveles mencionados.
Juan Carlos Cruz Álvarez Página 89 TEMA 7
7.5.3 TIPOS

Las reacciones nucleares se pueden agrupar en una de las siguientes clases:

Dispersión – Colisión mecánica (bola de billar)


Puede ser elástica o inelástica. No hay formación de núcleo compuesto.

 Dispersión elástica. Se cumple la conservación del movimiento y energía cinética. Se produce


cuando la energía que recibe el núcleo blanco no alcanza el primer nivel excitado.
 Colisión inelástica. Se cumple la conservación del momento, pero no la energía cinética, ya
que parte de ésta se consume en promover al núcleo colisionado a uno de sus niveles
excitados.

Captura radiactiva
El núcleo blanco absorbe una partícula y se genera un núcleo intermedio que está en estado excitado.
Se emite radiación gamma.

p+ X AZ → ¿
(7.49)
Emisión de partículas
Se absorbe la partícula proyectil por el núcleo blanco y se emite una partícula.
'

p+ X AZ → (Y AZ ' ) → W AZ'''' +q
(7.50)
Fotodesintegración
El proyectil es un fotón y se produce emisión de partículas.
¿

γ + X AZ → ( X ZA ) →Y AZ '' + q
(7.51)
Fisión
Al absorberse el proyectil (un neutrón) se forma un núcleo compuesto muy inestable y altamente
excitado, lo que hace que se produzca su escisión, generalmente en dos fragmentos asimétricos,
liberándose un cierto número de neutrones x y mucha energía.
Las reacciones de fisión son altamente exoérgicas. (utilizada en reactores nucleares)
'

n+ X ZA → ( Y ZA' ) →W ZA'''' + xn
(7.52)

Fusión
Tiene lugar cuando varios núcleos ligeros se unen para formar otro más pesado. Aunque el proceso de
fusión es exoérgico, no se produce espontáneamente debido a la repulsión coulumbiana de los núcleos
ligeros reaccionantes, y la manera de lograrlo es calentar el gas reaccionante a muchos millones de
grados, para que la energía media de excitación térmica alcance valores de 1 keV.
Este tipo de reacciones se dan en las estrellas y son la base de los futuros reactores de fusión.
'

X AZ +Y ZA' → W AZ''''
(7.53)

Juan Carlos Cruz Álvarez Página 90 TEMA 7


7.5.4 LEYES DE CONSERVACIÓN EN REACCIONES NUCLEARES

Reacción genérica:
X AZ + Y ZA →V AZ +W ZA
1

1
2

2 3
3 4

(7.54)

Ley de conservación de la carga


Si la partícula proyectil tiene número atómico Z1 y el blanco Z2 el sistema final poseerá un número
atómico total Z1 + Z 2:
Z1 + Z 2=Z 3 + Z 4
(7.55)

Ley de conservación del número de nucleones


Si A1 y A 2 son los números másicos de proyectil y blanco, el sistema final deberá tener
A1 + A2 nucleones:
A1 + A2 =A 3 + A 4
(7.56)
Principio de conservación de energía total
M1 : masa partícula proyectil
T1: energía cinética partícula proyectil
M2:: masa núcleo blanco en reposo
T 1+ M 1 c 2+ M 2 c 2=T 3+ M 3 c 2+ T 4+ M 4 c 2 Mc: masa núcleo compuesto
(7.57) M3 : masa partícula final
T3: energía cinética partícula final
M4 : masa núcleo residual
T4: energía cinética núcleo residual

Balance energético de la reacción (Q): diferencia entre la energía cinética de los productos de reacción
y la de la partícula incidente

Q=T 3 +T 4−T 1 Q=( M 1 + M 2−M 3−M 4 ) c2


(7.58) (7.59)

Reacción exoenergética o exoérgica: la energía cinética de los productos es mayor que la de los
reaccionantes (Q>0).

Reacción endoenergética o endoérgica: la energía cinética de los productos es menor que la de los
reaccionantes (Q<0). En este caso se necesita una contribución energética Q para excitar el núcleo y
que se desintegre, esta energía se llama energía umbral y su valor es:

M 1+ M 2
T u=−Q
M2
(7.60)

Q=0 sólo se cumple por reacciones de dispersión elástica, donde en ellas la energía cinética inicial es
igual a la final.

7.5.5 INTRODUCCIÓN AL CONCEPTO DE SECCIÓN EFICAZ

Una partícula incide sobre una lámina delgada de superficie S, que contiene N T núcleos, cuya sección
transversal es σ =π R 2, la probabilidad de que la partícula choque con un núcleo será:

Juan Carlos Cruz Álvarez Página 91 TEMA 7


NT σ nv: nº de partículas del haz incidente que atraviesan
C=nv =nvσ N T una superficie de 1 cm2 por segundo (flujo)
S
(7.61)

C
σ=
nvσ N T
(7.62)

La sección eficaz de colisión viene dada por el número de colisiones por unidad de volumen y por
segundo, para un flujo incidente unidad y densidad nuclear igualmente unidad y depende, entre otras
cosas de la energía de la partícula incidente.

La totalidad de argumentos expuestos anteriormente son aplicables a cualquier reacción nuclear


sustituyendo el término colisión por el que sea adecuado al proceso en cuestión, por ejemplo σ s suele
representar la sección eficaz de dispersión y se reparte en dos partes, σ e para dispersión elástica y σ ¿
para dispersión inelástica.

La expresión que define el número de procesos que ocurren de una clase dada incluyen el producto N σi
, que representa la sección eficaz para el proceso i de la totalidad de los núcleos contenidos en 1 cm 3 de
material, y se denomina sección eficaz macroscópica ∑ , en contraposición a la sección eficaz
microscópica.

Dado que el radio nuclear es del orden de 10-12 cm, la sección transversal será del orden de 10-24 cm2,
superficie que se toma como unidad de sección eficaz y a la que se llama barnio o barn, cuyo símbolo
es b.

Experimentalmente las secciones eficaces medidas, se extienden desde al μb al Mb (10-6 b a 106 b).

La sección eficaz depende, entre otras cosas, de la energía de la partícula incidente.

7.5.6 EL NEUTRÓN

El neutrón es el principal proyectil, e induce las reacciones de fisión controlada (centrales nucleares).

La masa del neutrón es una característica física cuya precisión ha ido evolucionando, hasta el valor
actual de 1,008665012 uma.

Un neutrón es algo más másico que un protón, así el equivalente energético a la diferencia másica entre
ambas partículas es
( M n−M p ) c 2=782.34 keV
por ello es inestable como partícula libre, se desintegra a protón por emisión beta negativa, con periodo
de 12,8 minutos. En cambio, cuando está confinado en el núcleo, su energía de enlace negativa le
confiere una estabilidad total.

Las reacciones nucleares constituyen la única fuente de que se dispone para producir neutrones, y las
reacciones (σ ; n) sobre ciertos elementos ligeros que permitieron el descubrimiento del neutrón, se
utilizan todavía para producirlos. Entre las fuentes de neutrones basadas en la reacción nuclear
mencionada, se encuentra la de tipo Radio-Berilio, formada por una mezcla íntima de cinco partes de
polvo de berilio y una de Br2Ra. El rendimiento neutrónico de estas fuentes basadas en la reacción Be 9
(σ ; n)C12 (donde se utiliza al radio como fuente de alfas), es de 4,6 x 102 n/s x MBq.

Las fuentes de Ra-Be adolecen de que la emisión de neutrones va acompañada de un flujo intenso de
radiación gamma, debido a la cadena radiactiva del radio, motivo por el cual este radionucleido ha sido
sustituido por americio, que en forma de aleación con berilio no presenta estos inconvenientes.

Juan Carlos Cruz Álvarez Página 92 TEMA 7


Los neutrones pueden también generarse mediante aceleradores de partículas. El agua pesada (D 20),
formado con deuterio ( D ≡ H 2) en vez de con hidrógeno-1, al bombardearse con deuterones de energía
adecuada constituyen una fuente de neutrones sencilla y eficaz. La reacción H2 (d , n)He3 es exoérgica
con Q=3,28 MeV , pueden obtenerse buenos rendimientos con deuterones de 100 a 200 keV, y en
condiciones controladas, se pueden obtener neutrones monoenergéticos.

El proceso de fisión constituye un método muy adecuado para obtener haces se neutrones de flujo muy
elevado (1015 n/cm2s). También se usan como fuente de neutrones las fisiones espontáneas de algunos
elementos transuránidos.

Es habitual clasificar en grupos de energías u orden de magnitud energética, a los que se dan nombres
especiales

Juan Carlos Cruz Álvarez Página 93 TEMA 7


TEMA 8. INTERACCIÓN DE LAS RADIACIONES IONIZANTES CON LA MATERIA

Las radiaciones tienen la propiedad de penetrar en la materia donde ceden su energía total o
parcialmente al interaccionar con los átomos constituyentes de la misma.

RADIACIONES IONIZANTES
Producen ionización (expulsión de un electrón fuera de la estructura atómica o molecular a la que
pertenece) en los medios materiales que atraviesan.

Las radiaciones ionizantes pueden ser:

 Directamente ionizantes
Constituidas por partículas cargadas (electrones, protones, partículas α…).
La ionización del medio es producida por la propia partícula.

 Indirectamente ionizantes
Constituidas por radiación electromagnética (fotones X y γ) y partículas neutras (neutrones).
Producen ionización indirecta por intermedio de partículas cargadas.

8.2 INTERACCIÓN DE PARTÍCULAS CARGADAS

Cuando una partícula penetra en la materia experimenta un frenado por la acción de fuerzas
electromagnéticas de núcleos y electrones que acaba por detenerla.

8.2.1 TIPOS DE INTERACCIÓN

Las partículas cargadas pierden su energía al interaccionar con la materia en forma de colisión:

- Elástica
- Inelástica
- Radiactiva

COLISIÓN ELÁSTICA
Se conserva la energía cinética y la cantidad de movimiento.
La partícula se desvía de su trayectoria, cediendo parte de su energía en forma de energía cinética.
No se produce en el medio ninguna alteración, ni atómica, ni nuclear.

COLISIÓN INELÁSTICA
Se conserva la cantidad de movimiento, pero no la energía cinética.
La partícula, al sufrir las colisiones modifica su estructura electrónica, produciendo excitación,
ionización o disociación molecular.
 Excitación: en la colisión, la partícula incide sobre un electrón atómico, y la energía transferida
es insuficiente para producir ionización. El electrón no sale del átomo, pero puede saltar a una
órbita de mayor energía.

 Ionización: si la energía transferida en el choque es superior a la energía de enlace, el electrón


abandona el átomo y se crea un ion positivo.
Se produce en estas condiciones un plasma diluido, a lo largo de la trayectoria de la partícula y
hasta una cierta distancia de la misma, se crea un cierto número de pares ion-electrón, que en
condiciones ordinarias tenderán a la recombinación, estableciéndose la neutralidad eléctrica del
medio absorbente.

Juan Carlos Cruz Álvarez Página 94 TEMA 8


 Disociación: cuando la energía cedida a una molécula por una partícula alcanza un valor crítico,
puede producirse una disociación o radiolisis (ruptura de enlaces químicos moleculares que
produce transformaciones químicas en las sustancias irradiadas).
Los efectos más intensos se dan en moléculas con enlaces covalentes cuya disociación da lugar
a la formación de radicales libres.
En general, los procesos químicos que ocasiona al radiolisis de la materia conducen a
reacciones de descomposición, procesos de oxidación, como los sufridos por las sales ferrosas
disueltas en agua, reducciones como las experimentadas por haluros de plata, o
polimerizaciones como las experimentadas por el etileno o el acetileno.

COLISIÓN RADIACTIVA
La partícula cargada se frena o se desvía en su interacción con los átomos del medio y emite radiación
electromagnética. Este proceso se produce con mayor probabilidad en las proximidades del núcleo
atómico, como consecuencia de pequeñas desviaciones de la partícula incidente.

Una partícula cargada, al ser acelerada emite radiación cuya intensidad (Ir) es proporcional al cuadrado
de la aceleración:

z2 Z 2 M: masa de la partícula
I r=K z: carga “ “
M2 Z: carga del núcleo atómico
(8.1) K: constante

La energía de los fotones de frenado tiene valores comprendidos entre cero y la energía cinética de la
partícula al producirse la colisión.

La radiación de frenado (o bremsstrahlung) es prácticamente despreciable para partículas cargadas


pesadas (protones, deuterones, alfa…).

Para electrones, la radiación de frenado tiene gran importancia cuando su energía es superior a algunos
MeV, sobre todo si el material tiene un elevado nº atómico Z.

Relación entre la pérdida de energía por radiación de freneado y por ionización

rad . frenado ZE(MeV )



rad . ionizante 800
(8.2)
Siendo E la energía del electrón expresada en MeV

8.2.2 IONIZACIÓN ESPECÍFICA

IONIZACIÓN PRIMARIA
Si en la colisión inelástica la energía transferida es superior a la energía de enlace del electrón
colisionado, éste abandona el átomo y se crea un ion positivo.

IONIZACIÓN SECUNDARIA
Electrones producidos en la ionización primaria tienen energía suficiente para producir nuevas
ionizaciones en el medio.

IONIZACIÓN TOTAL It
Producida por una partícula cargada en su paso a través de la materia.

Tc Tc: energía cinética inicial de la partícula


I t= ω: energía media de ionización
ω depende de la naturaleza y energía de la partícula incidente y de la

Juan Carlos Cruz Álvarez Página 95 TEMA 8


(8.3) naturaleza del medio.

IONIZACIÓN ESPECÍFICA Ie
Número de pares electrón-ion producidos por la partícula incidente, por unidad de recorrido en el
medio material. Varía a lo largo del recorrido de la partícula, alcanzando un valor máximo hacia el
final de la trayectoria, cuando la velocidad es relativamente baja.

8.2.3 PODER DE FRENADO Y ALCANCE

Cuando una partícula cargada atraviesa un medio material, va perdiendo su energía de forma
continuada, por excitación e ionización de los átomos del medio.

Poder de frenado: pérdida de energía experimentada por la partícula por unidad de longitud a lo largo
de su trayectoria en la materia. Es una fuerza retardante. Depende del medio material y de la naturaleza
y energía de la partícula cargada que lo atraviesa.

−dE
S ( E )= [MeV/cm] ó [J/cm]
dx
(8.4)

ALCANCE
Máxima distancia de penetración de una partícula cargada en un medio material.

Para las partículas cargadas pesadas, el alcance coincide con la longitud de su trayectoria, ya que éstas
pueden considerarse rectilíneas.

Para los electrones, que experimentan desviaciones de gran ángulo (sobre todo si son poco
energéticos), el alcance es mucho menor a la longitud de la trayectoria.

Conviene expresar el alcance para una partícula cargada en una sustancia mediante la masa, expresada
en gramos o miligramos por cm2, de una lámina de dicha sustancia de 1 cm2 de superficie y de grosor
igual al espesor atravesado (espesor másico)
g
A un espesor de X(cm) en una sustancia de densidad ρ( 3 ) le corresponde un espesor másico
cm
g
X g ( 2 ) dado por
cm

X m ( g /cm2 ) =X ( cm ) x ρ ( g /cm3 )
(8.6)
Los alcances de las partículas cargadas se suelen dar en estas unidades. La ventaja principal de
expresar en esta forma espesores de sustancia radica en que el alcance depende sólo de las
características de la partícula incidente y muy poco de la naturaleza de la sustancia atravesada.

Alcance de partículas alfa. Al atravesar el aire en condiciones normales, las partículas alfa producen
varios miles de pares electrón-ion por milímetro de recorrido (más si la sustancia es más densa). Por
ello las partículas alfa pierden su energía muy rápidamente y su alcance es de unos pocos cm (son
detenidas por una hoja de papel, la tela de un vestido o la piel del cuerpo humano):

R ( cm )=0,318 ×T 3α /2 ( MeV ) R: alcance


T: energía cinética
(8.7)
Esta expresión proporciona una buena aproximación
para energías comprendidas entre 4 y 7 MeV

Juan Carlos Cruz Álvarez Página 96 TEMA 8


Alcance de partículas beta. Poseen una velocidad muy superior a las partículas alfa de la misma
energía (son más ligeras). Debido a la menor masa y mayor velocidad, tienen un poder de penetración
mayor en la materia (del orden de metros), dependiendo fuertemente de la energía de la partícula. Su
trayectoria es, en cambio, muy irregular debido a las desviaciones que sufren al chocar
(retrodispersión).

Blindajes para los radionucleidos que se desintegran vía beta: primer espesor (en contacto con el
radionucleido) de un material con bajo número atómico Z, para que frene los electrones o positrones
produciendo la mínima cantidad de radiación de frenado, seguida de un cierto espesor de material de
alto número atómico Z, que sirva para atenuar la posible radiación producida en el frenado de las
partículas o fotones de aniquilación (para desintegración β +¿¿). Nunca debe ponerse al revés, ya que
ello significaría una cantidad apreciable de radiación fuera del contenedor o aumentar
innecesariamente el tamaño de éste.

El cálculo analítico se realiza mediante las fórmulas empíricas de Feather:

Si 0,08 < Tmax < 0,8 MeV se cumple:

R β ≅ 0,407 ×T 1.38 R: alcance másico [g/cm2]


max

(8.8)

Para 0,8 < Tmax > 3 MeV :

R β=0,542×T max −0,106 Tmax: energía máxima del espectro


beta emitido [MeV]
(8.9)

Aniquilación de positrones. Los positrones de gran energía tienen pérdidas por ionización y
radiación, igual que los electrones. Este fenómeno introduce la variable adicional de la generación de
radiación de aniquilación, circunstancia importante, en especial para el cálculo de blindajes biológicos

8.3 INTERACCIÓN DE RAYOS X Y RAYOS GAMMA

Tanto los rayos X como los gamma son radiaciones electromagnéticas cuya interacción directa con la
materia da lugar a la liberación de electrones primarios que serán los que producirán la excitación e
ionización de los átomos y moléculas de la materia que atraviesan.

Son, por lo tanto, radiaciones indirectamente ionizantes.

8.3.1 PROCESOS DE INTERACCIÓN

Mecanismos de interacción de la radiación electromagnética de alta energía (X y γ) resultan de la


superposición de varios procesos independientes:
- Efecto fotoeléctrico
- Efecto Compton
- Creación de pares

EFECTO FOTOELÉCTRICO
Se produce al colisionar un fotón y un electrón ligado a un
átomo. El fotón X o γ es completamente absorbido y toda
su energía es comunicada al electrón, el cual escapa del
átomo con una energía cinética igual a la diferencia entre la
energía del fotón incidente y la de ligadura del átomo.

E f =E γ −Eb (8.10) Eγ: (Eγ = hυ) energía del fotón


incidente
Juan Carlos Cruz Álvarez Página 97 TEMA 8
Eb: energía de ligadura del electrón al
átomo

Los electrones así emitidos se denominan fotoelectrones.

El átomo residual tras este efecto es un ion positivo con una vacante en una capa profunda
(generalmente la capa K). Por ello el fotoelectrón emitido irá acompañado de rayos X característicos.

El efecto fotoeléctrico es un fenómeno de absorción que tiene una importancia preponderante.

EFECTO COMPTON
Tiene lugar en la colisión entre un fotón y un electrón tan
debilmente ligado (Eb << Eγ) que se puede considerar como
libre.

El fotón incidente sólo cede al electrón con el que choca parte


de la energía, convirtiéndose en otro fotón de menor energía
y de menor frecuencia, desviado de la trayectoria inicial.

La energía cedida al electrón es variable según el choque sea


más o menos frontal y el nuevo fotón salga más o menos
desviado respecto a la dirección inicial.

El efecto Compton, al igual que el fotoeléctrico, produce un


átomo residual ionizado, pero en este caso la vacante se
produce en una capa poco profunda (generalmente la más
externa) por lo que si se emite radiación electromagnética de
desexcitación, será de baja energía.

El efecto Compton es predominante en un amplio margen de energía.

CREACIÓN DE PARES
Tiene lugar con fotones de alta energía. El fotón gamma al
acercarse a un núcleo atómico desaparece totalmente y en su
lugar aparecen un positrón y un electrón; se trata de una
conversión de energía en materia.

El electrón pierde rápidamente su energía por choque con los


átomos o moléculas circundantes, a los que excita o ioniza. Los
positrones son partículas inestables que interaccionan con un
electrón para aniquilarse mutuamente. Por ello en la creación de
pares tiene lugar la creación de un par de fotones de radiación
electromagnética con direcciones opuestas.

8.3.2 ATENUACIÓN DE LA RADIACIÓN ELECTROMAGNÉTICA EN LA MATERIA

El efecto de la radiación depende de la energía de los fotones y de la naturaleza de la sustancia


atravesada.

El efecto fotoeléctrico es el más importante para la absorción de fotones de baja energía. Aumenta
notablemente con el nº atómico Z del elemento que constituye la materia absorbente.

El efecto Compton es el que prevalece en la absorción de rayos gamma de energía intermedia.


Depende en menor grado del nº atómico.

Juan Carlos Cruz Álvarez Página 98 TEMA 8


Ley de atenuación exponencial. Paso de la radiación electromagnética a través de la materia. Cuando
se produce la interacción de un haz de fotones con la materia que atraviesan, éstos son eliminados del
haz a título individual, mediante los procesos anteriores:

I =I 0 e−μx I0: intensidad del haz de fotones (fotones por segundo)


μ: coeficiente de atenuación lineal [m-1cm-1]
(8.16)

Coeficiente de atenuación másico. μ/ ρ donde ρ es la densidad de la sustancia, se mide en cm2/g o


similares, y suele utilizarse en lugar del coeficiente lineal porque no depende del estado de agregación
de la materia, en este caso los espesores utilizados serán los espesores másicos.

Espesor de semirreducción (X1/2) o capa hemirreductora de un material para radiación X o


gamma. Espesor de un material que, interpuesto en el camino de la radiación, reduce la intensidad a la
mitad. Depende de la energía de la radiación incidente y es tanto menor cuanto mayor es la densidad
del material atravesado:

ln 2
X 1 /2 =
μ
(8.17)

8.4 INTERACCIÓN DE NEUTRONES

El neutrón interacciona con un núcleo del material absorbente, que representa un pequeño volumen
frente al volumen del átomo, por lo que son muy penetrantes.

Al interaccionar, el neutrón puede sufrir:


- Absorción. Desaparece y es remplazado por una o más radiaciones secundarias.
- Dispersión. Cambia significativamente su energía o dirección.

Interacciones más significativas:

Dispersiones elásticas. Cuando chocan neutrones con núcleos de masa similar. Pierden su energía
después del choque, ionizando los átomos que encuentran en su camino. Como consecuencia de estos
choques, los neutrones van perdiendo energía hasta alcanzar la energía cinética media de los átomos y
moléculas del medio. A estos neutrones de abaja energía se les llama neutrones térmicos y al proceso
moderación.

Dispersiones inelásticas. Tienen lugar cuando el núcleo después del choque queda en estado excitado
y emite energía en exceso por emisión, en general de un fotón gamma.

Absorción o captura. Del neutrón por un núcleo del material absorbente produciéndose reacciones
nucleares de diversos tipos, como captura radiactiva, emisión de partículas o fisión.

La forma más eficaz para detener un haz de neutrones rápidos (de mayor energía) consiste en
convertirlos previamente en neutrones lentos, interponiendo en su camino un espesor conveniente de
agua, parafina o plástico (materiales ricos en hidrógeno) seguido de unos milímetros de cadmio o unos
centímetros de boro.

La forma más eficaz para detener un haz de neutrones rápidos (de mayor energía) consiste en
convertirlos previamente en neutrones lentos, interponiendo en su camino un espesor conveniente de
agua, parafina o plástico (ricos en H) seguido de unos milímetros de cadmio o unos centímetros de
boro.

El cuerpo humano contiene un gran porcentaje de hidrógeno y por tanto es muy probable que, si
inciden neutrones sobre el mismo, tengan lugar dispersiones elásticas produciéndose protones de

Juan Carlos Cruz Álvarez Página 99 TEMA 8


retroceso que a su vez producirán daños biológicos. Por tanto, el neutrón es una partícula de gran
peligrosidad desde el punto de vista de la radioprotección.

8.5 UNIDADES DE RADIACIÓN

8.5.1 ACTIVIDAD

Número de desintegraciones nucleares que en ella tienen lugar por unidad de tiempo.

La unidad del S.I. es el Becquerelio [Bq]. También se utiliza el Curio [Ci]:

Ci=actividad de una masa radiactiva en la que se producen 3,7 x 1010 desintegraciones por segundo
1 Ci=3,7 x 1010 Bq
(8.18)
Aunque para definir la peligrosidad de una fuente radiactiva se precisa conocer las características de la
radiación que emite, se puede dar una idea aproximada de dicha peligrosidad a partir de la actividad de
la fuente. Por lo que, fuentes de pocos curios son en general muy peligrosas y deben manejarse con
rigurosas precauciones. Fuentes de milicurios debidamente encapsuladas son poco peligrosas, aunque
también requieren ciertas precauciones de manejo. Fuentes encapsuladas de microcurios no suelen
encerrar peligro, aunque puede resultar peligrosa la ingestión o inhalación de tan pequeñas cantidades
de algunos radionucleidos.

Actividad específica. de un material radiactivo es la actividad de la unidad de masa de dicho material.


Si es un líquido o un gas suele expresarse también como la actividad de la unidad de volumen en
condiciones normales [Ci/g] o [Ci/cm3] en sistema tradicional y [Bq/kg] o [Bq/m3] en S.I.

8.5.2 EXPOSICIÓN (X)

Exposición a radiación X o gamma que al atravesar un kilogramo de aire seco provoca la liberación de
iones y electrones que totalizan un culombio de carga eléctrica de cada signo [C/kg]. Antiguamente se
utilizaba el Roentgen o Renguenio [R]
1 C/kg = 3876 R
(8.19)
El uso del roentgen como unidad de radiación es inadecuado puesto que se aplica sólo a rayos X y
radiación gamma y sus efectos en aire. Se introduce el concepto de dosis absorbida como
generalización de la exposición para cualquier tipo de radiación y en cualquier medio.

8.5.3 DOSIS ABSORBIDA (D)

Energía depositada por cualquier radiación ionizante por unidad de masa de material irradiado.

Unidad tradicional de dosis absorbida: [rad], equivale a la absorción de una energía de 100 ergios por
gramo de sustancia irradiada.

Unidad del S.I.: [Gy] (Gray), equivale al julio de energía absorbida por kilogramo de sustancia
irradiada.
1 Gy = 100 rad
(8.20)

La energía absorbida por los tejidos blandos del cuerpo que han sufrido una exposición a radiación X o
gamma de 1 R es aproximadamente la equivalente a 1 rad (10 mGy) de dosis absorbida. En los huesos,
que poseen mayor coeficiente de absorción para dichas radiaciones, un roentgen de exposición
equivale a algo más que un rad. En general
Juan Carlos Cruz Álvarez Página 100 TEMA 8
D ( rad )=f x X (R)
(8.21)
Donde f es un factor que depende del medio, para tejidos blandos f ≈ 1
8.5.4 DOSIS EQUIVALENTE (H)

La misma dosis absorbida debida a diferentes tipos de radiación no produce necesariamente el mismo
daño biológico.

La dosis equivalente es el producto de la dosis absorbida de cada tipo de radiación por un factor de
calidad Q que representa la capacidad del tipo particular de radiación de causar daño, y permite, desde
el punto de vista de la radioprotección, comparar la peligrosidad de una misma dosis para los
diferentes tipos de radiación.

Unidad tradicional: [rem], cuando la dosis absorbida se expresa en [rad]


Unidad del S.I.: [Sv] (Sievert), cuando la dosis absorbida se expresa en [Gy].

H ( rem )=D ( rad ) x Q


(8.23)
H ( Sv )=D ( Gy ) x Q
(8.24)
Y dado que 1 Gy =100 rad,
1 Sv = 100 rem
(8.25)
El valor del factor de calidad Q depende fuertemente de la densidad de ionización, es decir del número
de iones por unidad de longitud que las distintas radiaciones producen a lo largo de su recorrido en el
organismo.

8.5.5 TASA DE DOSIS. RELACIONES ENTRE MAGNITUDES

No es lo mismo absorber la dosis total de un rad en un minuto en un campo de radiación intenso, o en


un año en un campo de radiación débil, por ello hay que definir unas magnitudes que dependen del
tiempo: las tasas, que corresponden a la exposición que se recibirá, en condiciones constantes, por
unidad de tiempo.
Tasa de exposición Ẋ
Tasa de dosis absorbida Ḋ
Tasa de dosis equivalente Ḣ

La tasa de exposición (que también se denomina ritmo de exposición), a una distancia d dada, está
relacionado con la actividad, A,

8.6 DETECCIÓN Y MEDIDA DE LAS RADIACIONES IONIZANTES

8.6.1 FUNDAMENTOS FÍSICOS

Para detectar, medir y analizar las radiaciones nucleares se aprovechan los efectos que produce la
radiación al atravesar la materia:

- Ionización de medios materiales (gases, semiconductores).


Juan Carlos Cruz Álvarez Página 101 TEMA 8
- Excitación de luminiscencia.
- Disociación de la materia.

El principio de funcionamiento de un detector es sencillo: una partícula cargada pierde energía, ioniza
el medio (además de producir excitaciones) y como consecuencia da una señal observable y accesible
al observador. Cuando la radiación incidente no está formada por partículas cargadas, por ejemplo,
radiación gamma (radiación electromagnética), la detección se realiza gracias a algún fenómeno o
efecto de la interacción de la radiación de este tipo con la materia, que producirá electrones, siendo el
proceso posterior similar al producido por las partículas cargadas.

Clasificación de los detectores, en función de su base física de funcionamiento:

Detectores eléctricos. Los electrones emitidos por ionización son acelerados por un potencial y a su
vez producen más ionización, con lo que la señal final es amplificada. Si el medio es un gas, funcionan
por las descargas en gases. En cristales semiconductores son los pares electrón-hueco creado por el
paso de la partícula los que determinan la señal.

Contadores de centelleo. Las partículas cargadas excitan los átomos del medio. La emisión luminosa
producida en la excitación es convertida en pulso eléctrico por efecto fotoeléctrico y amplificada en un
fotomultiplicador.

Detectores de trazas. La trayectoria de la partícula se hace visible, por ejemplo en cámaras de niebla o
de Wilson, de burbujas, de chispas, emulsiones, etc.

Para detectar partículas neutras hay que hacer que interaccionen con el detector y que se produzcan en
el estado final partículas cargadas.

Gracias a la detección de las partículas cargadas (secundarias) se podrán reconstruir las características
de la partícula neutra incidente.

Los detectores diseñados para partículas neutras deben ser sensibles a las interacciones:

 Para detectar fotones (γ ) hay que aprovechar su interacción electromagnética, es decir, el


efecto fotoeléctrico, el efecto Compton o la creación de pares.
 Si se quieren detectar neutrones (n ) hay que utilizar la interacción fuerte, por ejemplo, la
colisión elástica np → np, de forma que el protón adquiere energía y es el que se detecta.

Cualquiera de los procesos citados puede constituir el fundamento de un detector. En general se suele
distinguir dentro de los detectores a los meros contadores de partículas o fotones que alcanzan al
dispositivo de los espectrómetros, donde además de la información de la presencia de la radiación que
da el contador, se mide la energía de la radiación incidente.

La noción de detector engloba también la electrónica asociada. El procesado electrónico de las señales,
los ordenadores, etc., juegan un papel esencial en la detección de partículas.

Cuando una radiación nuclear atraviesa un medio provoca la ionización de una parte de sus átomos, lo
que conlleva la liberación de iones positivos y electrones negativos. Si el medio es un gas, por
ejemplo, que se comportaba como un aislante eléctrico, pasa a ser parcialmente conductor. Midiendo la
corriente eléctrica que por el circula, en determinadas condiciones, puede deducirse la intensidad de la
radiación que lo atraviesa.

La radiación nuclear también puede provocar, al atravesar ciertos sólidos transparentes, la excitación
de una fracción de átomos de la sustancia atravesada, los cuales se desexcitan inmediatamente
emitiendo fotones luminosos. La medida de la luz permite medir y analizar la radiación nuclear que la
provocó.
Juan Carlos Cruz Álvarez Página 102 TEMA 8
Los efectos producidos por la cesión de energía de la radiación, pueden dar lugar a la disociación,
proceso por el que se rompen enlaces químicos produciendo alteraciones en la constitución de la
materia. Un ejemplo de este fenómeno es el ennegrecimiento de placas fotográficas. Las radiaciones
nucleares pueden atravesar la envoltura que protege de la luz ordinaria a una película fotográfica y
ennegrecerla. Midiendo después la intensidad de dicho ennegrecimiento se puede deducir la dosis de
radiación que ha alcanzado a la película fotográfica.

CARACTERÍSTICAS DE LOS DETECTORES


Eficiencia. Relación entre las partículas registradas y las que llegan al detector

N N: partículas registradas
ε= A: partículas que llegar al detector
A
(8.27)

Tiempo muerto τ. Tiempo durante el cual el detector no es capaz de contar, después de haber llegado
una partícula.

Resolución. Capacidad que tiene un detector (espectrómetro) de ver distintas emisiones con energías
muy próximas.

FWHM
R=
E
(8.28)

Linealidad, Relación entre la energía disipada por un suceso ionizante E y el tamaño del impulso de
tensión generado, V .

E=a+bV
(8.29)

8.6.2 DETECTORES DE IONIZACIÓN GASEOSA

Están constituidos por un recinto llego de un gas a presión conveniente en el que se disponen dos
electrodos a los que se aplica una tensión de polarización, por lo que se crea un campo eléctrico en el
volumen del detector.

Al ser los gases aislantes no circula corriente eléctrica entre los electrodos. Cuando una partícula
ionizante alcanza el espacio entre estos electrodos, el campo eléctrico creado dará lugar a que las
cargas generadas por la interacción de las partículas se muevan hacia el electrodo de signo contrario,
generando un breve paso de corriente que puede ser medido y revea la llegada de radiación al detector.

Al variar la tensión de polarización de los electrodos varía la amplitud del impulso generado,
estableciendose tres tipos de detectores gaseosos:

Cámara de ionización. La tensión de polarización aplicada produce un campo eléctrico suficiente


para que sea posible la captación de toda la carga generada por la radiación incidente. Sólo hay
ionización primaria. La amplitud del impulso obtenido es proporcional a la energía disipada por la
partícula, por lo que se puede hacer espectroscopía con ella. La corriente generada es muy pequeña,
hay que amplificarla con un amplificador lineal para poder medirla.

Contador proporcional. Al aumentar la tensión aplicada por encima de la zona correspondiente a la


cámara de ionización, se presenta el fenómeno de multiplicación de carga, al unirse la ionización
secundaria a la primaria. De esta forma aumenta el tamaño del impulso proporcionado en un factor,

Juan Carlos Cruz Álvarez Página 103 TEMA 8


llamado factor de multiplicación gaseosa, que vendrá dado por el número de nuevos pares de iones
producidos por cada electrón primario.

El contador proporcional trabaja satisfactoriamente como espectrómetro siempre que la partícula


ionizante disipe la totalidad de su energía en el volumen sensible del detector ya que entonces el
tamaño de los impulsos es proporcional a la energía de la partícula. Aunque la magnitud de los
impulsos generados es mayor que en la cámara de ionización, se requiere como en ésta una
amplificación de la señal.

Contador Geiger. Si se eleva la tensión de polarización por encima de la zona de proporcionalidad,


los impulsos resultantes alcanzan todos la misma amplitud, independientemente de la ionización
primaria debida a la partícula detectada. (Modalidad de funcionamiento del contador correspondiente a
la zona Geiger).

El fenómeno de multiplicación de carga, que ya aparecía en los contadores proporcionales, se


incrementa y se propaga a lo largo del ánodo, produciendo una avalancha de iones que dan lugar a la
formación de un impulso mucho mayor que en las cámaras de ionización o contadores proporcionales.
La amplitud del impulso es suficiente para activar directamente sistemas electrónicos de registro, sin
necesidad de amplificación previa. Esta circunstancia, que abarata considerablemente la cadena
electrónica, constituye la cualidad más apreciada de este tipo de detectores. Pero no dan ningún dato
acerca de la naturaleza o energía de las partículas detectadas.

8.6.3 DETECTORES DE CENTELLEO

Se basan en el fenómeno de excitación. Utilizan la propiedad de ciertos materiales de emitir luz visible
cuando sus átomos o moléculas se desexcitan tras el paso de la radiación ionizante.

Componentes:

- Sustancia luminiscente: cristales inorgánicos [SZn(Ag) y INa(Tl)] y compuestos orgánicos,


entre otros. Debe tener una gran eficiencia de detección para la radiación y una buena
transparencia a la luz producida en su interior.
- Fotomultiplicador: compuesto por una fotocélula con un fotocátodo, una serie de electrodos
sucesivos a potenciales crecientes (dinodos) y un electrodo colector o ánodo, todos ellos en una
cápsula de cristal en la que se ha hecho vacío.

El fotocátodo es una capa de material fotosensible en la que los fotones producidos en el centelleador
producen electrones. Estos fotoelectrones (producidos por efecto fotoeléctrico) son acelerados hacia el
primer dinodo a potencial positivo y allí se generan nuevos electrones secundarios, cuatro o cinco por
cada electrón incidente. Este proceso se repite en cada dinodo, con lo que se logra una amplificación
que oscila entre 106 y 109, según sea el número de dinodos y de la diferencia de potencial entre cada
par de dinodos y de la diferencia de potencial entre cada par de dinodos consecutivos.

El INa(Tl) es el detector de centelleo inorgánico por excelencia. Su alta eficiencia de conversión


luminosa, su excelente transparencia y su elevada capacidad para absorber fotones mediante efecto
fotoeléctrico al estar formado por un gran porcentaje de yodo, cuyo número atómico es relativamente
grande.

Cuando un fotón de radiación X o gamma es enteramente absorbido en el cristal de centelleo, el


impulso eléctrico resultante en el fotomultiplicador es proporcional a la energía del fotón incidente. En
particular, los cristales de INa(Tl) son ampliamente utilizados en el estudio de emisión gamma y
deducción de la naturaleza del radioisótopo emisor.

Juan Carlos Cruz Álvarez Página 104 TEMA 8


8.6.4 DETECTORES DE ESTADO SÓLIDO

Se basan en la producción de pares electrón-hueco en un material semiconductor y el posterior


tratamiento de la señal.

Se han generalizado los detectores de germanio intrínseco o ultrapuro, que sólo debe estar a baja
temperatura durante el proceso de medida.

Se utilizan casi exclusivamente para la espectrometría gamma y X, ya que ofrecen una resolución en
energía elevada, aunque su eficiencia es algo inferior a los detectores de centelleo.

8.6.5 DOSÍMETROS

La dosimetría es la ciencia que tiene por objeto la medida de la dosis.

Para la vigilancia radiológica de personas expuestas a radiaciones ionizantes se utilizan dos tipos de
medidas:

- Medida de la tasa de exposición o tasa de dosis absorbida en las áreas de trabajo. Se realiza
mediante dosimetría ambiental, utilizando dispositivos que miden la radiación en puntos clave
de la instalación (monitores de radiación).
- Medida periódica de las dosis acumuladas por cada individuo durante su trabajo. Se realiza
mediante dosimetría personal, utilizando dosímetros que porta el trabajador mientras
permanece en la instalación.

FUNDAMENTOS FÍSICOS DE MONITORES Y DOSÍMETROS


Principales efectos en los que se basan los monitores y dosímetros:

- Ionización de gases
- Excitación de luminiscencia en sólidos
- Ennegrecimiento de placas fotográficas (disociación).

Las radiaciones ionizantes, al atravesar ciertas sustancias, pierden parte de su energía al provocar
fenómenos de luminiscencia con emisión inmediata o diferida de fotones luminosos. La medida de la
luz emitida permite a su vez medir, y en ocasiones analizar, la radiación que la provocó.

Las radiaciones ionizantes (excepto las partículas alfa), pueden atravesar la envoltura que protege de la
luz ordinaria a una película fotográfica y ennegrecerla. Midiendo después la intensidad de dicho
ennegrecimiento se puede deducir la dosis de radiación que ha alcanzado a la película fotográfica.

MONITORES DE TASA DE EXPOSICIÓN O DOSIS


Sirven para realizar la vigilancia radiológica de áreas de trabajo en la que existe riesgo de operar en
campos de radiación.

Suelen llevar como órgano detector una cámara de ionización o un contador Geiger, y suelen ir
provistos de ventanas de pared delgada, ocultables por pantallas absorbentes desplazables, con objeto
de medir la radiación. (beta y gamma con ventana abierta o solo gamma con ventana cerrada)

Los equipos de medida de radiación gamma suelen ofrecer las variantes de medida de exposición o
tasa de exposición, y todos ellos poseen un mando de varias posiciones, de modo que pueda
modificarse la sensibilidad del instrumento para adecuarla en cada caso al campo de radiación de
interés.
Juan Carlos Cruz Álvarez Página 105 TEMA 8
DOSÍMETROS PERSONALES
Se utilizan para la vigilancia radiológica personal. Son de pequeño tamaño, construidos con materiales
que equivalgan lo más estrechamente posible al aire o tejido biológico.

Pueden ser:

Dosímetros de ionización. Se basan en la medida de la ionización, permiten la medida inmediata de la


exposición o dosis absorbida por el detector en un tiempo dado.

Dosímetros fotográficos. Utilizan la sensibilidad a la radiación de las sales de plata. El principio en el


que se basan es la exposición de una emulsión fotográfica a la radiación, seguido del revelado de la
placa, y evaluación del grado de ennegrecimiento mediante un microdensitómetro. Este último dato
permite evaluar la dosis absorbida, tras un calibrado previo para cada tipo de película.

Constan de una película especial envuelta en una funda opaca, montada en un soporte provisto de una
pinza, que permite llevar el instrumento sobre la ropa de trabajo. El bastidor del soporte está dotado de
una serie de ventanas y filtros que permiten la detección simultánea de una serie de datos radiológicos
de interés.

MONITORES DE CONTAMINACIÓN
Cuando se manejan sustancias radiactivas no encapsuladas se hace necesario disponer de instrumentos
apropiados para detectar y medir posibles contaminaciones en el aire y superficies.

Suele utilizarse un monitor portátil dotado de una o varias sondas remplazables, provistas del detector
adecuado al tipo de contaminación a detectar. Para contaminación con emisores beta el detector suele
ser un contador Geiger con ventana delgada.

Para detectar la contaminación por emisores alfa la sonda suele estar dotada de un contador
proporcional o de un detector de centelleo apropiados y provistos en caso necesario de una ventana
muy delgada.

Juan Carlos Cruz Álvarez Página 106 TEMA 8


TEMA 9. APLICACIONES DE LAS RADIACIONES IONIZANTES

9.1 FUENTES DE RADIACIÓN NATURAL

La radioactividad natural se ha producido, se produce y se producirá en la naturaleza sin la


intervención del hombre. Siendo sus fuentes de:

Origen terrestre: radionucleidos primordiales.

Origen extraterrestre: radiación cósmica y nucleidos cosmogénicos.

9.1.1 RADIONUCLEIDOS PRIMORDIALES

Fuentes de radiación que existen en la corteza terrestre desde sus orígenes, así como sus descendientes
radiactivos (si existen).

Los periodos de semidesintegración son tan grandes que sobreviven al intervalo de tiempo transcurrido
desde su creación y los radioelementos secundarios originados al desintegrarse los primeros.

Los radioelementos con periodos menores a 108 años son indetectables transcurridos 30 periodos desde
su creación.

Los radioelementos con periodos mayores de 1010 años (edad del universo), han sufrido tasas de
desintegración menores y son los existentes en la actualidad.

Un individuo recibe radiación natural proveniente de cadenas radiactivas encabezadas, principalmente


por los radioisótopos del uranio (U238, U235) y del torio (Th232).

Se conocen, al menos, 22 radionucleidos primordiales que no forman parte de las sedes radiactivas
naturales.

De éstos sólo son importantes, desde un punto de vista dosimétrico y ambiental, el K 40 (Potasio 40) y el
Rb87 (Rubidio 87 - este emisor beta puro). El resto de radionucleidos poseen períodos de
semidesintegración demasiado grandes y las concentraciones ambientales son tan pequeñas que
carecen prácticamente de importancia, al menos en lo que a impacto radiológico ambiental se refiere.

Posiblemente el K40 es el radionucleido de origen terrestre que aisladamente posea mayor importancia
a efectos de dosis. Este elemento posee un período de 1,3x10 9 años y su abundancia isotópica es de
0,0118% en el potasio natural, que forma parte de todos los organismos vivos y que es imprescindible
para el desarrollo de la vida.

El K40 es fácilmente identificable mediante espectrometría gamma, pues emite, además de partículas
beta con una energía máxima de 1,31 MeV, fotones de 1,46 MeV de energía.

9.1.2 RADIACIÓN CÓSMICA Y NUCLEIDOS COSMOGÉNICOS

Estos rayos cósmicos pueden dar lugar, al interaccionar con los constituyentes atmosféricos, a la
transformación de los núcleos blanco en otras especies nucleares, de las que un gran número son
radiactivas, y constituyen los denominados radionucleidos cosmogénicos.

La producción y distribución de los radionucleidos cosmogénicos puede variar de manera considerable


con la altitud y la latitud. El 99% de los radionucleidos cosmogénicos no gaseosos se hallan formando
parte de los sedimentos marinos o de la litoesfera. En general se trata de emisores beta de poco energía
y periodo corto (excepto el C14 con 5760 años de periodo). El C 14 se forma en las capas altas de la
atmósfera, al interaccionar los neutrones de los rayos cósmicos con el N14 según la reacción

Juan Carlos Cruz Álvarez Página 107 TEMA 9


n+ N 14 →C 14 + p
(9.1)

Otros nucleidos cosmogénicos son el Be7 y el Na22. El Be7 emite betas y fotones gamma de 0,43 MeV.
El Na22 emite positrones y gamma, los positrones emitidos producen radiación de aniquilación.

9.1.3 RADIACTIVIDAD NATURAL NOCIVA. EL RADÓN

El Radón es el único gas que aparece en las cadenas radiactivas naturales y compone el fondo
radiactivo natural. Los cánceres de pulmón, son debidos a la desintegración del Rn y sus hijos,
acumulado en el interior de las casas. Se acumula sobre todo en sótanos y edificios poco ventilados.
Sólo el 222Rn (T1/2 = 3,824 d) es importante; es el que proviene de la desintegración del 226Ra (T1/2 =
1602 años) que decae
226
Ra → 222 Rn+α
Se estima que la dosis inhalada a cielo abierto, debida al Rn es del orden de 10 a 20 mrem por año.

9.2 FUENTES DE RADIACIÓN ARTIFICIAL

9.2.1 APLICACIONES MÉDICAS

Radioterapia: administrar adecuadamente una dosis de radiación ionizante en un volumen determinado,


para transformar un tejido enfermo.

RADIOLOGÍA
Se utiliza la sensibilidad de las sales de Ag(Plata) a la radiación electromagnética para formar la
imagen radiológica.

La película radiográfica consiste en un soporte transparente, recubierto por sus dos caras por una capa
delgada de gelatina en la que se encuentra, en suspensión, cristales pequeños de halogenuros de plata.

Los fotones utilizados en radiodiagnóstico tienen una energía comprendida entre 20 y 120 keV e
interaccionan con la materia mediante dos procesos:

- Interacción fotoeléctrica. El fotón desaparece al interaccionar (fotones primarios).


- Efecto Compton. Aparece un segundo fotón con una energía inferior a la del fotón inicial y se
produce una deposición parcial de energía (fotones secundarios).

La imagen radiológica se forma por los fotones que han sido transmitidos por el paciente y han
alcanzado la película fotográfica donde se forma la imagen. Estos fotones pueden ser primarios (no
han interaccionado con el paciente), o secundarios, que son los que han sufrido una o varias
interacciones Compton.

Los fotones primarios son los que transportan la información más útil, ya que su intensidad en cada
parte del haz depende de la probabilidad de que los fotones incidentes interaccionen en el interior del
paciente y de las características físicas de los tejidos atravesados.

Si el haz incidente atraviesa el hueso y tejido blando, en este último se perderán menos fotones por
tener un coeficiente de absorción menor que el hueso, depositándose más energía en la zona de la placa
fotográfica donde llegue la radiación que ha atravesado el tejido blando, produciéndose el
ennegrecimiento característico de las películas radiográficas (más negro donde hay menos absorción).

Los fotones dispersados son originados principalmente por la interacción Compton y su intensidad
aumenta al hacerlo la energía media del haz y el volumen atravesado.

Juan Carlos Cruz Álvarez Página 108 TEMA 9


Si la transmisión es muy pequeña habrá muy pocos fotones que lleguen al receptor de la imagen y la
dosis absorbida por el paciente será muy alta. Si la transmisión es próxima a la unidad las diferencias
de absorción en los distintos tejidos será pequeña y el contraste en la imagen pobre. La elección del kV
adecuado para la obtención de una imagen radiológica ha de ser un compromiso entre los
requerimientos de baja dosis y alto contraste.

El contraste disminuye al aumentar la tensión aplicada al tubo (aumenta el keV). Para obtener
su_ciente contraste entre la grasa y el músculo es necesario usar tensiones bajas (de 25 a 30 kV en
mamografía, por ejemplo.).

RADIOLOGÍA CON EQUIPOS DE DIAGNÓSTICO


Mamografía
El examen radiográfico de los tejidos blandos utiliza técnicas especiales que se diferencian bastante de
las normales. Esto se debe a las importantes diferencias entre las estructuras anatómicas a radiografiar.
En la radiografía convencional, el contraste del sujeto es grande, debido a las grandes diferencias en
densidad de masa y número atómico efectivo entre huesos, músculos, grasa y tejido pulmonar. En la
radiografía de tejidos blandos sólo intervienen músculos y grasa, que tienen números atómicos muy
similares y densidades parecidas. Por lo que en la radiografía de tejidos blandos las técnicas están
orientadas a incrementar la absorción diferencial entre estas dos estructuras tan parecidas.

Dado que la densidad de masa y el número atómico efectivo de los tejidos blandos que forman la
mama son muy similares, las técnicas radiográficas normales son completamente inútiles. Para el
rango comprendido entre los 70 y los 100 kV, la difusión Compton predomina en el tejido blando, ya
que la absorción diferencial entre tejidos de composición muy similar es mínima. Se requieren técnicas
de baja tensión para maximizar el efecto fotoeléctrico y mejorar así la absorción diferencial. Sin
embargo, al reducir la tensión de pico se reduce también la capacidad de penetración del haz, lo que
requiere un incremento de la corriente instantánea. Si se reduce demasiado la tensión, la corriente
necesaria será tan grande que aumentará significativamente la dosis que recibe el paciente.

Fluoroscopía
Los rayos X son recogidos, tras pasar por el cuerpo, en una pantalla de un material especial que emite
luz al recibir el rayo (mediante fluorescencia).

Se utiliza para hacer exámenes dinámicos: visualizar el movimiento de estructuras y líquidos internos.
Durante la fluoroscopia y mientras esté conectado el generador de rayos X, el radiólogo ve una imagen
en movimiento. Si se considera que algo debe grabarse para un estudio posterior, se puede realizar una
radiografía. Dicha radiografía se conoce como serirradiografía.

Este tipo de equipo está prohibido en toda la U.E.

Imagen digital
Se obtiene mediante técnicas digitales (distinta de la radiología y fluoroscopía convencionales). La
imagen se forma directamente sobre el receptor.

Con las técnicas digitales, los rayos X forman una imagen electrónica que se manipula en el ordenador,
se almacena temporalmente en la memoria y finalmente se presenta como una matriz de intensidades.

T.C. (Tomografía Computerizada)

No almacena las imágenes del modo convencional. No existe un receptor de imagen tipo película.

Un haz de rayos X colimado (haz de rayos paralelos) atraviesa al paciente. La radiación residual es
medida por detectores y anotada en un ordenador, de este modo se forma una imagen que puede ser
almacenada para un análisis posterior.

Juan Carlos Cruz Álvarez Página 109 TEMA 9


Ventajas sobre la radiología convencional:
 Imagen tridimensional. Se ven detalles anatómicos sin superponerse.
 Mejora de la resolución en contraste. Se “ve” dentro de las vísceras.

La imagen total de un órgano la hacemos a través de cortes sucesivos, bien contiguos o no, de grosores
variables.

RADIOTERAPIA
Compromiso entre la administración de una dosis adecuada al volumen de tejido enfermo y una dosis
aceptablemente pequeña a los tejidos sanos circundantes. Si la dosis es demasiado alta la tasa de
complicaciones se incrementa, pero si es demasiado baja la probabilidad de control del tejido enfermo
disminuye. Se barajan dosis altas en zonas muy bien delimitadas que oscilan de los 40 a los 70 Gy o
más, administradas con finalidad radical o curativa. Puntualmente ciertas enfermedades requieren la
irradiación total o de la mitad del organismo y entonces las dosis suministradas son bastantes más
bajas (10-20 Gy).

Hay varios tipos de radioterapia en función de la situación de las fuentes con relación al paciente:

Curiterapia o Braquiterapia
También denominada braquiterapia, del griego braqui que quiere decir corto.

Los tratamientos se llevan a cabo con fuentes radiactivas (encapsuladas o sólidas protegidas por una
envoltura metálica) en contacto o dentro del tejido u órgano a tratar.

Al principio se utilizaba Ra226, actualmente se restringe el uso debido a los graves problemas de
radioprotección que plantea y sólo se manejan radionucleidos artificiales, y el tipo y la actividad de las
fuentes depende de la administración de la dosis.

Teleterapia
La irradiación se realiza con el emisor de radiaciones a una cierta distancia del paciente (terapia
convencional con rayos X, cobaltoterapia y terapia con aceleradores de partículas).

Se emplea un mayor porcentaje de equipos de radiación externa.

El objetivo de la RT externa es administrar, repetidamente en un determinado número de sesiones, que


constituyen el tratamiento, una cantidad de energía conocida en los volúmenes blanco respetando al
máximo las estructuras sanas. El paciente permanece solo en el recinto y el tratamiento se controla
habitualmente a través de un circuito cerrado de T.V..

Categorías de equipos de radioterapia:


C.1 Equipos de Rayos X en rango de 10 kV a 150 kV
C.2 Equipos de Rayos X en rango de 150 kV a 4000 kV
C.3 Equipos de rayos X (Co60) cobaltoterapia
C.4 Acelerador de electrones. Haces de energía máxima en rango de 1-50 MeV.
C.5 Equipos de neutrones y partículas de alta energía.

MEDICINA NUCLEAR
Pruebas de diagnóstico y tratamiento mediante el uso de radionucleidos en forma de fuentes abiertas
(no encapsuladas).

Nace en los años 20, desarrollo notable en 1946 con radionucleidos producidos en un reactor nuclear (
I 131para diagnóstico y terapia de tiroides el I 125 para estudios in vitro).

En los años 60: gammacámaras (Cámaras de Anger) y Tc 99m que son la base del diagnóstico en la
actualidad.
Juan Carlos Cruz Álvarez Página 110 TEMA 9
En los últimos 15 años: tomografía computerizada por emisión de fotón único (SPECT): un objeto bi o
tridimensional puede ser reconstruido a partir de un conjunto infinito de sus proyecciones.

La administración de fuentes radiactivas abiertas se realiza mediante radiofármacos, cuyo metabolismo


es la clave de la obtención de imágenes y de estudios dinámicos. Su desaparición del organismo tiene
en cuenta el decaimiento físico y la eliminación biológica. Esto se refleja en el Periodo efectivo (T ef ),
que de ver permitir realizar la prueba adecuadamente:

1 1 1
= + T1/2: periodo de semidesintegración
T ef T 1 /2 T bio Tbio: periodo de eliminación biológica
(9.2)

Donde T 1/ 2 es el periodo de semidesintegración y T bio es el periodo de eliminación biológica.

En la faceta de diagnóstico “in vivo” se busca la distribución espacio-temporal de un determinado


radiofármaco en el organismo, dando lugar a estudios morfológicos y funcionales, mediante una
secuencia de imágenes y curvas que debe ser tratada mediante ordenador. Para ello se utilizan emisores
gamma de energías comprendidas entre los 100 y los 400 keV para asegurar un buen nivel de
detección, ya que por debajo de los 100 keV es muy significativa la autoabsorción de los fotones por el
propio paciente y por encima baja mucho la eficiencia del tipo de detector habitualmente empleado. En
cuanto al periodo efectivo debe ser tal que permita realizar la prueba adecuadamente.

En terapia se utilizan preferentemente emisores de partículas beta u otras partículas y en cualquier caso
en forma que se fijen lo más selectivamente posible en el órgano o tejido a tratar, como en el caso del
I 131 con el tiroides.

Fuentes en medicina nuclear


Lo más frecuente es obtener los radiofármacos “in situ” marcados con Tc 99m a partir de Mo99, por
elución de una solución salina a través de una columna cromatográfica que deja pasar los iones
pertecnectato y absorbe los molibdato.

Para medir la actividad de los radiofármacos se utilizan calibradores de dosis o activímetros (cámaras
de ionización con selectores ajustados para dar una respuesta en actividad para los diferentes
radionucleidos).

Radioterapia metabólica
Acumulación de una sustancia radiactiva no-encapsulada en el órgano o región a tratar y depositar
dosis de radiación en el mismo, e función de la cantidad administrada. Se aprovecha generalmente la
radiación beta (así toda la dosis queda localizada en el lugar donde está el radionucleido)

Su aplicación más característica es el tratamiento del hipertiroidismo, cuando hay riesgo quirúrgico
elevado.

El hipertiroidismo se trata con cantidades del orden de algunos mCi de I 131, teniendo en cuenta la masa
de la glándula y el periodo efectivo medido.

Diagnóstico en medicina nuclear


Se inyecta al paciente un radiofármaco, y es la emisión de ese radiofármaco (que se ha depositado en
un órgano o tejido) lo que genera la información. El detector es un cristal de centelleo lo
suficientemente grande como para poder ver una amplia región del organismo que va acoplado a varias
decenas de fotomultiplicadores, a un circuito lógico de localización, a un analizador de altura de
impulsos, a una pantalla de visualización, un ordenador para análisis de la imagen y finalmente a un
sistema de presentación de imagen en forma de película o impresión a color.

Juan Carlos Cruz Álvarez Página 111 TEMA 9


Tres ejemplos de sistemas de diagnóstico en medicina nuclear:

 Gammacámara. O cámara de Anger. Es una modificación de un detector de centelleo que


demás de detectar radiación gamma es capaz de localizar el lugar donde se produce la detección
del fotón.

Los rayos gamma no se focalizan como la luz visible, siendo necesario una relación biunívoca
entre la dirección del fotón gamma y el punto de detección. Esta relación se consigue por medio
de un colimador, permitiendo obtener imágenes planares de la distribución frontal de la
radiactividad dentro del paciente, sin tener información sobre la distancia al colimador en la
que se ha originado el fotón.

La mayoría de las imágenes obtenidas con la gammacámara corresponden a estudios estáticos,


siendo su evaluación visual. En los estudios dinámicos se estudian los cambios del
radiofármaco con el tiempo, obteniéndose varias imágenes en diferentes instantes de tiempo, en
forma de sucesión de imágenes consecutivas. De estas imágenes puede obtenerse una curva de
actividad en función del tiempo y determinar parámetros fisiológicos, como en el caso de los
estudios renales.

 Tomografía de emisión de fotón único (SPECT). Permite conocer la distribución tridimensional


de un radionucleido en el interior del organismo. Por cada radionúclido que se desintegra desde
el exterior se pretende detectar un fotón, por ello, esta técnica se denomina de emisión de fotón
único.

Las imágenes SPECT se presentan normalmente en forma de cortes bidimensionales, cada uno
en una posición distinta en la tercera dimensión (permite medir tamaños y volúmenes).

 Tomografía de emisión de positrones (PET) . Permite detectar y cuantificar la distribución de un


radionucleido emisor de positrones en el interior del organismo. Los núcleos emisores de
positrones tienen un periodo de semidesintegración muy corto, lo que favorece su eliminación.
Tras sucesivas colisiones, el positrón pierde su energía y cuando está prácticamente en reposo
se combina (aniquila) con un electrón orbital, convirtiéndose la masa en reposo del electrón y
del positrón en energía, en forma de dos fotones de 0,511 MeV cada uno, los cuales son
emitidos simultáneamente y en sentidos opuestos, pudiendo salir del organismo y ser
detectados en el exterior.

9.2.2 APLICACIONES INDUSTRIALES

PRODUCCIÓN DE ENERGÍA NUCLEOELÉCTRICA EN CENTRALES NUCLEARES

La utilización más evidente de las radiaciones ionizantes en la industria es la producción de energía


eléctrica en centrales nucleares. Tanto en un reactor nuclear, como en una central térmica, se
transforma la energía calorífica de un combustible en energía mecánica, y ésta en eléctrica. El calor
producido calienta un fluido (normalmente agua), que se convierte en vapor. Este vapor principal, u
otro vapor secundario producido por el primero, pasa por una turbina que acciona un alternador
produciendo energía eléctrica. El vapor se hace pasar por un condensador para convertirlo de nuevo en
agua, y mediante bombas se vuelve a enviar al foco caliente, es decir al reactor nuclear o a un
generador de vapor, volviéndose a convertir de nuevo en vapor y repitiendo el ciclo.

En un reactor nuclear, los núcleos de U 235 cuando capturan un neutrón, se fisionan en trozos más
pequeños, liberándose neutrones y una gran cantidad de energía. Estos neutrones liberados en la
reacción de fisión son capaces de provocar nuevas fisiones, dando lugar a lo que se llama una reacción
en cadena.

Juan Carlos Cruz Álvarez Página 112 TEMA 9


En una central nuclear el calor proviene de la reacción en cadena que tiene lugar en el reactor nuclear.
La regulación del calor que se produce dentro del reactor se lleva a cabo con determinados elementos
de control que modifican el flujo neutrónico. El sistema más utilizado para modificar el número de
neutrones es el de Barras de Control.

La potencia del reactor se controla con Barras de Control: barras realizadas con materiales absorbente
de neutrones (principalmente boro y cadmio) que se introducen en el núcleo del reactor y hacen
disminuir la cantidad de neutrones, y por tanto, la velocidad de reacción.

Tras la fisión nuclear, los neutrones tienen una energía muy alta, ineficaz para producir nuevas
fisiones. Hay que ralentizar esta velocidad (E) para que vuelvan a poder producir nuevas fisiones de
forma eficiente, para ello se utiliza un moderador de la velocidad que suele ser agua (ligera o pesada)
y/o grafito.

Parque nuclear español:


 35 años de vida operativa.
 1968: primera central nuclear conectada a la red eléctrica.
 8 reactores nucleares en 6 centrales
(4 de agua a presión [PWR] y 2 de agua en ebullición [BWR].
 Producen el 20% de la energía eléctrica utilizada.

La industria nuclear no sólo contempla la explotación de centrales nucleares, sino que abarca una serie
de actividades relacionadas con la producción de energía eléctrica de origen nuclear:

 Fabricación del combustible nuclear en la Planta de Juzbado (Salamanca), propiedad de


ENUSA (Empresa Nacional del Uranio)
 Gestión de residuos radiactivos: ENRESA (Empresa Nacional de Residuos Radiactivos)
 Ingenierías con experiencia en Seguridad Nuclear y Protección Radiológica.
 Empresas cualificadas para la formación integral de técnicos nucleares.
 Empresas de servicios: áreas relacionadas con la explotación de las centrales nucleares
(mantenimiento, Protección Radiológica, inspección,...).
 Laboratorios especializados en centros de investigación

Las fuentes radiactivas ya utilizadas o los materiales que una vez empleados han resultados
contaminados y se han considerado deshechos, habrá que almacenarlos o eliminarlos de forma
controlada, pues siguen siendo radiactivos. Se considera residuo radiactivo a cualquier material que
contiene o está contaminado por radionucleidos en concentraciones superiores a las establecidas por la
autoridad reguladora, para el cual no está previsto ningún uso posterior.

Los residuos que se obtienen en la generación de energía eléctrica de origen nuclear, en la medicina, en
la industria y en la investigación, y en la clausura de instalaciones nucleares, se clasifican desde el
punto de vista de su almacenamiento definitivo, en residuos de media-baja actividad y residuos de alta
actividad. Los residuos de media-baja actividad se almacenan en El Cabril (Córdoba), bajo tierra, en
instalaciones debidamente acondicionadas. El almacenamiento definitivo de los residuos de alta
actividad se está investigando en la actualidad, analizando las distintas opciones desde los puntos de
vista científico y tecnológico. Todo indica que la mejor ubicación, que puede garantizar confinamiento
durante el tiempo necesario para su inocuidad, es su almacenamiento profundo en formaciones
geológicas estables, que posean capacidad para retener los radionucleidos que pudieran escapar de las
barreras artificiales a las que están sometidos, de forma que no exista riesgo para el hombre ni para el
medio ambiente.

Cuando una instalación nuclear y radiactiva deja de ser útil, se lleva a cabo su clausura y
desmantelamiento. Esta es la actividad que genera mayor cantidad de residuos, ya que después de los
procesos de descontaminación, se retiran los materiales equipos y partes de la instalación que
contienen una actividad superior por encima de los niveles aceptables y regulados. El
Juan Carlos Cruz Álvarez Página 113 TEMA 9
desmantelamiento finaliza al dejar el emplazamiento en condiciones seguras para un futuro uso
posterior.

RADIOGRAFÍA Y GAMMAGRAFÍA INDUSTRIAL


Rayos X que atraviesan objetos:
 Control de maletas en aeropuertos
 Examen de correo
 Detección de explosivos en paquetes
 Verificación de uniones de soldadura (defectos en la unión, escoria o grietas)
 Trazado radiactivo. Para detectar fugas en alcantarillado se introduce una sustancia radiactiva
de periodo corto. El marcador sale por la fuga y se esparce por el suelo.

CONTROL DE ESPESOR EN LÁMINAS METÁLICAS, DE PAPEL O PLÁSTICO


Se coloca una fuente de radiación a un lado de la lámina y un detector de radiación al otro. Si varía el
grosor de la lámina el detector lo detecta.
 Radiación gamma: más utilizada en fabricación de láminas metálicas.
 Radiación beta: más utilizada en industria de papel y plástico.

ACELERADORES PARA ESTERILIZACIÓN DE MATERIAL QUIRÚRGICO E


IRRADIACIÓN DE ALIMENTOS
Radiaciones muy intensas con exposiciones potentes y duraderas que destruye todos los gérmenes,
bacterias y microbios.

Esta técnica es perfectamente válida para productos alimenticios (inhibe el deterioro y las
enfermedades transmitidas por los alimentos, con lo que no es preciso tratarlos químicamente), pero no
está muy extendida al no ser normalmente aceptada por los consumidores.

TÉCNICAS DE DATACIÓN EN ARQUEOLOGÍA Y EN CIENCIA FORENSE


La datación con carbono radiactivo (C14) es la técnica más conocida en investigaciones históricas y
prehistóricas.

El C14 es un isótopo radiactivo natural que se produce continuamente. Se forma en la atmósfera y es


rápidamente dispersado en ella como CO2 por desintegración radiactiva.

A lo largo de millones de años la relación entre el carbono no activo (C 12) y el radiactivo (C14) ha
estado en equilibrio. Así, en la época pre-industrial la relación isotópica atmosférica de C 14/C12 era
1,2x10-12; en un modelo simplificado los organismos vivos participantes del ciclo de carbono vía
procesos metabólicos están caracterizados por esta concentración de radiocarbono. Cuando un
organismo vivo muere, el intercambio de Carbono se para, los tejidos ya no adquieren más carbono
nuevo, pero tampoco se libera el carbono viejo, y sin embargo la cantidad de carbono radiactivo sigue
disminuyendo debido a la transformación radiactiva. Se sabe que el periodo de semidesintegración del
C14 es de 5730 años, midiendo la concentración de C14 residual en muestras orgánicas es posible
calcular el tiempo transcurrido desde que el material fue formado originariamente. Por ejemplo, si el
análisis indica que el contenido de C14 es la mitad de lo esperado, se concluye que la vida de la muestra
llegó a su fin hace 5730 años (ha transcurrido un periodo radiactivo).

También se utiliza la activación neutrónica, consiste en la irradiación de una muestra (no orgánica) con
neutrones, que produce varios isótopos radiactivos por activación. Con la medida de la radiación
emitida por dichos isótopos, o con el análisis de los mismos, pueden identificarse y cuantificarse
elementos microconstituyentes. Los resultados pueden servir para identificar su época de origen. Se
trata de un método no destructivo, muy sensible y preciso. Se puede realizar el análisis con muestras
muy pequeñas (5 mg o menos), y el objeto conserva su integridad, no se destruye, no se deteriora, ya
que el nº de átomos estables que se transforman en radiactivos es ínfimo, y la radiactividad inducida
decae muy rápidamente, quedando totalmente inalterado el objeto.
Juan Carlos Cruz Álvarez Página 114 TEMA 9
9.3 INTRODUCCIÓN A LA PROTECCIÓN RADIOLÓGICA

Radiaciones de fondo: producidas por fuentes naturales de radiaciones ionizantes (rayos cósmicos,
materiales radiactivos de la corteza terrestre, sustancias radiactivas que se encuentran en el interior del
organismo humano…).

Radiaciones artificiales: utilizadas en la medicina, industria, agricultura o investigación (fuentes de


radiación ionizantes, aparatos de rayos X, sustancias radiactivas naturales o radioisótopos producidos
artificialmente).

A finales del siglo XIX se vieron los efectos biológicos nocivos de las radiaciones en los primeros
usuarios de rayos X y materiales radiactivos concentrados.

A partir de 1928 se inicia la elaboración de normas de Protección Radiológica por parte de la


“Comisión Internacional de Protección contra los rayos X y el Radium”.

Desde 1950, después de una interrupción de su actividad durante la 2ª Guerra Mundial, pasa a llamarse
“Comisión Internacional de Protección Radiológica (ICRP)”.

Finalidad de la Protección Radiológica: La protección de los individuos, sus descendientes y la


humanidad en su conjunto contra los riesgos que se derivan de las actividades humanas que por las
características de los materiales y equipos que utilizan pueden implicar irradiaciones.

En España, el organismo regulador es el C.S.N. (Consejo de Seguridad Nuclear), que depende


directamente del Gobierno de la Nación.

9.3.1 EFECTOS BIOLÓGICOS DE LAS RADIACIONES IONIZANTES. CLASIFICACIÓN

Las radiaciones no afectan únicamente a los tejidos, sino que la exposición del tejido germinal se
traduce en efecto para los descendientes.

Varios criterios para clasificar los efectos de las radiaciones. Utilizamos la más frecuente, que hace
referencia a la transmisión celular de los efectos y su relación con la dosis: estocásticos y
deterministas.

EFECTO DETERMINISTA EFECTO ESTOCÁSTICO


La gravedad depende de la dosis. La gravedad no depende de la dosis
Se relaciona con la letalidad Se relaciona con mutaciones

EFECTOS GENÉTICOS Anomalías hereditarias


Hereditarios
Anemias,
EFECTOS SOMÁTICOS caída cabello Carcinogénesis
No hereditarios
esterilidad

Efectos estocásticos. Incluso a dosis muy bajas es posible que se deposite energía suficiente en una
célula como para provocar una transformación o la muerte celular. La muerte de una o varias células
no tiene consecuencias negativas sobre el tejido, pero sí las modificaciones genéticas o
transformaciones que conducen a la malignidad en las células aisladas.

Existe probabilidad de que se produzca este tipo de efectos incluso a dosis extremadamente bajas. No
existe un umbral de seguridad. Si la dosis aumenta, la frecuencia de estos efectos también aumenta, sin
embargo, no es de esperar que aumente la severidad de los efectos, al contrario de lo que sucede con
los efectos deterministas.

Juan Carlos Cruz Álvarez Página 115 TEMA 9


Efectos deterministas. A dosis más elevadas, puede producirse un grado importante de muerte
celular, suficiente para que se detecten cambios en el tejido.

En cualquier daño no estocástico definido debe haber perecido un determinado número de células para
que el nivel de detección sea alcanzado. Ello constituye un umbral, cuya magnitud dependerá del daño
elegido, por debajo del cual la pérdida celular y los daños producidos en la función del tejido u órgano
no son detectables.

La severidad del daño es función de la dosis recibida.

9.3.2 SISTEMA DE LIMITACIÓN DE DOSIS

Está basado en tres criterios u objetivos parciales fundamentales:

 Justificación
 Optimización
 Limitación de dosis individual

JUSTIFICACIÓN
La justificación de una nueva práctica o modificación de una antigua debe basarse en un análisis coste-
beneficio, con el fin de comprobar que el conjunto de perjuicios resultantes es compensado por los
beneficios derivados de la misma.

El conjunto de perjuicios que constituye el detrimento total, comprende todos los costes y aspectos
negativos de la actividad propuesta.

B=V −( P+ X+ Y )
(9.3)

B: Beneficio neto resultante de la actividad


V: Valor bruto de la actividad, incluye:
Valor del producto resultante
Valor de los beneficios sociales tangibles y no tangibles
Otro tipo de beneficios
P: Costes de producción, incluye:
Coste para la sociedad de los detrimentos no radiológicos
Costes de protección contra riesgos radiológicos
X: Coste de protección radiológica
Y: Coste para la sociedad del detrimento radiológico, proporcional a la dosis efectiva colectiva
SE

OPTIMIZACIÓN
El objetivo de la optimización es consecuente con la idea de que cualquier dosis implica un riesgo, por
lo que hay que mantener todas las exposiciones tan bajas como sea razonablemente posible (ALARA:
As Low As Reasonably Achievable) teniendo en cuenta las condiciones socio-económicas aplicables.

El valor “ALARA” corresponde al nivel de dosis efectiva colectiva por debajo del cual el coste de
cualquier medida adicional de protección radiológica sería mayor que el valor de la reducción del
detrimento para la salud que con ella se conseguiría. Este criterio se ha venido denominando como
optimización de la protección radiológica.

Juan Carlos Cruz Álvarez Página 116 TEMA 9


Determinación del nivel más bajo de exposición que puede alcanzarse razonablemente:

- Análisis diferencial de coste-beneficio con el fin de obtener la combinación óptima de


protección adecuada y coste bajo del detrimento. Aplicable sólo cuando los integrantes de la
función pueden ser cuantificados en términos de coste monetario.
- Cuando la suma del coste de la protección, X, y del detrimento radiológico para la salud, Y,
sea mínima.

La optimización de la protección radiológica debe efectuarse tanto en el diseño como en la ejecución


de toda operación justificable que pueda contribuir de manera significativa a la irradiación de los
profesionales y el público.

LIMITACIÓN DE DOSIS INDIVIDUAL


Hay que tener un conocimiento cuantitativo de cómo la probabilidad de los efectos estocásticos y la
gravedad de los efectos deterministas varían con la dosis.

La ausencia de datos epidemiológicos (sobre todo a dosis bajas) hace necesario asumir suposiciones
para establecer curvas dosis-respuesta.

La relación que mejor se ajusta a los datos epidemiológicos disponibles de efectos estocásticos es la
lineal-cuadrática.

Para dosis de radiación bajas resulta muy improbable que el núcleo de una célula sea atravesado por
más de una traza, por lo que la curva dosis-respuesta para efectos en una célula debería ser lineal e
independiente de la tasa de dosis.

La relación matemática entre la dosis recibida y la probabilidad de aparición de un efecto atribuible a


la radiación (p. generación cáncer) es lineal y no tiene umbral de dosis.

Expresión para estimar la probabilidad de efectos de la exposición a dosis bajas de radiación con
propósitos de protección radiológica:

D: dosis
P=D : pendiente de la curva
(probabilidad del efecto considerado por unidad de dosis)

La limitación de dosis que los profesionales expuestos y el público en general puedan recibir, es el
requisito establecido para asegurar una protección adecuada, incluso para las personas que están más
expuestas.

Los límites recomendados representan los valores inferiores de la dosis efectiva y de la dosis
equivalente, que no deben ser sobrepasados, aunque no tienen que ser considerados como la línea
divisoria entre la seguridad y el peligro, han de ser realmente considerados como la exposición a un
riesgo aceptable.

Límites de dosis para las personas profesionalmente expuestas.

En las recomendaciones del ICPR se establecieron límites correspondientes a la dosis equivalente


efectiva.

Se estimó que podía considerarse aceptable, tanto en la industria nuclear, y en general para todo trabajo
en presencia de radiaciones ionizantes, un riesgo equivalente al existente en aquellas industrias o
trabajos que poseen el más elevado índice de seguridad (éstas tienen un promedio de mortalidad anual
derivado del trabajo en torno a 10-4, puede morir una persona de cada 10.000). Para los trabajadores
máximamente expuestos, este índice se eleva a 10-3.

Juan Carlos Cruz Álvarez Página 117 TEMA 9


Una dosis efectiva no superior a 5mSv por año implica un riesgo del orden de 10 -4 para la mortalidad
por cáncer.

La dosis limitativa se puede expresar como una dosis recibida uniformemente a lo largo de toda la vida
laboral, o como una dosis anual recibida cada año de trabajo.

El establecimiento de un límite para la exposición de 50 mSv por año, dabalugar, considerando la


experiencia de los años anteriores con distintos grupos de personas profesionalmente expuestas, a un
valor de la media aritmética de dosis recibidas inferiores a 5 mSv por año.

Para la protección de “efectos deterministas” los límites se establecieron en función de las dosis
umbrales para los efectos no estocásticos, estableciendo un límite de dosis equivalente anual de 0,5 Sv
para cualquier órgano, con excepción de las cataratas del cristalino, para las que se recomendó un
límite anual de 0,15 Sv.

Límites de dosis para el público.

El ICPR asumió que un nivel de riesgo de mortalidad del orden de 10 -6 a 10-5 por año podría ser
aceptable para el público. Se recomienda para este grupo una exposición no superior a 5 mSv, siempre
y cuando a lo largo de la vida la dosis acumulada no fuese superior a 70 mSv. En 1985 este límite se
redujo, para exposiciones prolongadas, a 1 mSv por año, aceptando que algunos años llegara a 5 mSv,
no superando los 70 mSv a los 70 años.

Estos límites deben aplicarse a todas las exposiciones sujetas al sistema de protección, a que puedan
verse sometidos los individuos como consecuencia de todas las actividades en que se vean implicados
y supongan un riesgo de exposición a las radiaciones ionizantes. Se excluyen especialmente las
exposiciones médicas (como paciente) y en el caso del público la exposición a la radiación natural.

9.3.3 FACTORES DE PROTECCIÓN CONTRA IRRADIACIÓN EXTERNA

Las radiaciones recibidas dependen de:

 Tiempo de permanencia en el lugar de irradiación


 Distancia entre la fuente y la persona
 Blindaje interpuesto entre ambos

Juan Carlos Cruz Álvarez Página 118 TEMA 9


TIEMPO
La dosis acumulada por el individuo al permanecer un tiempo t en las proximidades de una fuente es:

D= Ḋ ∙ t
(9.4)

Por lo que conviene permanecer el menor tiempo posible

DISTANCIA
La radiación γ o rayos X se propaga en el espacio siguiendo la ley de proporción inversa al cuadrado
de la distancia:
1
D 2
d
(9.5)

Al alejarse de la fuente, la intensidad de radiación disminuye en la misma proporción:

D ( d 1) d 22
= 2
D ( d 2) d1
(9.6)
Se observa con esto que la dosis recibida en un mismo intervalo de tiempo a un metro de la fuente
disminuirá a 1/4, al alejarse a 2 metros

En la radiación α o β hay que tener en cuenta su alcance limitado en aire, que depende de su energía
umbral.

BLINDAJES
Cuando no se puede reducir ni el tiempo de permanencia ni la distancia a la fuente, se recurre a poner
un blindaje, que es un material absorbente de las radiaciones.

Según el tipo de radiación y la energía de la fuente, se pueden clasificar los blindajes en tres grupos:
 Para radiación directamente ionizante (partículas cargadas, α , β ,…).
 Para radiación γ y rayos X
 Para neutrones

Blindajes para partículas cargadas.

Para partículas α no ofrecen problema por su corto alcance (se aumenta el grosor del material hasta
que supere el alcance de la partícula).

Para partículas β aparece el problema de la existencia de radiación de frenado, que hay que tener en
cuenta a la hora de diseñar el blindaje. Pero el alcance de los electrones es corto (del orden de 1 m en
el aire). Un blindaje adecuado sería una capa absorbente de número atómico bajo (plástico o aluminio)
para minimizar el efecto de la radiación de frenado (que es proporcional a Z), seguido de una capa fina
de plomo para atenuar la radiación de frenado producida en el primer absorbente.

Blindajes para radiación gamma y rayos X.

Hay que tener en cuenta la naturaleza y forma de la fuente emisora, la energía de emisión y el flujo que
se quiere obtener al otro lado del blindaje.

Juan Carlos Cruz Álvarez Página 119 TEMA 9


Para una fuente puntual, el flujo será:
e− μr
Φ=S
4 π r2
(9.7)
e−μr S: número de fotones emitidos
Φ=S . B p (μ , r ) r: espesor del absorbente
4 π r2 µ: coeficiente de absorción del absorbente
Bp: factor de acumulación

Donde el numerador expresa la atenuación sufrida al atravesar el espesor r.

Los fotones pueden sufrir colisiones dispersivas (Compton, creación de pares) y, a consecuencia,
originar radiación en otras direcciones. Por ello se introduce el factor de acumulación, que depende del
recorrido del fotón en el material y el coeficiente de atenuación.

Blindajes para neutrones.

Para estimar su tamaño, se tiene en cuenta las propiedades de interacción de los neutrones con la
materia, que varían en función de la energía.

Debe cumplir dos misiones: rebajar la energía de los neutrones hasta alcanzar el equilibrio térmico y
absorberlos una vez termalizados.

Los neutrones rápidos (muy energéticos) se moderan en colisiones elásticas con materiales ligeros (Z
bajo).

Los neutrones térmicos (baja energía) pueden ser absorbidos en materiales con alta sección eficaz de
absorción (B, Cd).

Un completo blindaje para neutrones:

 Espesor de material hidrogenoide (bajo Z), para modelarlos hasta térmicos.


 Espesor de Cd o B, para absorberlos.
 Espesor de alto Z (Pb) para detener la radiación γ , que acompaña a los neutrones.

9.4 EJEMPLOS DE DOSIS

La dosis letal (50% de probabilidad de muerte en 30 días) es de 100 a 300 rems (1-3 Sv)

Dosis altas. (≥ 1Sv) son muy destructivas (leucocitos de la sangre, células intestinales, médula) y si se
reciben en poco tiempo (algunas horas) pueden causar la muerte.

Dosis bajas. Es muy difícil fijar un umbral de peligro. Los efectos parecen ser que son proporcionales
a la dosis total integrada.

Se ha determinado que la dosis anual que reciben las tripulaciones de los aviones es de 5 mSv. La
densidad de la atmósfera equivale a unos 4 metros de cemento; si se viaja a 10 km de altura la
atmósfera remanente equivale ya a sólo un metro de cemento.

En la determinación de dosis debidas al Radón se han llegado a medir hasta 200 mrems (2 mSv),
aunque el valor medio es 0,5 mSv.

El K40(1,25 x 109 años), representa el 1,17 x 10-4 del potasio natural. Es un electrolito crítico en la
sangre. Puede estimarse que una persona de 70 kg, recibe una autodosis de 10 -7 Ci sólo debido a los
elementos radiactivos en su interior: K40 y C14

Juan Carlos Cruz Álvarez Página 120 TEMA 9

También podría gustarte