Está en la página 1de 29

Teoría de la relatividad

Dibujo artístico sobre la teoría de la relatividad

La teoría de la relatividad incluye tanto a la teoría de la relatividad especial como la


de relatividad general, formuladas por Albert Einstein a principios del siglo XX, que pretendían
resolver la incompatibilidad existente entre la mecánica newtoniana y el electromagnetismo.
La teoría de la relatividad especial, publicada en 1905, trata de la física del movimiento de los
cuerpos en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones
de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento.
La teoría de la relatividad general, publicada en 1915, es una teoría de la gravedad que
reemplaza a la gravedad newtoniana, aunque coincide numéricamente con ella para campos
gravitatorios débiles y "pequeñas" velocidades. La teoría general se reduce a la teoría especial
en ausencia de campos gravitatorios.

Relatividad especial[
La teoría de la relatividad especial, también llamada teoría de la relatividad restringida, fue
publicada por Albert Einstein en 1905 y describe la física del movimiento en el marco de
un espacio-tiempo plano. Esta teoría describe correctamente el movimiento de los cuerpos
incluso a grandes velocidades y sus interacciones electromagnéticas, se usa básicamente
para estudiar sistemas de referencia inerciales (no es aplicable para problemas astrofísicos
donde el campo gravitatorio desempeña un papel importante).
Estos conceptos fueron presentados anteriormente por Poincaré y Lorentz, que son
considerados como precursores de la teoría. Si bien la teoría resolvía un buen número de
problemas del electromagnetismo y daba una explicación del experimento de Michelson-
Morley, no proporciona una descripción relativista adecuada del campo gravitatorio.
Relatividad general

Esquema bidimensional de la curvatura del espacio-tiempo (cuatro dimensiones) generada por una
masa esférica.

La relatividad general fue publicada por Einstein en 1915, presentada como conferencia en
la Academia de Ciencias Prusiana el 25 de noviembre. La teoría generaliza el principio de
relatividad de Einstein para un observador arbitrario. Esto implica que las ecuaciones de la
teoría deben tener una forma de covariancia más general que la covariancia de Lorentz usada
en la teoría de la relatividad especial. Además de esto, la teoría de la relatividad general
propone que la propia geometría del espacio-tiempo se ve afectada por la presencia
de materia, de lo cual resulta una teoría relativista del campo gravitatorio. De hecho la teoría
de la relatividad general predice que el espacio-tiempo no será plano en presencia de materia
y que la curvatura del espacio-tiempo será percibida como un campo gravitatorio.
Debe notarse que el matemático alemán David Hilbert escribió e hizo públicas las ecuaciones
de la covariancia antes que Einstein. Ello resultó en no pocas acusaciones de plagio contra
Einstein, pero probablemente sea más, porque es una teoría (o perspectiva) geométrica. La
misma postula que la presencia de masa o energía «curva» al espacio-tiempo, y esta
curvatura afecta la trayectoria de los cuerpos móviles e incluso la trayectoria de la luz.
Einstein expresó el propósito de la teoría de la relatividad general para aplicar plenamente el
programa de Ernst Mach de la relativización de todos los efectos de inercia, incluso añadiendo
la llamada constante cosmológica a sus ecuaciones de campo4para este propósito. Este punto
de contacto real de la influencia de Ernst Mach fue claramente identificado en 1918, cuando
Einstein distingue lo que él bautizó como el principio de Mach (los efectos inerciales se derivan
de la interacción de los cuerpos) del principio de la relatividad general, que se interpreta ahora
como el principio de covariancia general.5
Formalismo de la teoría de la relatividad[editar]

Representación de la línea de universo de una partícula. Como no es posible reproducir un espacio-


tiempo de cuatro dimensiones, en la figura se representa solo la proyección sobre 2 dimensiones
espaciales y una temporal.

Partículas[editar]

En la teoría de la relatividad una partícula puntual queda representada por un par ,


donde (y (t),m) es una curva diferenciable, llamada línea de universo de la partícula, y m es un
escalar que representa la masa en reposo. El vector tangente a esta curva es un vector
temporal llamado cuadrivelocidad, el producto de este vector por la masa en reposo de la
partícula es precisamente el cuadrimomento. Este cuadrimomento es un vector de cuatro
componentes, tres de estas componentes se denominan espaciales y representan el análogo
relativista del momento lineal de la mecánica clásica, la otra componente denominada
componente temporal representa la generalización relativista de la energía cinética. Además,
dada una curva arbitraria en el espacio-tiempo, puede definirse a lo largo de ella el
llamado intervalo relativista, que se obtiene a partir del tensor métrico. El intervalo relativista
medido a lo largo de la trayectoria de una partícula es proporcional al intervalo de tiempo
propio o intervalo de tiempo percibido por dicha partícula.

Campos [editar]
Cuando se consideran campos o distribuciones continuas de masa, se necesita algún tipo de
generalización para la noción de partícula. Un campo físico posee momentum y energía
distribuidos en el espacio-tiempo, el concepto de cuadrimomento se generaliza mediante el
llamado tensor de energía-impulso que representa la distribución en el espacio-tiempo tanto
de energía como de momento lineal. A su vez un campo dependiendo de su naturaleza puede
representarse por un escalar, un vector o un tensor. Por ejemplo el campo
electromagnético se representa por un tensor de segundo orden totalmente antisimétrico o 2-
forma. Si se conoce la variación de un campo o una distribución de materia, en el espacio y en
el tiempo entonces existen procedimientos para construir su tensor de energía-impulso.
Magnitudes físicas [editar]
En relatividad, estas magnitudes físicas son representadas por vectores 4-dimensionales o
bien por objetos matemáticos llamados tensores, que generalizan los vectores, definidos sobre
un espacio de cuatro dimensiones. Matemáticamente estos 4-vectores y 4-tensores son
elementos definidos del espacio vectorial tangente al espacio-tiempo (y los tensores se
definen y se construyen a partir del fibrado tangente o cotangente de la variedad que
representa el espacio-tiempo).
Correspondencia entre E3nota 2 y M4nota 3
Espacio tridimensional euclídeo Espacio-tiempo de Minkowski
Punto Suceso
Longitud Intervalo
Velocidad Cuadrivelocidad
Momentum Cuadrimomentum

Igualmente además de cuadrivectores, se definen cuadritensores (tensores ordinarios


definidos sobre el fibrado tangente del espacio-tiempo concebido como variedad lorentziana).
La curvatura del espacio-tiempo se representa por un 4-tensor (tensor de cuarto orden),
mientras que la energía y el momento de un medio continuo o el campo electromagnético se
representan mediante 2-tensores (simétrico el tensor energía-impulso, antisimétrico el de
campo electromagnético). Los cuadrivectores son de hecho 1-tensores, en esta terminología.
En este contexto se dice que una magnitud es un invariante relativista si tiene el mismo valor
para todos los observadores, obviamente todos los invariantes relativistas son escalares (0-
tensores), frecuentemente formados por la contracción de magnitudes tensoriales.
Igualmente además de cuadrivectores, se definen cuadritensores (tensores ordinarios
definidos sobre el fibrado tangente del espacio-tiempo concebido como variedad lorentziana).
La curvatura del espacio-tiempo se representa por un 4-tensor (tensor de cuarto orden),
mientras que la energía y el momento de un medio continuo o el campo electromagnético se
representan mediante 2-tensores (simétrico el tensor energía-impulso, antisimétrico el de
campo electromagnético). Los cuadrivectores son de hecho 1-tensores, en esta terminología.
En este contexto se dice que una magnitud es un invariante relativista si tiene el mismo valor
para todos los observadores, obviamente todos los invariantes relativistas son escalares (0-
tensores), frecuentemente formados por la contracción de magnitudes tensoriales.
Teoría cuántica imágenes
Mecánica cuántica

Imagen ilustrativa de la dualidad onda-partícula, donde se aprecia cómo un mismo fenómeno puede ser
percibido de dos modos distintos.

La mecánica cuántica es una disciplina de la física encargada de brindar una descripción


fundamental de la naturaleza a escalas espaciales pequeñas. Surge tímidamente en los inicios
del siglo XX dentro de las tradiciones más profundas de la física para dar una solución a
problemas para los que las teorías conocidas hasta el momento habían agotado su capacidad
de explicar, como la llamada catástrofe ultravioleta en la radiación de cuerpo negro predicha
por la física estadística clásica y la inestabilidad de los átomos en el modelo atómico de
Rutherford. La primera propuesta de un principio propiamente cuántico se debe a Max
Planck en 1900, para resolver el problema de la radiación de cuerpo negro, que será
duramente cuestionado, hasta que Albert Einstein lo convierte en el principio que
exitosamente pueda explicar el efecto fotoeléctrico. Las primeras formulaciones matemáticas
completas de la mecánica cuántica no se alcanzan hasta mediados de la década de 1920, sin
que hasta el día de hoy se tenga una interpretación coherente de la teoría, en particular del
problema de la medición.
La mecánica cuántica propiamente dicha no incorpora a la relatividad en su formulación
matemática. La parte de la mecánica cuántica que incorpora elementos relativistas de manera
formal para abordar diversos problemas se conoce como mecánica cuántica relativista o ya,
en forma más correcta y acabada, teoría cuántica de campos (que incluye a su vez a
la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo
estándar)1 y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La
única interacción elemental que no se ha podido cuantizar hasta el momento ha sido
la interacción gravitatoria. Este problema constituye entonces uno de los mayores desafíos de
la física del siglo XXI.
La mecánica cuántica proporciona el fundamento de la fenomenología del átomo, de
su núcleo y de las partículas elementales (lo cual requiere necesariamente el enfoque
relativista). También su impacto en teoría de la información, criptografía y química ha sido
decisivo entre esta misma.

Contexto histórico[editar]
La mecánica cuántica es, cronológicamente hablando, la última de las grandes ramas de
la física. Se formuló a principios del siglo XX, casi al mismo tiempo que la teoría de la
relatividad, aunque el grueso de la mecánica cuántica se desarrolló a partir de 1920 (siendo la
teoría de la relatividad especial de 1905 y la teoría general de la relatividad de 1915).
Además al advenimiento de la mecánica cuántica existían diversos problemas no resueltos en
la electrodinámica clásica. El primero de estos problemas era la emisión de radiación de
cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración
microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica
clásica, la energía que emitía esta radiación térmica tendía al infinito si se suman todas las
frecuencias que emitía el objeto, con ilógico resultado para los físicos. También la estabilidad
de los átomos no podía ser explicada por el electromagnetismo clásico, y la noción de que el
electrón fuera o bien una partícula clásica puntual o bien una cáscara esférica de dimensiones
finitas resultaban igualmente problemáticas para esto.
Radiación electromagnética[editar]
El problema de la radiación electromagnética de un cuerpo negro fue uno de los primeros
problemas resueltos en el seno de la mecánica cuántica. Es en el seno de la mecánica
estadística donde surgen por primera vez las ideas cuánticas en 1900. Al físico alemán Max
Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral
de esas frecuencias por una suma no continua (discreta), se dejaba de obtener infinito como
resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con
lo que después era medido.
Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía
cuantizados introduciendo una constante estadística, que se denominó constante de Planck.
Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno
fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la
Sociedad Física de la Academia de Ciencias de Berlín.2
La idea de Planck habría permanecido muchos años solo como hipótesis sin verificar por
completo si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas
circunstancias, se comporta como partículas de energía (los cuantos de luz o fotones) en su
explicación del efecto fotoeléctrico. Fue Albert Einstein quien completó en 1905 las
correspondientes leyes del movimiento su teoría especial de la relatividad, demostrando que
el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha
dado en llamar física clásica, es decir, la física no-cuántica.
Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto
fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de
1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico,
es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad
la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada
partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa,
y a su velocidad. Así quedaba establecida la dualidad onda/materia. Poco tiempo
después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia»,
cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.
La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta
como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por
primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado
las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las
probabilidades.
Inestabilidad de los átomos clásicos[editar]
El segundo problema importante que la mecánica cuántica resolvió a través del modelo de
Bohr, fue el de la estabilidad de los átomos. De acuerdo con la teoría clásica un electrón
orbitando alrededor de un núcleo cargado positivamente debería emitir energía
electromagnética perdiendo así velocidad hasta caer sobre el núcleo. La evidencia empírica
era que esto no sucedía, y sería la mecánica cuántica la que resolvería este hecho primero
mediante postulados ad hoc formulados por Bohr y más tarde mediante modelos como
el modelo atómico de Schrödinger basados en supuestos más generales. A continuación se
explica el fracaso del modelo clásico.
En mecánica clásica, un átomo de hidrógeno es un tipo de problema de los dos cuerpos en
que el protón sería el primer cuerpo que tiene más del 99% de la masa del sistema y el
electrón es el segundo cuerpo que es mucho más ligero. Para resolver el problema de los dos
cuerpos es conveniente hacer la descripción del sistema, colocando el origen del sistema de
referencia en el centro de masa de la partícula de mayor masa, esta descripción es correcta
considerando como masa de la otra partícula la masa reducida que viene dada por

Siendo la masa del protón y la masa del electrón. En ese caso el problema
del átomo de hidrógeno parece admitir una solución simple en la que el electrón se moviera en
órbitas elípticas alrededor del núcleo atómico. Sin embargo, existe un problema con la
solución clásica, de acuerdo con las predicciones de electromagnetismo partícula eléctrica que
sigue un movimiento acelerado, como sucedería al describir una elipse debería emitir
radiación electromagnética, y por tanto perder energía cinética, la cantidad de energía radiada
sería de hecho:

Ese proceso acabaría con el colapso del átomo sobre el núcleo en un tiempo muy corto dadas
las grandes aceleraciones existentes. A partir de los datos de la ecuación anterior el tiempo de
colapso sería de 10-8 s, es decir, de acuerdo con la física clásica los átomos de hidrógeno no
serían estables y no podrían existir más de una cienmillonésima de segundo.
Esa incompatibilidad entre las predicciones del modelo clásico y la realidad observada llevó a
buscar un modelo que explicara fenomenológicamente el átomo. El modelo atómico de
Bohr era un modelo fenomenológico y provisorio que explicaba satisfactoriamente aunque de
manera heurística algunos datos, como el orden de magnitud del radio atómico y los espectros
de absorción del átomo, pero no explicaba cómo era posible que el electrón no emitiera
radiación perdiendo energía. La búsqueda de un modelo más adecuado llevó a la formulación
del modelo atómico de Schrödinger en el cual puede probarse que el valor esperado de la
aceleración es nulo, y sobre esa base puede decirse que la energía electromagnética emitida
debería ser también nula. Sin embargo, al contrario del modelo de Bohr, la representación
cuántica de Schrödinger es difícil de entender en términos intuitivos.

Desarrollo histórico[editar]
Artículo principal: Historia de la mecánica cuántica

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo
XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por
hechos experimentales como los siguientes, inexplicables con las herramientas teóricas
anteriores de la mecánica clásica o la electrodinámica:
Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía definidos y
discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de momento
angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura corresponden a
densidades elevadas de probabilidad de encontrar el electrón en dicha posición.

 Espectro de la radiación del cuerpo negro, resuelto por Max Planckcon la cuantización de
la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más
que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más
pequeños entre los valores discretos son llamados quanta (singular: quantum, de la
palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). La magnitud de
un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10-34 julios por
segundo.
 Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o
los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo
otras condiciones, las mismas especies de objetos exhiben un comportamiento
corpuscular, de partícula, («partícula» quiere decir un objeto que puede ser localizado en
una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se
conoce como dualidad onda-partícula.
 Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas,
en una amplitud prohibida para cualquier teoría clásica, sólo pueden ser descritos con
precisión si se hace referencia a ambos a la vez. Este fenómeno es
llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la
correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron
algunas de las mayores comprobaciones de la mecánica cuántica.
 Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa
"misteriosa" necesidad de cuantizar la energía.
 Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría
están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada
como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de
la materia condensada, la química cuántica y la física de partículas.
La región de origen de la mecánica cuántica puede localizarse en la Europa central,
en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.

Suposiciones más importantes[editar]


Artículo principal: Interpretaciones de la Mecánica cuántica

Las suposiciones más importantes de esta teoría son las siguientes:

 Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al


concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una
partícula 'puede ser explicado por una función matemática que asigna, a cada punto del
espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal
posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más
usual, la probabilística o interpretación de Copenhague). A partir de esa función, o función
de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.
 Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del
sistema o función de ondaevolucionan de acuerdo con la ecuación de Schrödinger, sin
embargo, si se realiza una medida sobre el sistema, éste sufre un «salto cuántico» hacia
un estado compatible con los valores de la medida obtenida (formalmente el nuevo estado
será una proyección ortogonal del estado original).
 Existen diferencias perceptibles entre los estados ligados y los que no lo están.
 La energía no se intercambia de forma continua en un estado ligado, sino en forma
discreta lo cual implica la existencia de paquetes mínimos de energía llamados cuantos,
mientras en los estados no ligados la energía se comporta como un continuo.

Descripción de la teoría[editar]
Interpretación de Copenhague[editar]
Artículo principal: Interpretación de Copenhague

Para describir la teoría de forma general es necesario un tratamiento matemático riguroso,


pero aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la
Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado
instantáneo de un sistema (estado cuántico) con una función de onda que codifica
la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos
observables posibles sobre un sistema dado son la energía, posición, momento y momento
angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace
predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la
materia son explicadas por la interferencia de las funciones de onda.
Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución
es determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución
es estocástica y se produce mediante colapso de la función de onda cuando se realiza una
medida sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin
interferencia en el espacio vacío puede ser descrita mediante una función de onda que es
un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el
centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar
localizada más precisamente en otro lugar. La evolución temporal determinista de las
funciones de onda es descrita por la Ecuación de Schrödinger.
Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que
son constantes en el tiempo, estos estados se llaman estacionarios, son estados
propios del operador hamiltoniano y tienen energía bien definida. Muchos sistemas que eran
tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda
estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una
partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de
probabilidad estática que rodea al núcleo.
Cuando se realiza una medición en un observable del sistema, la función de ondas se
convierte en una del conjunto de las funciones llamadas funciones propias o estados propios
del observable en cuestión. Este proceso es conocido como colapso de la función de onda.
Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles son
descritas por la función de onda instantánea justo antes de la reducción. Considerando el
ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá
un valor impredecible x. En general, es imposible predecir con precisión qué valor de x se
obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas,
donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la
función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno
a la posición observada x.
La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función
de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué
función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual
colapsa la función es probabilista y en este aspecto es no determinista. Así que la naturaleza
probabilista de la mecánica cuántica nace del acto de la medida.

Formulación matemática[editar]
Artículos principales: Postulados de la mecánica cuántica y Notación braket.

En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados
posibles de un sistema cuántico están representados por vectores unitarios
(llamados estados) que pertenecen a un Espacio de Hilbert complejo separable(llamado
el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del
sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el

espacio de funciones de cuadrado integrable , mientras que la descripción de un sistema

sin traslación pero con un espín es el espacio . La evolución temporal de un estado


cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el operador
correspondiente a la energía total del sistema, tiene un papel central.
Cada magnitud observable queda representada por un operador lineal hermítico definido
sobre un dominio denso del espacio de estados. Cada estado propio de
un observable corresponde a un eigenvector del operador, y el valor propio o eigenvalor
asociado corresponde al valor del observable en aquel estado propio. El espectro de un
operador puede ser continuo o discreto. La medida de un observable representado por un
operador con espectro discreto sólo puede tomar un conjunto numerable de posibles valores,
mientras que los operadores con espectro continuo presentan medidas posibles en intervalos
reales completos. Durante una medida, la probabilidad de que un sistema colapse a uno de
los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el
estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector
estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad
de un observable en un estado dado computando la descomposición espectral del operador
correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración
de que los operadores correspondientes a ciertos observables no conmutan.
Relatividad y la mecánica cuántica[editar]
Artículos principales: Teoría cuántica de campos y Segunda cuantización.

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad


general y la mecánica cuántica, aunque ambas teorías usan principios aparentemente
incompatibles. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del
quántum están apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se
resisten a ser incorporadas dentro de un mismo modelo coherente. Desde mediados del siglo
XX, aparecieron teorías cuánticas relativistas del campo electromagnético (electrodinámica
cuántica) y las fuerzas nucleares (modelo electrodébil, cromodinámica cuántica), pero hasta la
fecha (2017) no se tiene una teoría cuántica relativista del campo gravitatorio que sea
plenamente consistente y válida para campos gravitatorios intensos (existen aproximaciones
en espacios asintóticamente planos). Todas las teorías cuánticas relativistas consistentes
usan los métodos de la teoría cuántica de campos.
En su forma ordinaria, la teoría cuántica abandona algunos de los supuestos básicos de
la teoría de la relatividad, como por ejemplo el principio de localidad usado en la descripción
relativista de la causalidad. El mismo Einstein había considerado absurda la violación del
principio de localidad a la que parecía abocar la mecánica cuántica. La postura de Einstein fue
postular que la mecánica cuántica si bien era consistente era incompleta. Para justificar su
argumento y su rechazo a la falta de localidad y la falta de determinismo, Einstein y varios de
sus colaboradores postularon la llamada paradoja de Einstein-Podolsky-Rosen (EPR), la cual
demuestra que medir el estado de una partícula puede instantáneamente cambiar el estado de
su socio enlazado, aunque las dos partículas pueden estar a una distancia arbitrariamente
grande. Modernamente el paradójico resultado de la paradoja EPR se sabe es una
consecuencia perfectamente consistente del llamado entrelazamiento cuántico. Es un hecho
conocido que si bien la existencia del entrelazamiento cuántico efectivamente viola el principio
de localidad, en cambio no viola la causalidad definido en términos de información, puesto que
no hay transferencia posible de información. Si bien en su tiempo, parecía que la paradoja
EPR suponía una dificultad empírica para mecánica cuántica, y Einstein consideró que la
mecánica cuántica en la interpretación de Copenhague podría ser descartada por
experimento, décadas más tarde los experimentos de Alain Aspect (1981) revelaron que
efectivamente la evidencia experimental parece apuntar en contra del principio de localidad.3 Y
por tanto, el resultado paradójico que Einstein rechazaba como "sin sentido" parece ser lo que
sucede precisamente en el mundo real.

Radiactividad
Diagrama de Segrè. El color indica el periodo de semidesintegración de los isótopos radiactivos
conocidos, también llamado semivida. Observe que un ligero exceso de neutrones favorece la
estabilidad en átomos pesados.
Diagrama de Segrè indicando el tipo de decaimiento más probable.

La radiactividad o radioactividad1 es un fenómeno físico por el cual los núcleos de


algunos elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad
de impresionar placas radiográficas, ionizar gases, producir fluorescencia, atravesar cuerpos
opacos a la luz ordinaria, entre otros. Debido a esa capacidad, se les suele
denominar radiaciones ionizantes (en contraste con las no ionizantes). Las radiaciones
emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien
corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras.
En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos inestables, que
son capaces de transformarse o decaer, espontáneamente, en núcleos atómicos de otros
elementos más estables, en palabras mas simples, un átomo inestable emite radiactividad
para volverse estable.
La radiactividad ioniza el medio que atraviesa. Una excepción la constituye el neutrón, que
posee carga neutra (igual carga positiva como negativa), pero ioniza la materia en forma
indirecta. En las desintegraciones radiactivas se tienen varios tipos de
radiación: alfa, beta, gamma y neutrones libres.
La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se
mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que, para
alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones
electromagnéticas o en emisiones de partículas con una determinada energía cinética. Esto se
produce variando la energía de sus electrones (emitiendo rayos X) o de sus nucleones (rayo
gamma) o variando el isótopo (al emitir desde el núcleo electrones, positrones,
neutrones, protones o partículas más pesadas), y en varios pasos sucesivos, con lo que un
isótopo pesado puede terminar convirtiéndose en uno mucho más ligero, como el uranio que,
con el transcurrir de los siglos, acaba convirtiéndose en plomo.
La radiactividad se aprovecha para la obtención de energía nuclear, se usa en medicina
(radioterapia y radiodiagnóstico) y en aplicaciones industriales (medidas de espesores y
densidades, entre otras).
La radiactividad puede ser:

 Natural: manifestada por los isótopos que se encuentran en la naturaleza.


 Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones
artificiales.

Radiactividad natural[editar]
Véanse también: Radiactividad natural, Rayos cósmicos y Redradna.

En 1896, Henri Becquerel descubrió que ciertas sales de uranio emiten radiaciones
espontáneamente, al observar que, cuando colocaba placas fotográficas envueltas en papel
negro cerca de este mineral, los rayos-X velaban la placa a pesar de su envoltorio opaco,
descartando que se tratara de una propiedad de los materiales fosforescentes.
El estudio del nuevo fenómeno y su desarrollo posterior se debe casi exclusivamente al
matrimonio de Marie y Pierre Curie, quienes encontraron otras sustancias radiactivas: el torio,
el polonio y el radio. La intensidad de la radiación emitida era proporcional a la cantidad
de uranio presente, por lo que los Curie dedujeron que la radiactividad era una propiedad
atómica. El fenómeno de la radiactividad se origina exclusivamente en el núcleo de los átomos
radiactivos. Se cree que se origina debido a la interacción neutrón-protón. Al estudiar la
radiación emitida por el radio, se comprobó que era compleja, pues al aplicarle un campo
magnético parte de ella se desviaba de su trayectoria y otra parte no.
Pronto se vio que todas estas reacciones provienen del núcleo atómico que describió Ernest
Rutherford en 1911, quien también demostró que las radiaciones emitidas por las sales de
uranio pueden ionizar el aire y producir la descarga de cuerpos cargados eléctricamente.
Con el uso del neutrón, partícula teorizada en 1920 por Ernest Rutherford, se consiguió
describir la radiación beta.
En 1932, James Chadwick descubrió la existencia del neutrón que Rutherford había predicho
en 1920, e inmediatamente después Enrico Fermi descubrió que ciertas radiaciones emitidas
en fenómenos no muy comunes de desintegración son en realidad neutrones.

Radiactividad artificial[editar]

Símbolo utilizado tradicionalmente para indicar la presencia de radiactividad.

Nuevo símbolo de advertencia de radiactividad adoptado por la ISO en 2007 para fuentes que puedan
resultar peligrosas. Estándar ISO #21482.

La radiactividad artificial, también llamada radiactividad inducida, se produce cuando se


bombardean ciertos núcleos estables con partículas apropiadas. Si la energía de estas
partículas tiene un valor adecuado, penetran el núcleo bombardeado y forman un nuevo
núcleo que, en caso de ser inestable, se desintegra después radiactivamente. Fue descubierta
por la pareja Frédéric Joliot-Curie e Irène Joliot-Curie, bombardeando núcleos de boro y
de aluminio con partículas alfa. Observaron que las sustancias bombardeadas emitían
radiaciones (neutrones libres) después de retirar el cuerpo radiactivo emisor de las partículas
de bombardeo. El plomo es la sustancia que mayor fuerza de impenetración posee por parte
de los rayos x y gamma.
En 1934 Fermi se encontraba en un experimento bombardeando núcleos de uraniocon
los neutrones recién descubiertos. En 1938, en Alemania, Lise Meitner, Otto Hahn y Fritz
Strassmann verificaron los experimentos de Fermi. En 1939demostraron que una parte de los
productos que aparecían al llevar a cabo estos experimentos era bario. Muy pronto
confirmaron que era resultado de la división de los núcleos de uranio: la primera observación
experimental de la fisión. En Francia, Frédéric Joliot-Curie descubrió que, además del bario,
se emiten neutrones secundarios en esa reacción, lo que hace factible la reacción en cadena.
También en 1932, Mark Lawrence Elwin Oliphant2 teorizó sobre la fusión de núcleos ligeros
(de hidrógeno), y poco después Hans Bethe describió el funcionamiento de las estrellas con
base en este mecanismo.
El estudio de la radiactividad permitió un mayor conocimiento de la estructura del núcleo
atómico y de las partículas subatómicas. Se abrió la posibilidad de convertir unos elementos
en otros. Incluso se hizo realidad el ancestral sueño de los alquimistas de crear oro a partir de
otros elementos, como por ejemplo átomos de mercurio, aunque en términos prácticos el
proceso de convertir mercurio en oro no resulta rentable debido a que el proceso requiere
demasiada energía.
El 15 de marzo de 1994, la Agencia Internacional de la Energía Atómica (AIEA) dio a conocer
un nuevo símbolo de advertencia de radiactividad con validez internacional. La imagen fue
probada en 11 países.

Clases y componentes de la radiación

Se comprobó que la radiación puede ser de tres clases diferentes, conocidas


como partículas, desintegraciones y radiación:

1. Partícula alfa: Son flujos de partículas cargadas positivamente compuestas por dos
neutrones y dos protones (núcleos de helio). Son desviadas por campos eléctricos y
magnéticos. Son poco penetrantes, aunque muy ionizantes. Son muy energéticas.
Fueron descubiertas por Rutherford, quien hizo pasar partículas alfa a través de un
fino cristal y las atrapó en un tubo de descarga. Este tipo de radiación la emiten
núcleos de elementos pesados situados al final de la tabla periódica (masa A >100).
Estos núcleos tienen muchos protones y la repulsión eléctrica es muy fuerte, por lo
que tienden a obtener N aproximadamente igual a Z (número atómico), y para ello se
emite una partícula alfa. En el proceso se desprende mucha energía, que se convierte
en la energía cinética de la partícula alfa, por lo que estas partículas salen con
velocidades muy altas.
2. Desintegración beta: Son flujos de electrones (beta negativas) o positrones (beta
positivas) resultantes de la desintegración de los neutrones o protones del núcleo
cuando este se encuentra en un estado excitado. Es desviada por campos
magnéticos. Es más penetrante, aunque su poder de ionización no es tan elevado
como el de las partículas alfa. Por lo tanto, cuando un átomo expulsa una partícula
beta, su número atómico aumenta o disminuye una unidad (debido al protón ganado o
perdido). Existen tres tipos de radiación beta: la radiación beta-, que consiste en la
emisión espontánea de electrones por parte de los núcleos; la radiación beta+, en la
que un protón del núcleo se desintegra y da lugar a un neutrón, a un positrón o
partícula Beta+ y un neutrino, y por último la captura electrónica que se da en núcleos
con exceso de protones, en la cual el núcleo captura un electrón de la corteza
electrónica, que se unirá a un protón del núcleo para dar un neutrón.
3. Radiación gamma: Se trata de ondas electromagnéticas. Es el tipo más penetrante
de radiación. Al ser ondas electromagnéticas de longitud de onda corta, tienen mayor
penetración y se necesitan capas muy gruesas de plomo u hormigón para detenerlas.
En este tipo de radiación el núcleo no pierde su identidad, sino que se desprende de
la energía que le sobra para pasar a otro estado de energía más baja emitiendo los
rayos gamma, o sea fotones muy energéticos. Este tipo de emisión acompaña a las
radiaciones alfa y beta. Por ser tan penetrante y tan energética, éste es el tipo más
peligroso de radiación.
Las leyes de desintegración radiactiva, descritas por Frederick Soddy y Kasimir Fajans, son:

 Cuando un átomo radiactivo emite una partícula alfa, la masa del átomo (A) resultante
disminuye en 4 unidades y el número atómico (Z) en 2.
 Cuando un átomo radiactivo emite una partícula beta, el número atómico (Z) aumenta o
disminuye en una unidad y la masa atómica (A) se mantiene constante.
 Cuando un núcleo excitado emite radiación gamma, no varía ni su masa ni su número
atómico: sólo pierde una cantidad de energía hν (donde "h" es la constante de Planck y "ν"
es la frecuencia de la radiación emitida).
Las dos primeras leyes indican que, cuando un átomo emite una radiación alfa o beta, se
transforma en otro átomo de un elemento diferente. Este nuevo elemento puede ser radiactivo
y transformarse en otro, y así sucesivamente, con lo que se generan las llamadas series
radiactivas.

Causa de la radiactividad[editar]
En general son radiactivas las sustancias que no presentan un balance correcto
entre protones o neutrones, tal como muestra el gráfico que encabeza este artículo. Cuando el
número de neutrones es excesivo o demasiado pequeño respecto al número de protones, se
hace más difícil que la fuerza nuclear fuerte, debido al efecto del intercambio de piones, pueda
mantenerlos unidos. Finalmente, el desequilibrio se corrige mediante la liberación del exceso
de neutrones o protones, en forma de partículas α que son realmente núcleos de helio, y
partículas β, que pueden ser electrones o positrones. Estas emisiones llevan a dos tipos de
radiactividad, ya mencionados:

 Radiación α, que aligera los núcleos atómicos en 4 unidades másicas, y cambia el número
atómico en dos unidades.
 Radiación β, que no cambia la masa del núcleo, ya que implica la conversión de un protón
en un neutrón o viceversa, y cambia el número atómico en una sola unidad (positiva o
negativa, según si la partícula emitida es un electrón o un positrón).
La radiación γ, por su parte, se debe a que el núcleo pasa de un estado excitado de mayor
energía a otro de menor energía, que puede seguir siendo inestable y dar lugar a la emisión
de más radiación de tipo α, β o γ. La radiación γ es, por tanto, un tipo de radiación
electromagnética muy penetrante, ya que tiene una alta energía por fotón emitido.

Período de semidesintegración radiactiva[editar]


La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:

donde:

es el número de radionúclidos existentes en un instante de tiempo .


es el número de radionúclidos existentes en el instante inicial .

, llamada constante de desintegración radiactiva, es la probabilidad de


desintegración por unidad de tiempo. A partir de la definición de actividad
(ver Velocidad de desintegración), es evidente que la constante de desintegración es
el cociente entre el número de desintegraciones por segundo y el número de átomos

radiactivos ( ).
Se llama tiempo de vida o tiempo de vida media de un radioisótopo el tiempo
promedio de vida de un átomo radiactivo antes de desintegrarse. Es igual a la

inversa de la constante de desintegración radiactiva ( ).


Al tiempo que transcurre hasta que la cantidad de núcleos radiactivos de un
isótopo radiactivo se reduzca a la mitad de la cantidad inicial se le conoce
como periodo de semidesintegración, período, semiperiodo, semivida o vida

media (no confundir con el ya mencionado tiempo de vida) ( ). Al final de


cada período, la radiactividad se reduce a la mitad de la radiactividad inicial. Cada
radioisótopo tiene un semiperiodo característico, en general diferente del de otros
isótopos.
Ejemplos:

Isótopo Periodo Emisión

Uranio-238 4510 millones de años Alfa

Carbono-14 5730 años Beta

Cobalto-60 5,271 años Gamma

Radón-222 3,82 días Alfa

Velocidad de desintegración[editar]
La velocidad de desintegración o actividad radiactiva se mide en Bq, en el SI. Un
becquerel vale 1 desintegración por segundo. También existen otras unidades:
el rutherford, que equivale a 106 desintegraciones por segundo, o el curio, Ci, que
equivale idénticamente a 3,7·1010 desintegraciones por segundo (unidad basada
en la actividad de 1 g de 226Ra que es cercana a esa cantidad). Empíricamente se
ha determinado que la velocidad de desintegración es la tasa de variación del
número de núcleos radiactivos por unidad de tiempo:
La velocidad de desintegración o actividad radiactiva se mide en Bq, en el SI. Un becquerel
vale 1 desintegración por segundo. También existen otras unidades: el rutherford, que
equivale a 106 desintegraciones por segundo, o el curio, Ci, que equivale idénticamente a
3,7·1010 desintegraciones por segundo (unidad basada en la actividad de 1 g de 226Ra que es
cercana a esa cantidad). Empíricamente se ha determinado que la velocidad de
desintegración es la tasa de variación del número de núcleos radiactivos por unidad de
tiempo:

Dada la ley de desintegración radiactiva que sigue (ver Periodo de semidesintegración),


es evidente que:

,
donde:

es la actividad radiactiva en el instante .

es la actividad radiactiva inicial (cuando ).

es la base de los logaritmos neperianos.

es el tiempo transcurrido.

es la constante de desintegración radiactiva propia de cada radioisótopo.


La actividad también puede expresarse en términos del número de
núcleos a partir de su propia definición. En efecto:

Contador Geiger[editar]
Artículo principal: Contador Geiger

Un contador Geiger es un instrumento que permite medir la radiactividad


de un objeto o lugar. Cuando una partícula radiactiva se introduce en un
contador Geiger, produce un breve impulso de corriente eléctrica. La
radiactividad de una muestra se calcula por el número de estos impulsos.
Está formado, normalmente, por un tubo con un fino hilo metálico a lo
largo de su centro. El espacio entre ellos está aislado y relleno de un gas,
y con el hilo a unos 1000 voltios relativos con el tubo. Un ion o electrón
penetra en el tubo (o se desprende un electrón de la pared por los rayos
X o gamma) desprende electrones de los átomos del gas y que, debido al
voltaje positivo del hilo central, son atraídos hacia el hilo. Al hacer esto
ganan energía, colisionan con los átomos y liberan más electrones, hasta
que el proceso se convierte en un alud que produce un pulso de corriente
detectable. Relleno de un gas adecuado, el flujo de electricidad se para
por sí mismo o incluso el circuito eléctrico puede ayudar a pararlo. Al
instrumento se le llama un "contador" debido a que cada partícula que
pasa por él produce un pulso idéntico, permitiendo contar las partículas
(normalmente de forma electrónica) pero sin decirnos nada sobre su
identidad o su energía (excepto que deberán tener energía suficiente para
penetrar las paredes del contador). Los contadores de Van Allen estaban
hechos de un metal fino con conexiones aisladas en sus extremos.

Riesgos para la salud[editar]


El riesgo para la salud no sólo depende de la intensidad de la radiación y
de la duración de la exposición, sino también del tipo de tejido afectado y
de su capacidad de absorción. Por ejemplo, los órganos reproductores
son 50 veces más sensibles que la piel.
Los efectos mutagénicos de la radiación fueron identificados por primera
vez por Hermann Joseph Muller en 1927. Por esta investigación le fue
concedido el Premio Nobel de Medicina en 1946.3
Véase también: Contaminación radiactiva

Consecuencias para la salud de la exposición a


las radiaciones ionizantes[editar]
Los efectos de la radiactividad sobre la salud son complejos. Dependen
de la dosis absorbida por el organismo. Como no todas las radiaciones
tienen la misma nocividad, se multiplica cada radiación absorbida por
un coeficiente de ponderaciónpara tener en cuenta las diferencias. Esto
se llama dosis equivalente, que se mide en sieverts (Sv), ya que
el becquerel, para medir la peligrosidad de un elemento, erróneamente
considera idénticos los tres tipos de radiaciones (alfa, beta y gamma).
Una radiación alfa o beta es relativamente poco peligrosa fuera del
cuerpo. En cambio, es extremadamente peligrosa cuando se inhala. Por
otro lado, las radiaciones gamma son siempre dañinas, puesto que se
neutralizan con dificultad.
Véase también: Radiación ionizante

Dosis aceptable de irradiación[editar]


Hasta cierto punto, las radiaciones naturales (emitidas por el medio
ambiente) son inofensivas. El promedio de tasa de dosis
equivalente medida a nivel del mar es de 0,00012 mSv/h (0,012 mrem/h).
La dosis efectiva (suma de las dosis recibida desde el exterior del cuerpo
y desde su interior) que se considera que empieza a producir efectos en
el organismo de forma detectable es de 100 mSv (10 rem) en un periodo
de 1 año.4
Los métodos de reducción de la dosis son: 1) reducción del tiempo de
exposición, 2) aumento del blindaje y 3) aumento de la distancia a la
fuente radiante.
A modo de ejemplo, se muestran las tasas de dosis en la actualidad
utilizadas en una central nuclear para establecer los límites de
permanencia en cada zona, el personal que puede acceder a ellas y su
señalización:

Zona Dosis

Zona gris o azul de 0,0025 a 0,0075 mSv/h

Zona verde de 0,0075 a 0,025 mSv/h

Zona amarilla de 0,025 a 1 mSv/h

Zona naranja de 1 a 100 mSv/h

Zona roja > 100 mSv/h

Dosis efectiva permitida[editar]


La dosis efectiva es la suma ponderada de dosis equivalentes en los
tejidos y órganos del cuerpo procedentes de irradiaciones internas y
externas. En la Unión Europea, la Directiva 96/29/EURATOM limita la
dosis efectiva para trabajadores expuestos a 100 mSv durante un período
de cinco años consecutivos, con una dosis efectiva máxima de 50 mSv en
cualquier año, y existen otros límites concretos de dosis equivalentes en
determinadas zonas del cuerpo, como el cristalino, la piel o las
extremidades, además de límites concretos para mujeres embarazadas o
lactantes. Para la población general, el límite de dosis efectiva es de 1
mSv por año, aunque en circunstancias especiales puede permitirse un
valor de dosis efectiva más elevado en un único año, siempre que no se
sobrepasen 5 mSv en cinco años consecutivos.5
En el caso de intervenciones (emergencias radiológicas), sin embargo,
estos límites no son aplicables. En su lugar se recomienda que, cuando
puedan planificarse las acciones, se utilicen niveles de referencia. En
estos casos, las actuaciones comienzan cuando la dosis al público puede
superar los 10 mSv en dos días (permanencia en edificios). En cuanto a
los trabajadores, se intentará que la dosis que reciban sea siempre
inferior al límite anual, salvo en medidas urgentes (rescate de personas,
situaciones que evitarían una dosis elevada a un gran número de
personas, impedir situaciones catastróficas). En estos casos se intentará
que no se supere el doble del límite de dosis en un solo año (100 mSv),
excepto cuando se trate de salvar vidas, donde se pondrá empeño en
mantener las dosis por debajo de 10 veces ese límite (500 mSv). Los
trabajadores que participen en acciones que puedan alcanzar este nivel
de 500 mSv deberán ser informados oportunamente y deberán ser
voluntarios.6
La dosis efectiva es una dosis acumulada. La exposición continua a las
radiaciones ionizantes se considera a lo largo de un año, y tiene en
cuenta factores de ponderación que dependen del órgano irradiado y del
tipo de radiación de que se trate.
La dosis efectiva permitida para alguien que trabaje con radiaciones
ionizantes (por ejemplo, en una central nuclear o en un centro médico) es
de 100 mSv en un periodo de 5 años, y no se podrán superar en ningún
caso los 50 mSv en un mismo año. Para las personas que no trabajan
con radiaciones ionizantes, este límite se fija en 1 mSv al año. Estos
valores se establecen por encima del fondo natural (que en promedio es
de 2,4 mSv al año en el mundo).
Las diferencias en los límites establecidos entre trabajadores y otras
personas se deben a que los trabajadores reciben un beneficio directo por
la existencia de la industria en la que trabajan, y por tanto, asumen un
mayor riesgo que las personas que no reciben un beneficio directo.
Por ese motivo, para los estudiantes se fijan límites algo superiores a los
de las personas que no trabajan con radiaciones ionizantes, pero algo
inferiores a los de las personas que trabajan con radiaciones ionizantes.
Para ellos se fija un límite de 6 mSv en un año.
Además, esos límites se establecen en función de ciertas hipótesis, como
es la del comportamiento lineal sin umbral de los efectos de las
radiaciones ionizantes sobre la salud (el modelo LNT). A partir de este
modelo, basado en medidas experimentales (de grandes grupos de
personas expuestas a las radiaciones, como los supervivientes
de Hiroshima y Nagasaki) de aparición de cáncer, se establecen límites
de riesgo considerado aceptable, consensuados con organismos
internacionales tales como la Organización Internacional del
Trabajo (OIT), y a partir de esos límites se calcula la dosis efectiva
resultante.
Véase también: Modelo lineal sin umbral

Ley de la radiosensibilidad[editar]
La ley de la radiosensibilidad (también conocida como ley de Bergonié y
Tribondeau, postulada en 1906) dice que los tejidos y órganos más
sensibles a las radiaciones son los menos diferenciados y los que
exhiben alta actividad reproductiva.
Como ejemplo, tenemos:

1. Tejidos altamente radiosensibles: epitelio intestinal, órganos


reproductivos (ovarios, testículos), médula ósea, glándula
tiroides.
2. Tejidos medianamente radiosensibles: tejido conectivo.
3. Tejidos poco radiosensibles: neuronas, hueso.

También podría gustarte