Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La mecánica cuántica1 2 (también conocida como la física cuántica o la teoría cuántica) es una
rama de la física que se ocupa de los fenómenos físicos a escalas microscópicas, donde la acción
es del orden de la constante de Planck. Su aplicación ha hecho posible el descubrimiento y
desarrollo de muchas tecnologías, como por ejemplo los transistores, componentes ampliamente
utilizados en casi todos los aparatos que tengan alguna parte funcional electrónica.
La mecánica cuántica describe, en su visión más ortodoxa, cómo en cualquier sistema físico –y por
tanto, en todo el universo– existe una diversa multiplicidad de estados, los cuales habiendo sido
descritos mediante ecuaciones matemáticas por los físicos, son denominados estados cuánticos.
De esta forma la mecánica cuántica puede explicar la existencia del átomo y revelar los misterios
de la estructura atómica, tal como hoy son entendidos; fenómenos que no puede explicar
debidamente la física clásica o más propiamente la mecánica clásica.
De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no
incorpora la relatividad en su formalismo, tan sólo como añadido mediante la teoría de
perturbaciones.3 La parte de la mecánica cuántica que sí incorpora elementos relativistas de
manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más
exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica,
cromodinámica cuántica y teoría electrodébil dentro del modelo estándar)4 y más generalmente, la
teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido
cuantificar ha sido la interacción gravitatoria.
La mecánica cuántica es el fundamento de los estudios del átomo, su núcleo y las partículas
elementales (siendo necesario el enfoque relativista). También en teoría de la información,
criptografía y química.
Contexto histórico
La mecánica cuántica es, cronológicamente, la última de las grandes ramas de la física. Comienza
a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar ciertos
fenómenos, la ley de gravitación universal y la teoría electromagnética clásica, se volvían
insuficientes para esclarecerlos. La teoría electromagnética generaba un problema cuando
intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación
térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen.
Usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica
tendía al infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para
los físicos.
Es en el seno de la mecánica estadística donde surgen las ideas cuánticas en 1900. Al físico
alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la
integral de esas frecuencias por una suma no continua, se dejaba de obtener infinito como
resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo
que después era medido.
Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía mediante
una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo
XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo
Planck el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de
Ciencias de Berlín.6
La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la
hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas
de energía independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en
1905 las correspondientes leyes de movimiento en su teoría especial de la relatividad,
demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así
lo que se ha dado en llamar física clásica, es decir, la física no-cuántica.
Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto
fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921.
Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la
que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura
de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada
partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, y
dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de
movimiento para las «ondas de materia», cuya existencia había propuesto De Broglie y varios
experimentos sugerían que eran reales.
La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como
esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez
aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones
experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX.
El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos
experimentales como los siguientes, inexplicables con las herramientas teóricas anteriores de la
mecánica clásica o la electrodinámica:
Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía
definidos y discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de
momento angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura
corresponden a densidades elevadas de probabilidad de encontrar el electrón en dicha posición.
Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la
energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que
continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los
valores discretos son llamados quanta (singular: quantum, de la palabra latina para «cantidad», de
ahí el nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado constante de
Planck, y que vale: 6.626 ×10-34 julios por segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los
electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras
condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula,
(«partícula» quiere decir un objeto que puede ser localizado en una región concreta del espacio),
como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas, en una
amplitud prohibida para cualquier teoría clásica, sólo pueden ser descritos con precisión si se hace
referencia a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad
de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la
desigualdad de Bell fueron algunas de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa
"misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y matemáticos
de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la
lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados
activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos
campos de la física y la química, incluyendo la física de la materia condensada, la química cuántica
y la física de partículas.
Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía
definidos y discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de
momento angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura
corresponden a densidades elevadas de probabilidad de encontrar el electrón en dicha posición.
Suposiciones más importantes[editar · editar código]
Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de
trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula 'puede ser
explicado por una función matemática que asigna, a cada punto del espacio y a cada instante, la
probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la
interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de
Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las
magnitudes del movimiento necesarias.
Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del sistema o
función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin embargo, si se realiza
una medida sobre el sistema, éste sufre un «salto cuántico» hacia un estado compatible con los
valores de la medida obtenida (formalmente el nuevo estado será una proyección ortogonal del
estado original).
Existen diferencias perceptibles entre los estados ligados y los que no lo están.
La energía no se intercambia de forma continua en un estado ligado, sino en forma discreta lo cual
implica la existencia de paquetes mínimos de energía llamados cuantos, mientras en los estados
no ligados la energía se comporta como un continuo.
Para describir la teoría de forma general es necesario un tratamiento matemático riguroso, pero
aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la
Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado
instantáneo de un sistema (estado cuántico) con una función de onda que codifica la distribución
de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles
sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica
cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus
distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la
interferencia de las funciones de onda.
Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución es
determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución es
estocástica y se produce mediante colapso de la función de onda cuando se realiza una medida
sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin interferencia
en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas
centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede
trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro
lugar. La evolución temporal determinista de las funciones de onda es descrita por la Ecuación de
Schrödinger.
Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que son
constantes en el tiempo, estos estados se llaman estacionarios, son estados propios del operador
hamiltoniano y tienen energía bien definida. Muchos sistemas que eran tratados dinámicamente en
mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un
electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo,
mientras que en mecánica cuántica es descrito por una nube de probabilidad estática que rodea al
núcleo.
Cuando se realiza una medición en un observable del sistema, la función de ondas se convierte en
una del conjunto de las funciones llamadas funciones propias o estados propios del observable en
cuestión. Este proceso es conocido como colapso de la función de onda. Las probabilidades
relativas de ese colapso sobre alguno de los estados propios posibles son descritas por la función
de onda instantánea justo antes de la reducción. Considerando el ejemplo anterior sobre la
partícula en el vacío, si se mide la posición de la misma, se obtendrá un valor impredecible x. En
general, es imposible predecir con precisión qué valor de x se obtendrá, aunque es probable que
se obtenga uno cercano al centro del paquete de ondas, donde la amplitud de la función de onda
es grande. Después de que se ha hecho la medida, la función de onda de la partícula colapsa y se
reduce a una que esté muy concentrada en torno a la posición observada x.
En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados
posibles de un sistema cuántico están representados por vectores unitarios (llamados estados) que
pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados). Qué tipo
de espacio de Hilbert es necesario en cada caso depende del sistema; por ejemplo, el espacio de
estados para los estados de posición y momento es el espacio de funciones de cuadrado
integrable \scriptstyle L^2(\R^3), mientras que la descripción de un sistema sin traslación pero con
un espín \scriptstyle n\hbar es el espacio \scriptstyle \mathbb{C}^{2n+1}. La evolución temporal de
un estado cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el
operador correspondiente a la energía total del sistema, tiene un papel central.
Cada magnitud observable queda representada por un operador lineal hermítico definido sobre un
dominio denso del espacio de estados. Cada estado propio de un observable corresponde a un
eigenvector del operador, y el valor propio o eigenvalor asociado corresponde al valor del
observable en aquel estado propio. El espectro de un operador puede ser continuo o discreto. La
medida de un observable representado por un operador con espectro discreto sólo puede tomar un
conjunto numerable de posibles valores, mientras que los operadores con espectro continuo
presentan medidas posibles en intervalos reales completos. Durante una medida, la probabilidad
de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor
absoluto del producto interior entre el estado propio o auto-estado (que podemos conocer
teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así
encontrar la distribución de probabilidad de un observable en un estado dado computando la
descomposición espectral del operador correspondiente. El principio de incertidumbre de
Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos
observables no conmutan.
El mismo Einstein es conocido por haber rechazado algunas de las demandas de la mecánica
cuántica. Einstein rechazó la interpretación ortodoxa de la mecánica cuántica tales como la falta de
determinismo, o la aserción de que una sola partícula subatómica no tiene una posición bien
definida. Einstein tampoco aceptó las consecuencias de entrelazamiento cuántico aún más
exóticas de la paradoja de Einstein-Podolsky-Rosen (EPR), la cual demuestra que medir el estado
de una partícula puede instantáneamente cambiar el estado de su socio enlazado, aunque las dos
partículas pueden estar a una distancia arbitrariamente grande. Sin embargo, este efecto no viola
la causalidad, puesto que no hay transferencia posible de información. De hecho, existen teorías
cuánticas que incorporan a la relatividad especial —por ejemplo, la electrodinámica cuántica, la
cual es actualmente la teoría física más comprobada— y éstas se encuentran en el mismo corazón
de la física moderna de partículas.
Computación cuántica
Una misma tarea puede tener diferente complejidad en computación clásica y en computación
cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables
pasan a ser tratables. Mientras que un computador clásico equivale a una máquina de Turing,1 un
computador cuántico equivale a una máquina de Turing cuántica
Efecto túnel
Para el efecto que produce el aumento de la velocidad en el campo visual del conductor, véase
Distorsión.
En mecánica cuántica, el efecto túnel es un fenómeno nanoscópico por el que una partícula viola
los principios de la mecánica clásica penetrando una barrera de potencial o impedancia mayor que
la energía cinética de la propia partícula. Una barrera, en términos cuánticos aplicados al efecto
túnel, se trata de una cualidad del estado energético de la materia análogo a una "colina" o
pendiente clásica, compuesta por crestas y flancos alternos, que sugiere que el camino más corto
de un móvil entre dos o más flancos debe atravesar su correspondiente cresta intermedia. Si el
objeto no dispone de energía mecánica suficiente como para atravesar la barrera, la mecánica
clásica afirma que nunca podrá aparecer en un estado perteneciente al otro lado de la barrera.
A escala cuántica, los objetos exhiben un comportamiento ondular; en la teoría cuántica, un cuanto
moviéndose en dirección a una "colina" potencialmente energética puede ser descrito por su
función de onda, que representa la amplitud probable que tiene la partícula de ser encontrada en la
posición allende la estructura de la curva. Si esta función describe la posición de la partícula
perteneciente al flanco adyacente al que supuso su punto de partida, existe cierta probabilidad de
que se haya desplazado "a través" de la estructura, en vez de superarla por la ruta convencional
que atraviesa la cima energética relativa. A esto se conoce como efecto túnel.
Espuma cuántica
Gravedad cuántica
Satélite Gravity Probe B. Dedicado a medir la curvatura del campo gravitatorio terrestre debido a la
teoría de la relatividad de Einstein.
La gravedad cuántica es el campo de la física teórica que procura unificar la teoría cuántica de
campos, que describe tres de las fuerzas fundamentales de la naturaleza, con la relatividad
general, la teoría de la cuarta fuerza fundamental: la gravedad. La meta es lograr establecer una
base matemática unificada que describa el comportamiento de todas las fuerzas de las
naturalezas, conocida como la Teoría del campo unificado.
Onda
Ondas superficiales en agua.
El principio de exclusión de Pauli es un principio cuántico enunciado por Wolfgang Ernst Pauli en
1925. Establece que no puede haber dos fermiones con todos sus números cuánticos idénticos
(esto es, en el mismo estado cuántico de partícula individual) en el mismo sistema cuántico
ligado.1 Formulado inicialmente como principio, posteriormente se comprobó que era derivable de
supuestos más generales: de hecho, es una consecuencia del teorema de la estadística del spin.1
principio de incertidumbre
La explicación "divulgativa" tradicional del principio de incertidumbre afirma que las variables
dinámicas como posición, momento angular, momento lineal, etc. se definen de manera
operacional, esto es, en términos relativos al procedimiento experimental por medio del cual son
medidas: la posición se definirá con respecto a un sistema de referencia determinado, definiendo el
instrumento de medida empleado y el modo en que tal instrumento se usa (por ejemplo, midiendo
con una regla la distancia que hay de tal punto a la referencias ).
Sin embargo, cuando se examinan los procedimientos experimentales por medio de los cuales
podrían medirse tales variables en microfísica, resulta que la medida siempre acabará perturbada
por el propio sistema de medición. En efecto, si por ejemplo pensamos en lo que sería la medida
de la posición y velocidad de un electrón, para realizar la medida (para poder "ver" de algún modo
el electrón) es necesario que un fotón de luz choque con el electrón, con lo cual está modificando
su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador
modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por
muy perfectos que sean nuestros instrumentos.
Esta descripción cualitativa del principio, sin ser totalmente incorrecta, es engañosa en tanto que
omite el principal aspecto del principio de incertidumbre: el principio de incertidumbre establece un
límite más allá del cuál los conceptos de la física clásica no se pueden emplear. La física clásica
concibe sistemas físicos descritos por medio de variables perfectamente definidas en el tiempo
(velocidad, posición,...) y que en principio pueden conocerse con la precisión que se desee.
Aunque en la práctica resultara imposible determinar la posición de una partícula con una precisión
infinitesimal, la física clásica concibe tal precisión como alcanzable: es posible y perfectamente
concebible afirmar que tal o cual partícula, en el instante de tiempo exacto 2 s, estaba en la
posición exacta 1,57 m. En cambio, el principio de incertidumbre, al afirmar que existe un límite
fundamental a la precisión de la medida, en realidad está indicando que si un sistema físico real se
describe en términos de la física clásica, entonces se está haciendo una aproximación, y la relación
de incertidumbre nos indica la calidad de esa aproximación.
Conceptos principales
Sello de correos soviético cuyo motivo es Albert Einstein con su famosa ecuación E=mc^2.
El efecto fotoeléctrico
A finales del siglo XIX una serie de experimentos pusieron de manifiesto que la superficie de un
metal emite electrones cuando incide sobre él luz de frecuencia suficientemente elevada
(generalmente luz ultravioleta). Este fenómeno se conoce como efecto fotoeléctrico.
Átomo
Introducción
El nombre «átomo» proviene del latín atomum, y este del griego ἄτομον 'sin porciones, indivisible';
también, se deriva de a- ('no') ytómo (divisible).1 El concepto de átomo como bloque básico e
indivisible que compone la materia del universo fue postulado por laescuela atomista en la Antigua
Grecia. Sin embargo, no fueron considerados seriamente por los científicos hasta el siglo XIX,
cuando fueron introcidos para explicar ciertas leyes químicas. Con el desarrollo de la física
nuclear en el siglo XX se comprobó que el átomo puede subdividirse en partículas más
pequeñas.2 3
Los átomos son objetos muy pequeños con masas igualmente minúsculas: su diámetro y masa son
del orden de la billonésima parte de un metro y cuatrillonésima parte de un gramo. Solo pueden ser
observados mediante instrumentos especiales tales como un microscopio de efecto túnel. Más de
un 99,94% de la masa del átomo está concentrada en su núcleo, en general repartida de manera
aproximadamente equitativa entre protones y neutrones. El núcleo de un átomo puede ser
inestable y sufrir unatransmutación mediante desintegración radioactiva. Los electrones en la nube
del átomo están repartidos en distintos niveles de energía u orbitales, y determinan las propiedades
químicas del mismo. Las transiciones entre los distintos niveles dan lugar a la emisión o absorción
de radiación electromagnética en forma de fotones, y son la base de la espectroscopia.
Estructura atómica[editar]
Partículas subatómicas
A pesar de que átomo significa ‘indivisible’, en realidad está formado por varias partículas
subatómicas. El átomo contiene protones,neutrones y electrones, con la excepción del hidrógeno-
1, que no contiene neutrones, y del catión hidrógeno o hidrón, que no contiene electrones. Los
protones y neutrones del átomo se denominan nucleones, por formar parte del núcleo atómico.
El electrón es la partícula más ligera de cuantas componen el átomo, con una masa de 9,11 ·
10−31 kg. Tiene una carga eléctrica negativa, cuya magnitud se define como la carga eléctrica
elemental, y se ignora si posee subestructura, por lo que se lo considera una partícula elemental.
Los protones tienen una masa de 1,67 · 10−27 kg, 1836 veces la del electrón, y una carga positiva
opuesta a la de este. Los neutrones tienen un masa de 1,69 · 10−27 kg, 1839 veces la del electrón, y
no poseen carga eléctrica. Las masas de ambos nucleones son ligeramente inferiores dentro del
núcleo, debido a la energía potencial del mismo; y sus tamaños son similares, con un radio del
orden de 8 · 10-16 m o 0,8 femtómetros (fm).4
El núcleo atómico
Los protones y neutrones de un átomo se encuentran ligados en el núcleo atómico, la parte central
del mismo. El volumen del núcleo es aproximadamente proporcional al número total de nucleones,
el número másico A,5 lo cual es mucho menor que el tamaño del átomo, cuyo radio es del orden de
105 fm o 1 ångström (Å). Los nucleones se mantienen unidos mediante la fuerza nuclear, que es
mucho más intensa que la fuerza electromagnética a distancias cortas, lo cual permite vencer la
repulsión eléctrica entre los protones.6
Los átomos de un mismo elemento tienen el mismo número de protones, que se denomina número
atómico y se representa por Z. Los átomos de un elemento dado pueden tener distinto número de
neutrones: se dice entonces que son isótopos. Ambos números conjuntamente determinan
el núclido.
El núcleo atómico puede verse alterado por procesos muy energéticos en comparación con
las reacciones químicas. Los núcleos inestables sufren desintegraciones que pueden cambiar su
número de protones y neutrones emitiendo radiación. Un núcleo pesado puede fisionarse en otros
más ligeros en una reacción nuclear o espontáneamente. Mediante una cantidad suficiente de
energía, dos o más núcleos pueden fusionarse en otro más pesado.
En átomos con número atómico bajo, los núcleos con una cantidad distinta de protones y
neutrones tienden a desintegrarse en núcleos con proporciones más parejas, más estables. Sin
embargo, para valores mayores del número atómico, la repulsión mutua de los protones requiere
una proporción mayor de neutrones para estabilizar el núcleo.7
Nube de electrones[editar]
Los electrones en el átomo son atraídos por los protones a través de la fuerza electromagnética.
Esta fuerza los atrapa en un pozo de potencial electrostático alrededor del núcleo, lo que hace
necesaria una fuente de energía externa para liberarlos. Cuanto más cerca está un electrón del
núcleo, mayor es la fuerza atractiva, y mayor por tanto la energía necesaria para que escape.
Cada orbital corresponde a un posible valor de energía para los electrones, que se reparten entre
ellos. El principio de exclusión de Pauli prohíbe que más de dos electrones se encuentren en el
mismo orbital. Pueden ocurrir transiciones entre los distintos niveles de energía: si un electrón
absorbe un fotón con energía suficiente, puede saltar a un nivel superior; también desde un nivel
más alto puede acabar en un nivel inferior, radiando el resto de la energía en un fotón. Las
energías dadas por las diferencias entre los valores de estos niveles son las que se observan en
las líneas espectrales del átomo.
Propiedades atómicas[editar]
Masa[editar]
La mayor parte de la masa del átomo viene de los nucleones, los protones y neutrones del núcleo.
También contribuyen en una pequeña parte la masa de los electrones, y la energía de ligadura de
los nucleones, en virtud de la equivalencia entre masa y energía. La unidad de masa que se utiliza
habitualmente para expresarla es la unidad de masa atómica (u). Esta se define como la doceava
parte de la masa de un átomo neutro de carbono-12 libre, cuyo núcleo contiene 6 protones y 6
neutrones, y equivale a 1,66 · 10-27 kg aproximadamente. En comparación el protón y el neutrón
libres tienen una masa de 1,007 y 1,009 u. La masa de un átomo es entonces aproximadamente
igual al número de nucleones en su núcleo —el número másico— multiplicado por la unidad de
masa atómica. El átomo estable más pesado es el plomo-208, con una masa de 207,98 u.8
En química se utiliza también el mol como unidad de masa. Un mol de átomos de cualquier
elemento equivale siempre al mismo número de estos (6,022 · 1023), lo cual implica que un mol de
átomos de un elemento con masa atómica de 1 u pesa aproximadamente 1 gramo. En general, un
mol de átomos de un cierto elemento pesa de forma aproximada tantos gramos como la masa
atómica de dicho elemento.
Tamaño[
Los átomos no están delimitados por una frontera clara, por lo que su tamaño se equipara con el
de su nube electrónica. Sin embargo, tampoco puede establecerse una medida de esta, debido a
las propiedades ondulatorias de los electrones. En la práctica, se define el radio
atómico estimándolo en función de algún fenómeno físico, como la cantidad y densidad de átomos
en un volumen dado, o la distancia entre dos núcleos en una molécula.
Los diversos métodos existentes arrojan valores para el radio atómico de entre 0,5 y 5 Å. Dentro de
la tabla periódica de los elementos, el tamaño de los átomos tiende a disminuir a lo largo de
un periodo —una fila—, para aumentar súbitamente al comienzo de uno nuevo, a medida que los
electrones ocupan niveles de energía más altos.9
Las dimensiones del átomo son miles de veces más pequeñas que la longitud de onda de
la luz (400-700 nm) por lo que estos no pueden ser observados utilizando instrumentos ópticos. En
comparación, el grosor de un cabello humano es equivalente a un millón de átomos de carbono. Si
una manzana fuera del tamaño de la Tierra, los átomos en ella serían tan grandes como la
manzana original.10
Niveles de Un electrón ligado en el átomo posee una energía potencial inversamente proporcional
a su distancia al núcleo y de signo negativo, lo que quiere decir que esta aumenta con la distancia.
La magnitud de esta energía es la cantidad necesaria para desligarlo, y la unidad usada
habitualmente para expresarla es el electrónvoltio (eV). En el modelo mecanocuántico solo hay un
conjunto discreto de estados o niveles en los que un electrón ligado puede encontrarse —es decir,
enumerables—, cada uno con un cierto valor de la energía. El nivel con el valor más bajo se
denomina el estado fundamental, mientras que el resto se denominan estados excitados.
Cuando un electrón efectúa una transición entre dos estados distintos, absorbe o emite un fotón,
cuya energía es precisamente la diferencia entre los dos niveles. La energía de un fotón es
proporcional a su frecuencia, así que cada transición se corresponde con una banda estrecha
del espectro electromagnético denominada línea espectral.
Cada elemento químico posee un espectro de líneas característico. Estas se detectan como líneas
de emisión en la radiación de los átomos del mismo. Por el contrario, si se hace pasar radiación
con un espectro de frecuencias continuo a través de estos, los fotones con la energía adecuada
son absorbidos. Cuando los electrones excitados decaen más tarde, emiten en direcciones
aleatorias, por lo que las frecuencias características se observan como líneas de absorción
oscuras. Las medidas espectroscópicas de la intensidad y anchura de estas líneas permite
determinar la composición de una sustancia.
Algunas líneas espectrales se presentan muy juntas entre sí, tanto que llegaron a confundirse con
una sola históricamente, hasta que fue descubierta su subestructura o estructura fina. La causa de
este fenómeno se encuentra en las diversas correcciones a considerar en la interacción entre los
electrones y el núcleo. Teniendo en cuenta tan solo la fuerza electrostática, ocurre que algunas de
las configuraciones electrónicas pueden tener la misma energía aun siendo distintas. El resto de
pequeños efectos y fuerzas en el sistema electrón-núcleo rompe esta redundancia o degeneración,
dando lugar a la estructura fina. Estos incluyen las correccionesrelativistas al movimiento de
electrón, la interacción de su momento magnético con el campo eléctrico y con el núcleo, etc.11
Además, en presencia de un campo externo los niveles de energía se ven modificados por la
interacción del electrón con este, en general produciendo o aumentando la división entre los
niveles de energía. Este fenómeno se conoce como efecto Stark en el caso de un campo eléctrico,
y efecto Zeeman en el caso de un campo magnético.
Las transiciones a un nivel inferior pueden ocurrir de manera espontánea, emitiendo la energía
mediante un fotón saliente; o de manera estimulada, de nuevo en presencia de radiación. En este
caso, un fotón «entrante» apropiado provoca que el electrón decaiga a un nivel con una diferencia
de energía igual a la del fotón entrante. De este modo, se emite un fotón saliente cuya onda
asociada está sincronizada con la del primero, y en la misma dirección. Este fenómeno es la base
del láser.
Este tipo de estructura del átomo llevó a Rutherford a proponer su modelo en que los electrones se
moverían alrededor del núcleo en órbitas. Este modelo tiene una dificultad proveniente del hecho
de que una partícula cargada acelerada, como sería necesario para mantenerse en órbita, radiaría
radiación electromagnética, perdiendo energía. Las leyes de Newton, junto con las ecuaciones de
Maxwell del electromagnetismo aplicadas al átomo de Rutherford llevan a que en un tiempo del
orden de 10−10 s, toda la energía del átomo se habría radiado, con la consiguiente caída de los
electrones sobre el núcleo.13
El concepto de átomo existe desde la Antigua Grecia propuesto por los filósofos
griegos Demócrito, Leucipo y Epicuro, sin embargo, no se generó el concepto por medio de la
experimentación sino como una necesidad filosófica que explicara la realidad, ya que, como
proponían estos pensadores, la materia no podía dividirse indefinidamente, por lo que debía existir
una unidad o bloque indivisible e indestructible que al combinarse de diferentes formas creara
todos los cuerpos macroscópicos que nos rodean.14 El siguiente avance significativo no se realizó
hasta que en 1773 el químico francés Antoine-Laurent de Lavoisier postuló su enunciado: «La
materia no se crea ni se destruye, simplemente se transforma». La ley de conservación de la masa
o ley de conservación de la materia; demostrado más tarde por los experimentos del químico
inglés John Dalton quien en 1804, luego de medir la masa de los reactivos y productos de una
reacción, y concluyó que las sustancias están compuestas de átomos esféricos idénticos para cada
elemento, pero diferentes de un elemento a otro.15
Luego en 1811, el físico italiano Amedeo Avogadro, postuló que a una temperatura, presión y
volumen dados, un gas contiene siempre el mismo número de partículas, sean átomos o
moléculas, independientemente de la naturaleza del gas, haciendo al mismo tiempo la hipótesis de
que los gases son moléculas poliatómicas con lo que se comenzó a distinguir entre átomos y
moléculas.16
El químico ruso Dmítri Ivánovich Mendeléyev creó en 1869 una clasificación de los elementos
químicos en orden creciente de su masa atómica, remarcando que existía una periodicidad en las
propiedades químicas. Este trabajo fue el precursor de la tabla periódica de los elementos como la
conocemos actualmente.17
La concepción del átomo que se ha tenido a lo largo de la historia ha variado de acuerdo a los
descubrimientos realizados en el campo de la física y la química. A continuación se hará una
exposición de los modelos atómicos propuestos por los científicos de diferentes épocas. Algunos
de ellos son completamente obsoletos para explicar los fenómenos observados actualmente, pero
se incluyen a manera de reseña histórica.
Modelo de Dalton[editar]
Fue el primer modelo atómico con bases científicas, fue formulado en 1803 por John Dalton, quien
imaginaba a los átomos como diminutas esferas.19 Este primer modelo atómico postulaba:
La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no
se pueden destruir.
Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades
propias. Los átomos de los diferentes elementos tienen pesos diferentes.
Los átomos permanecen sin división, aun cuando se combinen en las reacciones químicas.
Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más
de un compuesto.
Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.
Sin embargo desapareció ante el modelo de Thomson ya que no explica los rayos catódicos, la
radioactividad ni la presencia de los electrones (e-) o protones(p+).
Modelo de Thomson[editar]
Luego del descubrimiento del electrón en 1897 por Joseph John Thomson, se determinó que la
materia se componía de dos partes, una negativa y una positiva. La parte negativa estaba
constituida por electrones, los cuales se encontraban según este modelo inmersos en una masa de
carga positiva a manera de pasas en un pastel (de la analogía del inglés plum-pudding model) o
uvas en gelatina. Posteriormente Jean Perrin propuso un modelo modificado a partir del de
Thomson donde las «pasas» (electrones) se situaban en la parte exterior del «pastel» (la carga
positiva).
Para explicar la formación de iones, positivos y negativos, y la presencia de los electrones dentro
de la estructura atómica, Thomson ideó un átomo parecido a un pastel de frutas. Una nube positiva
que contenía las pequeñas partículas negativas (los electrones) suspendidos en ella. El número de
cargas negativas era el adecuado para neutralizar la carga positiva. En el caso de que el átomo
perdiera un electrón, la estructura quedaría positiva; y si ganaba, la carga final sería negativa. De
esta forma, explicaba la formación de iones; pero dejó sin explicación la existencia de las otras
radiaciones.
Modelo de Rutherford[editar]
Artículo principal: Modelo atómico de Rutherford
Este modelo fue desarrollado por el físico Ernest Rutherford a partir de los resultados obtenidos en
lo que hoy se conoce como el experimento de Rutherford en 1911. Representa un avance sobre el
modelo de Thomson, ya que mantiene que el átomo se compone de una parte positiva y una
negativa, sin embargo, a diferencia del anterior, postula que la parte positiva se concentra en un
núcleo, el cual también contiene virtualmente toda la masa del átomo, mientras que los electrones
se ubican en una corteza orbitando al núcleo en órbitas circulares o elípticas con un espacio vacío
entre ellos. A pesar de ser un modelo obsoleto, es la percepción más común del átomo del público
no científico.
Rutherford predijo la existencia del neutrón en el año 1920, por esa razón en el modelo anterior
(Thomson), no se habla de éste.
Contradecía las leyes del electromagnetismo de James Clerk Maxwell, las cuales estaban muy
comprobadas mediante datos experimentales. Según las leyes de Maxwell, una carga eléctrica en
movimiento (en este caso el electrón) debería emitir energía constantemente en forma
de radiación y llegaría un momento en que el electrón caería sobre el núcleo y la materia se
destruiría. Todo ocurriría muy brevemente.
Modelo de Bohr[editar]
Modelo atómico de Bohr.
Este modelo es estrictamente un modelo del átomo de hidrógeno tomando como punto de partida
el modelo de Rutherford, Niels Bohr trata de incorporar los fenómenos de absorción y emisión de
los gases, así como la nueva teoría de la cuantización de la energía desarrollada por Max Planck y
el fenómeno del efecto fotoeléctrico observado por Albert Einstein.
«El átomo es un pequeño sistema solar con un núcleo en el centro y electrones moviéndose
alrededor del núcleo en órbitas bien definidas». Las órbitas están cuantizadas (los e- pueden estar
solo en ciertas órbitas)
Cada órbita tiene una energía asociada. La más externa es la de mayor energía.
Los electrones pueden saltar de una a otra órbita. Si lo hace desde una de menor energía a una de
mayor energía absorbe un cuanto de energía (una cantidad) igual a la diferencia de energía
asociada a cada órbita. Si pasa de una de mayor a una de menor, pierde energía en forma de
radiación (luz).
El mayor éxito de Bohr fue dar la explicación al espectro de emisión del hidrógeno. Pero solo la luz
de este elemento. Proporciona una base para el carácter cuántico de la luz, el fotón es emitido
cuando un electrón cae de una órbita a otra, siendo un pulso de energía radiada.
Bohr encontró que el momento angular del electrón es h/2π por un método que no puede justificar.
Barión
Los bariones (del griego βαρύς, barys, “pesado”) son una familia de partículas
subatómicasformadas por tres quarks. Los más representativos, por formar el núcleo del átomo,
son elneutrón y el protón; pero también existe otro gran número de bariones, aunque éstos son
todos inestables. El nombre de barión se debe a que se creyó, cuando fue descubierto, que poseía
una masa mayor que otras partículas.
Los bariones son fermiones afectados por la interacción nuclear fuerte, por lo que están sometidos
al principio de exclusión de Pauli y pueden ser descritos mediante la estadística de Fermi-Dirac. Al
contrario que los bosones, que no satisfacen el principio de exclusión.
Los bariones pertenecen, junto con los mesones, a la familia de partículas llamadashadrones, es decir,
aquellas compuestas por quarks. Se diferencian de los mesones por estar compuestos por tres quarks,
mientras que los últimos están compuestos por un quark y un antiquark.
Tipos
Junto al protón y al neutrón, dentro de la familia de los bariones se encuentran también las partículas
delta (Δ), lambda (Λ), sigma (Σ), xi (Ξ) y omega (Ω).
Los bariones delta (Δ++, Δ+, Δ0, Δ-) están compuestos por quarks arriba y abajo, de tal manera que
el spin total es 3/2. Se desintegran en un pion y en un protón o un neutrón.
Los bariones lambda (Λ0) están compuestos por un quark arriba, uno abajo y un quark extraño,
con los quarks arriba y abajo en un estado de spin isotópico 0 (sabor antisimétrico). La observación
del lambda neutro supuso la primera evidencia del quark extraño. El barión lambda casi siempre se
desintegra en un protón y un pion con carga, o en un neutrón y un pion neutro.
Los bariones sigma (Σ+, Σ0, Σ-) están compuestos también por un quark extraño y la combinación
de un quark arriba y otro abajo, pero en un estado de spin isotópico 1. El Σ 0 posee la misma
estructura de quarks que el Λ0 (arriba, abajo y extraño), por lo que su desintegración es mucho más
rápida que el Σ+ (arriba, arriba, extraño) y el Σ- (abajo, abajo, extraño).
Los bariones xi (Ξ0, Ξ-) están compuestos de dos quarks extraños y un quark arriba o abajo. Se
desintegran generalmente en un pion y un barión lambda, que a su vez se desintegra como tal.
Debido a esta secuencia en cascada de desintegraciones, a Ξ se le llama también partícula en
cascada (cascade particle).
El barión omega negativo (Ω-) está compuesto de tres quarks extraños. Su descubrimiento supuso
un gran avance en el estudio de los procesos de los quarks, ya que sólo desde entonces se pudo
predecir su masa y su desintegración.
Los bariones compuestos por quarks pesados se cifran añadiendo un subíndice, el cual indica que
un quark extraño puede ser sustituido por otro más pesado (Ej.: Λ +c está compuesto por quark
encantado, arriba y abajo; en vez de arriba, abajo y extraño).
Materia bariónica[editar]
La materia bariónica es aquella en cuya masa predominan los bariones, la cual puede estar
formada por átomos de todo tipo, y por tanto, ser casi cualquier tipo de materia. Su contrario es la
materia no bariónica, que puede estar formada por neutrinos oelectrones libres, o incluso por
especies extrañas de materia oscura no bariónica, tales como partículas
supersimétricas, axiones oagujeros negros.
La distinción entre materia bariónica y no bariónica resulta de especial importancia en cosmología,
ya que la cantidad de materia bariónica presente en el universo primitivo determina en gran medida
los modelos de nucleosíntesis producidos en el Big Bang.
La mera existencia de bariones resulta ya un hecho cosmológico significativo, puesto que se
presupone que el Big Bang produjo una cantidad igual de bariones y de antibariones. El proceso
mediante el cual el número de bariones supera al de sus antipartículas es
llamado bariogénesis (análogamente al proceso de leptogénesis, mediante el cual la cantidad de
materia formada por leptonessupera a su antimateria).