Está en la página 1de 19

Mecánica cuántica

Imagen ilustrativa de la dualidad onda-partícula, en el que se aprecia cómo un mismo fenómeno


puede ser percibido de dos modos distintos.

La mecánica cuántica1 2 (también conocida como la física cuántica o la teoría cuántica) es una
rama de la física que se ocupa de los fenómenos físicos a escalas microscópicas, donde la acción
es del orden de la constante de Planck. Su aplicación ha hecho posible el descubrimiento y
desarrollo de muchas tecnologías, como por ejemplo los transistores, componentes ampliamente
utilizados en casi todos los aparatos que tengan alguna parte funcional electrónica.

La mecánica cuántica describe, en su visión más ortodoxa, cómo en cualquier sistema físico –y por
tanto, en todo el universo– existe una diversa multiplicidad de estados, los cuales habiendo sido
descritos mediante ecuaciones matemáticas por los físicos, son denominados estados cuánticos.
De esta forma la mecánica cuántica puede explicar la existencia del átomo y revelar los misterios
de la estructura atómica, tal como hoy son entendidos; fenómenos que no puede explicar
debidamente la física clásica o más propiamente la mecánica clásica.

De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no
incorpora la relatividad en su formalismo, tan sólo como añadido mediante la teoría de
perturbaciones.3 La parte de la mecánica cuántica que sí incorpora elementos relativistas de
manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más
exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica,
cromodinámica cuántica y teoría electrodébil dentro del modelo estándar)4 y más generalmente, la
teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido
cuantificar ha sido la interacción gravitatoria.

La mecánica cuántica es el fundamento de los estudios del átomo, su núcleo y las partículas
elementales (siendo necesario el enfoque relativista). También en teoría de la información,
criptografía y química.

Las técnicas derivadas de la aplicación de la mecánica cuántica suponen, en mayor o menor


medida, el 30 por ciento del PIB de los Estados Unidos.5

Contexto histórico

La mecánica cuántica es, cronológicamente, la última de las grandes ramas de la física. Comienza
a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar ciertos
fenómenos, la ley de gravitación universal y la teoría electromagnética clásica, se volvían
insuficientes para esclarecerlos. La teoría electromagnética generaba un problema cuando
intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación
térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen.
Usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica
tendía al infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para
los físicos.

Es en el seno de la mecánica estadística donde surgen las ideas cuánticas en 1900. Al físico
alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la
integral de esas frecuencias por una suma no continua, se dejaba de obtener infinito como
resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo
que después era medido.
Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía mediante
una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo
XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo
Planck el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de
Ciencias de Berlín.6

La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la
hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas
de energía independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en
1905 las correspondientes leyes de movimiento en su teoría especial de la relatividad,
demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así
lo que se ha dado en llamar física clásica, es decir, la física no-cuántica.

Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto
fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921.
Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la
que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura
de la unidad de masa de un cuerpo.

El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada
partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, y
dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de
movimiento para las «ondas de materia», cuya existencia había propuesto De Broglie y varios
experimentos sugerían que eran reales.

La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como
esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez
aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones
experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.

Desarrollo histórico principal: Historia de la mecánica cuántica

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX.
El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos
experimentales como los siguientes, inexplicables con las herramientas teóricas anteriores de la
mecánica clásica o la electrodinámica:

Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía
definidos y discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de
momento angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura
corresponden a densidades elevadas de probabilidad de encontrar el electrón en dicha posición.

Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la
energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que
continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los
valores discretos son llamados quanta (singular: quantum, de la palabra latina para «cantidad», de
ahí el nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado constante de
Planck, y que vale: 6.626 ×10-34 julios por segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los
electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras
condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula,
(«partícula» quiere decir un objeto que puede ser localizado en una región concreta del espacio),
como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.

Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas, en una
amplitud prohibida para cualquier teoría clásica, sólo pueden ser descritos con precisión si se hace
referencia a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad
de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la
desigualdad de Bell fueron algunas de las mayores comprobaciones de la mecánica cuántica.

Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa
"misteriosa" necesidad de cuantizar la energía.

Efecto Compton.

El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y matemáticos
de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la
lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados
activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos
campos de la física y la química, incluyendo la física de la materia condensada, la química cuántica
y la física de partículas.

La región de origen de la mecánica cuántica puede localizarse en la Europa central, en Alemania y


Austria, y en el contexto histórico del primer tercio del siglo XX.

Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía
definidos y discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de
momento angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura
corresponden a densidades elevadas de probabilidad de encontrar el electrón en dicha posición.
Suposiciones más importantes[editar · editar código]

Artículo principal: Interpretaciones de la Mecánica cuántica

Las suposiciones más importantes de esta teoría son las siguientes:

Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de
trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula 'puede ser
explicado por una función matemática que asigna, a cada punto del espacio y a cada instante, la
probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la
interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de
Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las
magnitudes del movimiento necesarias.

Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del sistema o
función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin embargo, si se realiza
una medida sobre el sistema, éste sufre un «salto cuántico» hacia un estado compatible con los
valores de la medida obtenida (formalmente el nuevo estado será una proyección ortogonal del
estado original).

Existen diferencias perceptibles entre los estados ligados y los que no lo están.

La energía no se intercambia de forma continua en un estado ligado, sino en forma discreta lo cual
implica la existencia de paquetes mínimos de energía llamados cuantos, mientras en los estados
no ligados la energía se comporta como un continuo.

Descripción de la teoría bajo la interpretación de Copenhague[editar · editar código]

Artículo principal: Interpretación de Copenhague

Para describir la teoría de forma general es necesario un tratamiento matemático riguroso, pero
aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la
Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado
instantáneo de un sistema (estado cuántico) con una función de onda que codifica la distribución
de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles
sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica
cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus
distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la
interferencia de las funciones de onda.

Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución es
determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución es
estocástica y se produce mediante colapso de la función de onda cuando se realiza una medida
sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin interferencia
en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas
centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede
trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro
lugar. La evolución temporal determinista de las funciones de onda es descrita por la Ecuación de
Schrödinger.
Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que son
constantes en el tiempo, estos estados se llaman estacionarios, son estados propios del operador
hamiltoniano y tienen energía bien definida. Muchos sistemas que eran tratados dinámicamente en
mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un
electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo,
mientras que en mecánica cuántica es descrito por una nube de probabilidad estática que rodea al
núcleo.

Cuando se realiza una medición en un observable del sistema, la función de ondas se convierte en
una del conjunto de las funciones llamadas funciones propias o estados propios del observable en
cuestión. Este proceso es conocido como colapso de la función de onda. Las probabilidades
relativas de ese colapso sobre alguno de los estados propios posibles son descritas por la función
de onda instantánea justo antes de la reducción. Considerando el ejemplo anterior sobre la
partícula en el vacío, si se mide la posición de la misma, se obtendrá un valor impredecible x. En
general, es imposible predecir con precisión qué valor de x se obtendrá, aunque es probable que
se obtenga uno cercano al centro del paquete de ondas, donde la amplitud de la función de onda
es grande. Después de que se ha hecho la medida, la función de onda de la partícula colapsa y se
reduce a una que esté muy concentrada en torno a la posición observada x.

La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función de


onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué función
tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual colapsa la
función es probabilista y en este aspecto es no determinista. Así que la naturaleza probabilista de
la mecánica cuántica nace del acto de la medida.

Formulación matemática[editar · editar código]

Artículos principales: Postulados de la mecánica cuántica y Notación braket.

En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados
posibles de un sistema cuántico están representados por vectores unitarios (llamados estados) que
pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados). Qué tipo
de espacio de Hilbert es necesario en cada caso depende del sistema; por ejemplo, el espacio de
estados para los estados de posición y momento es el espacio de funciones de cuadrado
integrable \scriptstyle L^2(\R^3), mientras que la descripción de un sistema sin traslación pero con
un espín \scriptstyle n\hbar es el espacio \scriptstyle \mathbb{C}^{2n+1}. La evolución temporal de
un estado cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el
operador correspondiente a la energía total del sistema, tiene un papel central.

Cada magnitud observable queda representada por un operador lineal hermítico definido sobre un
dominio denso del espacio de estados. Cada estado propio de un observable corresponde a un
eigenvector del operador, y el valor propio o eigenvalor asociado corresponde al valor del
observable en aquel estado propio. El espectro de un operador puede ser continuo o discreto. La
medida de un observable representado por un operador con espectro discreto sólo puede tomar un
conjunto numerable de posibles valores, mientras que los operadores con espectro continuo
presentan medidas posibles en intervalos reales completos. Durante una medida, la probabilidad
de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor
absoluto del producto interior entre el estado propio o auto-estado (que podemos conocer
teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así
encontrar la distribución de probabilidad de un observable en un estado dado computando la
descomposición espectral del operador correspondiente. El principio de incertidumbre de
Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos
observables no conmutan.

Relatividad y la mecánica cuántica

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad


general y la mecánica cuántica, aunque ambas teorías usan principios aparentemente
incompatibles. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del
quántum están apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se
resisten a ser incorporadas dentro de un mismo modelo coherente.

El mismo Einstein es conocido por haber rechazado algunas de las demandas de la mecánica
cuántica. Einstein rechazó la interpretación ortodoxa de la mecánica cuántica tales como la falta de
determinismo, o la aserción de que una sola partícula subatómica no tiene una posición bien
definida. Einstein tampoco aceptó las consecuencias de entrelazamiento cuántico aún más
exóticas de la paradoja de Einstein-Podolsky-Rosen (EPR), la cual demuestra que medir el estado
de una partícula puede instantáneamente cambiar el estado de su socio enlazado, aunque las dos
partículas pueden estar a una distancia arbitrariamente grande. Sin embargo, este efecto no viola
la causalidad, puesto que no hay transferencia posible de información. De hecho, existen teorías
cuánticas que incorporan a la relatividad especial —por ejemplo, la electrodinámica cuántica, la
cual es actualmente la teoría física más comprobada— y éstas se encuentran en el mismo corazón
de la física moderna de partículas.

Computación cuántica

La esfera de Bloch es una representación de un qubit, el bloque de construcción fundamental de


los computadores cuánticos.

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se


basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles
nuevos algoritmos.

Una misma tarea puede tener diferente complejidad en computación clásica y en computación
cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables
pasan a ser tratables. Mientras que un computador clásico equivale a una máquina de Turing,1 un
computador cuántico equivale a una máquina de Turing cuántica

Efecto túnel

Para el efecto que produce el aumento de la velocidad en el campo visual del conductor, véase
Distorsión.

Reflexión y "tunelado" de un electrón dirigido hacia una barrera de potencial. El punto


resplandeciente moviéndose de derecha a izquierda es la sección reflejada del paquete de onda.
Un vislumbre puede observarse a la derecha de la barrera. Esta pequeña fracción del paquete de
onda atraviesa el túnel de una forma imposible para los sistemas clásicos. También es notable la
interferencia de los contornos entre las ondas de emisión y de reflexión.

En mecánica cuántica, el efecto túnel es un fenómeno nanoscópico por el que una partícula viola
los principios de la mecánica clásica penetrando una barrera de potencial o impedancia mayor que
la energía cinética de la propia partícula. Una barrera, en términos cuánticos aplicados al efecto
túnel, se trata de una cualidad del estado energético de la materia análogo a una "colina" o
pendiente clásica, compuesta por crestas y flancos alternos, que sugiere que el camino más corto
de un móvil entre dos o más flancos debe atravesar su correspondiente cresta intermedia. Si el
objeto no dispone de energía mecánica suficiente como para atravesar la barrera, la mecánica
clásica afirma que nunca podrá aparecer en un estado perteneciente al otro lado de la barrera.

A escala cuántica, los objetos exhiben un comportamiento ondular; en la teoría cuántica, un cuanto
moviéndose en dirección a una "colina" potencialmente energética puede ser descrito por su
función de onda, que representa la amplitud probable que tiene la partícula de ser encontrada en la
posición allende la estructura de la curva. Si esta función describe la posición de la partícula
perteneciente al flanco adyacente al que supuso su punto de partida, existe cierta probabilidad de
que se haya desplazado "a través" de la estructura, en vez de superarla por la ruta convencional
que atraviesa la cima energética relativa. A esto se conoce como efecto túnel.

Reflexión y "tunelado" de un electrón dirigido hacia una barrera de potencial. El punto


resplandeciente moviéndose de derecha a izquierda es la sección reflejada del paquete de onda.
Un vislumbre puede observarse a la derecha de la barrera. Esta pequeña fracción del paquete de
onda atraviesa el túnel de una forma imposible para los sistemas clásicos. También es notable la
interferencia de los contornos entre las ondas de emisión y de reflexión.

Espuma cuántica

La espuma cuántica, también referida como espuma espaciotemporal, es un concepto relacionado


con la mecánica cuántica, concebido por John Wheeler en 1955. La espuma sería supuestamente
la fundación del tejido del universo,1 pero también se utiliza el término como una descripción
cualitativa de las turbulencias del espacio-tiempo subatómico, que tienen lugar a distancias
extremadamente pequeñas, del orden de la longitud de Planck. En esta escala de tiempo y
espacio, el principio de incertidumbre permite que las partículas y la energía existan brevemente,
para aniquilarse posteriormente, sin violar las leyes de conservación de masa y energía. Puesto
que la escala de espacio y tiempo se ve reducida, la energía de las partículas virtuales se ve
incrementada, y puesto que la energía curva el espacio-tiempo, de acuerdo a la teoría de la
relatividad general de Einstein, esto sugiere que a escalas suficientemente pequeñas, la energía de
las fluctuaciones sería suficientemente elevada para causar salidas significativas de dicha energía
desde el espacio-tiempo liso visto desde una escala mayor, lo que le daría al entramado
espaciotemporal un carácter "espumoso". Sin embargo, sin una teoría completa de la gravedad
cuántica, es imposible saber cómo se apreciaría el espacio-tiempo a estas escalas, ya que se
piensa que las teorías existentes no podrían hacer predicciones muy precisas en este contexto.

Gravedad cuántica

Satélite Gravity Probe B. Dedicado a medir la curvatura del campo gravitatorio terrestre debido a la
teoría de la relatividad de Einstein.

La gravedad cuántica es el campo de la física teórica que procura unificar la teoría cuántica de
campos, que describe tres de las fuerzas fundamentales de la naturaleza, con la relatividad
general, la teoría de la cuarta fuerza fundamental: la gravedad. La meta es lograr establecer una
base matemática unificada que describa el comportamiento de todas las fuerzas de las
naturalezas, conocida como la Teoría del campo unificado.

Onda
Ondas superficiales en agua.

En física, una onda consiste en la propagación de una perturbación de alguna propiedad de un


medio, por ejemplo, densidad, presión, campo eléctrico o campo magnético, a través de dicho
medio, implicando un transporte de energía sin transporte de materia.

Principio de exclusión de Pauli

El principio de exclusión de Pauli es un principio cuántico enunciado por Wolfgang Ernst Pauli en
1925. Establece que no puede haber dos fermiones con todos sus números cuánticos idénticos
(esto es, en el mismo estado cuántico de partícula individual) en el mismo sistema cuántico
ligado.1 Formulado inicialmente como principio, posteriormente se comprobó que era derivable de
supuestos más generales: de hecho, es una consecuencia del teorema de la estadística del spin.1

principio de incertidumbre

La explicación "divulgativa" tradicional del principio de incertidumbre afirma que las variables
dinámicas como posición, momento angular, momento lineal, etc. se definen de manera
operacional, esto es, en términos relativos al procedimiento experimental por medio del cual son
medidas: la posición se definirá con respecto a un sistema de referencia determinado, definiendo el
instrumento de medida empleado y el modo en que tal instrumento se usa (por ejemplo, midiendo
con una regla la distancia que hay de tal punto a la referencias ).

Sin embargo, cuando se examinan los procedimientos experimentales por medio de los cuales
podrían medirse tales variables en microfísica, resulta que la medida siempre acabará perturbada
por el propio sistema de medición. En efecto, si por ejemplo pensamos en lo que sería la medida
de la posición y velocidad de un electrón, para realizar la medida (para poder "ver" de algún modo
el electrón) es necesario que un fotón de luz choque con el electrón, con lo cual está modificando
su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador
modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por
muy perfectos que sean nuestros instrumentos.

Esta descripción cualitativa del principio, sin ser totalmente incorrecta, es engañosa en tanto que
omite el principal aspecto del principio de incertidumbre: el principio de incertidumbre establece un
límite más allá del cuál los conceptos de la física clásica no se pueden emplear. La física clásica
concibe sistemas físicos descritos por medio de variables perfectamente definidas en el tiempo
(velocidad, posición,...) y que en principio pueden conocerse con la precisión que se desee.
Aunque en la práctica resultara imposible determinar la posición de una partícula con una precisión
infinitesimal, la física clásica concibe tal precisión como alcanzable: es posible y perfectamente
concebible afirmar que tal o cual partícula, en el instante de tiempo exacto 2 s, estaba en la
posición exacta 1,57 m. En cambio, el principio de incertidumbre, al afirmar que existe un límite
fundamental a la precisión de la medida, en realidad está indicando que si un sistema físico real se
describe en términos de la física clásica, entonces se está haciendo una aproximación, y la relación
de incertidumbre nos indica la calidad de esa aproximación.

Conceptos principales

Sello de correos soviético cuyo motivo es Albert Einstein con su famosa ecuación E=mc^2.

El presupuesto básico de la teoría de la relatividad es que la localización de los sucesos físicos,


tanto en el tiempo como en el espacio, son relativos al estado de movimiento del observador: así,
la longitud de un objeto en movimiento o el instante en que algo sucede, a diferencia de lo que
sucede en mecánica newtoniana, no son invariantes absolutos, y diferentes observadores en
movimiento relativo entre sí diferirán respecto a ellos (las longitudes y los intervalos temporales, en
relatividad son relativos y no absolutos)

El efecto fotoeléctrico

A finales del siglo XIX una serie de experimentos pusieron de manifiesto que la superficie de un
metal emite electrones cuando incide sobre él luz de frecuencia suficientemente elevada
(generalmente luz ultravioleta). Este fenómeno se conoce como efecto fotoeléctrico.

Átomo

Representación de un átomo de helio.


El átomo es un constituyente de la materia ordinaria, con propiedades químicas bien definidas,
formado a su vez por constituyentes más elementales sin propiedades químicas bien definidas.
Cada elemento químico está formado por átomos del mismo tipo (con la misma estructura
electrónica básica), y que no es posible dividir medianteprocesos químicos.
Actualmente se conoce que el átomo está compuesto por un núcleo atómico, en el que se
concentra casi toda su masa, rodeado de una nube de electrones. Esto fue descubierto a principios
del siglo XX, ya que durante el siglo XIX se había pensado que los átomos eran indivisibles, de ahí
su nombre a-tómo- 'sin división'. Poco después se descubrió que también el núcleo está formado
por partes, como los protones, con carga positiva, y neutrones, eléctricamente neutros.nota
1
Los electrones, cargados negativamente, permanecen ligados a este mediante la fuerza
electromagnética.
Los átomos se clasifican de acuerdo al número de protones y neutrones que contenga su núcleo.
El número de protones o número atómico determina su elemento químico, y el número de
neutrones determina su isótopo. Un átomo con el mismo número de protones que de electrones es
eléctricamente neutro. Si por el contrario posee un exceso de protones o de electrones, su carga
neta es positiva o negativa, y se denomina ion.

Introducción

El nombre «átomo» proviene del latín atomum, y este del griego ἄτομον 'sin porciones, indivisible';
también, se deriva de a- ('no') ytómo (divisible).1 El concepto de átomo como bloque básico e
indivisible que compone la materia del universo fue postulado por laescuela atomista en la Antigua
Grecia. Sin embargo, no fueron considerados seriamente por los científicos hasta el siglo XIX,
cuando fueron introcidos para explicar ciertas leyes químicas. Con el desarrollo de la física
nuclear en el siglo XX se comprobó que el átomo puede subdividirse en partículas más
pequeñas.2 3
Los átomos son objetos muy pequeños con masas igualmente minúsculas: su diámetro y masa son
del orden de la billonésima parte de un metro y cuatrillonésima parte de un gramo. Solo pueden ser
observados mediante instrumentos especiales tales como un microscopio de efecto túnel. Más de
un 99,94% de la masa del átomo está concentrada en su núcleo, en general repartida de manera
aproximadamente equitativa entre protones y neutrones. El núcleo de un átomo puede ser
inestable y sufrir unatransmutación mediante desintegración radioactiva. Los electrones en la nube
del átomo están repartidos en distintos niveles de energía u orbitales, y determinan las propiedades
químicas del mismo. Las transiciones entre los distintos niveles dan lugar a la emisión o absorción
de radiación electromagnética en forma de fotones, y son la base de la espectroscopia.

Estructura atómica[editar]

Partículas subatómicas

A pesar de que átomo significa ‘indivisible’, en realidad está formado por varias partículas
subatómicas. El átomo contiene protones,neutrones y electrones, con la excepción del hidrógeno-
1, que no contiene neutrones, y del catión hidrógeno o hidrón, que no contiene electrones. Los
protones y neutrones del átomo se denominan nucleones, por formar parte del núcleo atómico.

El electrón es la partícula más ligera de cuantas componen el átomo, con una masa de 9,11 ·
10−31 kg. Tiene una carga eléctrica negativa, cuya magnitud se define como la carga eléctrica
elemental, y se ignora si posee subestructura, por lo que se lo considera una partícula elemental.
Los protones tienen una masa de 1,67 · 10−27 kg, 1836 veces la del electrón, y una carga positiva
opuesta a la de este. Los neutrones tienen un masa de 1,69 · 10−27 kg, 1839 veces la del electrón, y
no poseen carga eléctrica. Las masas de ambos nucleones son ligeramente inferiores dentro del
núcleo, debido a la energía potencial del mismo; y sus tamaños son similares, con un radio del
orden de 8 · 10-16 m o 0,8 femtómetros (fm).4

El protón y el neutrón no son partículas elementales, sino que constituyen un estado


ligado de quarks u y d, partículas fundamentales recogidas en el modelo estándar de la física de
partículas, con cargas eléctricas iguales a +2/3 y −1/3 respectivamente, respecto de la carga
elemental. Un protón contiene dos quarks u y un quark d, mientras que el neutrón contiene dos d y
un u, en consonancia con la carga de ambos. Los quarks se mantienen unidos mediante la fuerza
nuclear fuerte, mediada por gluones —del mismo modo que la fuerza electromagnética está
mediada por fotones—. Además de estas, existen otras partículas subatómicas en el modelo
estándar: más tipos de quarks, leptones cargados (similares al electrón), etc.

El núcleo atómico

Los protones y neutrones de un átomo se encuentran ligados en el núcleo atómico, la parte central
del mismo. El volumen del núcleo es aproximadamente proporcional al número total de nucleones,
el número másico A,5 lo cual es mucho menor que el tamaño del átomo, cuyo radio es del orden de
105 fm o 1 ångström (Å). Los nucleones se mantienen unidos mediante la fuerza nuclear, que es
mucho más intensa que la fuerza electromagnética a distancias cortas, lo cual permite vencer la
repulsión eléctrica entre los protones.6

Los átomos de un mismo elemento tienen el mismo número de protones, que se denomina número
atómico y se representa por Z. Los átomos de un elemento dado pueden tener distinto número de
neutrones: se dice entonces que son isótopos. Ambos números conjuntamente determinan
el núclido.

El núcleo atómico puede verse alterado por procesos muy energéticos en comparación con
las reacciones químicas. Los núcleos inestables sufren desintegraciones que pueden cambiar su
número de protones y neutrones emitiendo radiación. Un núcleo pesado puede fisionarse en otros
más ligeros en una reacción nuclear o espontáneamente. Mediante una cantidad suficiente de
energía, dos o más núcleos pueden fusionarse en otro más pesado.
En átomos con número atómico bajo, los núcleos con una cantidad distinta de protones y
neutrones tienden a desintegrarse en núcleos con proporciones más parejas, más estables. Sin
embargo, para valores mayores del número atómico, la repulsión mutua de los protones requiere
una proporción mayor de neutrones para estabilizar el núcleo.7

Nube de electrones[editar]

Artículo principal: Nube de electrones

Los cinco primeros orbitales atómicos.

Los electrones en el átomo son atraídos por los protones a través de la fuerza electromagnética.
Esta fuerza los atrapa en un pozo de potencial electrostático alrededor del núcleo, lo que hace
necesaria una fuente de energía externa para liberarlos. Cuanto más cerca está un electrón del
núcleo, mayor es la fuerza atractiva, y mayor por tanto la energía necesaria para que escape.

Los electrones, como otras partículas, presentan simultáneamente propiedades de partícula


puntual y de onda, y tienden a formar un cierto tipo deonda estacionaria alrededor del núcleo, en
reposo respecto de este. Cada una de estas ondas está caracterizada por un orbital atómico, una
función matemática que describe la probabilidad de encontrar al electrón en cada punto del
espacio. El conjunto de estos orbitales es discreto, es decir, puede enumerarse, como es propio en
todo sistema cuántico. La nube de electrones es la región ocupada por estas ondas, visualizada
como una densidad de carga negativa alrededor del núcleo.

Cada orbital corresponde a un posible valor de energía para los electrones, que se reparten entre
ellos. El principio de exclusión de Pauli prohíbe que más de dos electrones se encuentren en el
mismo orbital. Pueden ocurrir transiciones entre los distintos niveles de energía: si un electrón
absorbe un fotón con energía suficiente, puede saltar a un nivel superior; también desde un nivel
más alto puede acabar en un nivel inferior, radiando el resto de la energía en un fotón. Las
energías dadas por las diferencias entre los valores de estos niveles son las que se observan en
las líneas espectrales del átomo.

Propiedades atómicas[editar]

Masa[editar]

La mayor parte de la masa del átomo viene de los nucleones, los protones y neutrones del núcleo.
También contribuyen en una pequeña parte la masa de los electrones, y la energía de ligadura de
los nucleones, en virtud de la equivalencia entre masa y energía. La unidad de masa que se utiliza
habitualmente para expresarla es la unidad de masa atómica (u). Esta se define como la doceava
parte de la masa de un átomo neutro de carbono-12 libre, cuyo núcleo contiene 6 protones y 6
neutrones, y equivale a 1,66 · 10-27 kg aproximadamente. En comparación el protón y el neutrón
libres tienen una masa de 1,007 y 1,009 u. La masa de un átomo es entonces aproximadamente
igual al número de nucleones en su núcleo —el número másico— multiplicado por la unidad de
masa atómica. El átomo estable más pesado es el plomo-208, con una masa de 207,98 u.8

En química se utiliza también el mol como unidad de masa. Un mol de átomos de cualquier
elemento equivale siempre al mismo número de estos (6,022 · 1023), lo cual implica que un mol de
átomos de un elemento con masa atómica de 1 u pesa aproximadamente 1 gramo. En general, un
mol de átomos de un cierto elemento pesa de forma aproximada tantos gramos como la masa
atómica de dicho elemento.

Tamaño[

Los átomos no están delimitados por una frontera clara, por lo que su tamaño se equipara con el
de su nube electrónica. Sin embargo, tampoco puede establecerse una medida de esta, debido a
las propiedades ondulatorias de los electrones. En la práctica, se define el radio
atómico estimándolo en función de algún fenómeno físico, como la cantidad y densidad de átomos
en un volumen dado, o la distancia entre dos núcleos en una molécula.

Los diversos métodos existentes arrojan valores para el radio atómico de entre 0,5 y 5 Å. Dentro de
la tabla periódica de los elementos, el tamaño de los átomos tiende a disminuir a lo largo de
un periodo —una fila—, para aumentar súbitamente al comienzo de uno nuevo, a medida que los
electrones ocupan niveles de energía más altos.9

Las dimensiones del átomo son miles de veces más pequeñas que la longitud de onda de
la luz (400-700 nm) por lo que estos no pueden ser observados utilizando instrumentos ópticos. En
comparación, el grosor de un cabello humano es equivalente a un millón de átomos de carbono. Si
una manzana fuera del tamaño de la Tierra, los átomos en ella serían tan grandes como la
manzana original.10

Niveles de Un electrón ligado en el átomo posee una energía potencial inversamente proporcional
a su distancia al núcleo y de signo negativo, lo que quiere decir que esta aumenta con la distancia.
La magnitud de esta energía es la cantidad necesaria para desligarlo, y la unidad usada
habitualmente para expresarla es el electrónvoltio (eV). En el modelo mecanocuántico solo hay un
conjunto discreto de estados o niveles en los que un electrón ligado puede encontrarse —es decir,
enumerables—, cada uno con un cierto valor de la energía. El nivel con el valor más bajo se
denomina el estado fundamental, mientras que el resto se denominan estados excitados.

Cuando un electrón efectúa una transición entre dos estados distintos, absorbe o emite un fotón,
cuya energía es precisamente la diferencia entre los dos niveles. La energía de un fotón es
proporcional a su frecuencia, así que cada transición se corresponde con una banda estrecha
del espectro electromagnético denominada línea espectral.

Un ejemplo de líneas de absorción en un espectro

Cada elemento químico posee un espectro de líneas característico. Estas se detectan como líneas
de emisión en la radiación de los átomos del mismo. Por el contrario, si se hace pasar radiación
con un espectro de frecuencias continuo a través de estos, los fotones con la energía adecuada
son absorbidos. Cuando los electrones excitados decaen más tarde, emiten en direcciones
aleatorias, por lo que las frecuencias características se observan como líneas de absorción
oscuras. Las medidas espectroscópicas de la intensidad y anchura de estas líneas permite
determinar la composición de una sustancia.

Algunas líneas espectrales se presentan muy juntas entre sí, tanto que llegaron a confundirse con
una sola históricamente, hasta que fue descubierta su subestructura o estructura fina. La causa de
este fenómeno se encuentra en las diversas correcciones a considerar en la interacción entre los
electrones y el núcleo. Teniendo en cuenta tan solo la fuerza electrostática, ocurre que algunas de
las configuraciones electrónicas pueden tener la misma energía aun siendo distintas. El resto de
pequeños efectos y fuerzas en el sistema electrón-núcleo rompe esta redundancia o degeneración,
dando lugar a la estructura fina. Estos incluyen las correccionesrelativistas al movimiento de
electrón, la interacción de su momento magnético con el campo eléctrico y con el núcleo, etc.11

Además, en presencia de un campo externo los niveles de energía se ven modificados por la
interacción del electrón con este, en general produciendo o aumentando la división entre los
niveles de energía. Este fenómeno se conoce como efecto Stark en el caso de un campo eléctrico,
y efecto Zeeman en el caso de un campo magnético.

Las transiciones de un electrón a un nivel superior ocurren en presencia de radiación


electromagnética externa, que provoca la absorción del fotón necesario. Si la frecuencia de dicha
radiación es muy alta, el fotón es muy energético y el electrón puede liberarse, en el llamado efecto
fotoeléctrico.

Las transiciones a un nivel inferior pueden ocurrir de manera espontánea, emitiendo la energía
mediante un fotón saliente; o de manera estimulada, de nuevo en presencia de radiación. En este
caso, un fotón «entrante» apropiado provoca que el electrón decaiga a un nivel con una diferencia
de energía igual a la del fotón entrante. De este modo, se emite un fotón saliente cuya onda
asociada está sincronizada con la del primero, y en la misma dirección. Este fenómeno es la base
del láser.

Interacciones eléctricas entre protones y electrones[editar]

Antes del experimento de Rutherford la comunidad científica aceptaba el modelo atómico de


Thomson, situación que varió después de la experiencia de Ernest Rutherford. Los modelos
posteriores se basan en una estructura de los átomos con una masa central cargada positivamente
rodeada de una nube de carga negativa.12

Este tipo de estructura del átomo llevó a Rutherford a proponer su modelo en que los electrones se
moverían alrededor del núcleo en órbitas. Este modelo tiene una dificultad proveniente del hecho
de que una partícula cargada acelerada, como sería necesario para mantenerse en órbita, radiaría
radiación electromagnética, perdiendo energía. Las leyes de Newton, junto con las ecuaciones de
Maxwell del electromagnetismo aplicadas al átomo de Rutherford llevan a que en un tiempo del
orden de 10−10 s, toda la energía del átomo se habría radiado, con la consiguiente caída de los
electrones sobre el núcleo.13

Historia de la teoría atómica[editar]

Artículo principal: Historia de la teoría atómica

El concepto de átomo existe desde la Antigua Grecia propuesto por los filósofos
griegos Demócrito, Leucipo y Epicuro, sin embargo, no se generó el concepto por medio de la
experimentación sino como una necesidad filosófica que explicara la realidad, ya que, como
proponían estos pensadores, la materia no podía dividirse indefinidamente, por lo que debía existir
una unidad o bloque indivisible e indestructible que al combinarse de diferentes formas creara
todos los cuerpos macroscópicos que nos rodean.14 El siguiente avance significativo no se realizó
hasta que en 1773 el químico francés Antoine-Laurent de Lavoisier postuló su enunciado: «La
materia no se crea ni se destruye, simplemente se transforma». La ley de conservación de la masa
o ley de conservación de la materia; demostrado más tarde por los experimentos del químico
inglés John Dalton quien en 1804, luego de medir la masa de los reactivos y productos de una
reacción, y concluyó que las sustancias están compuestas de átomos esféricos idénticos para cada
elemento, pero diferentes de un elemento a otro.15
Luego en 1811, el físico italiano Amedeo Avogadro, postuló que a una temperatura, presión y
volumen dados, un gas contiene siempre el mismo número de partículas, sean átomos o
moléculas, independientemente de la naturaleza del gas, haciendo al mismo tiempo la hipótesis de
que los gases son moléculas poliatómicas con lo que se comenzó a distinguir entre átomos y
moléculas.16

El químico ruso Dmítri Ivánovich Mendeléyev creó en 1869 una clasificación de los elementos
químicos en orden creciente de su masa atómica, remarcando que existía una periodicidad en las
propiedades químicas. Este trabajo fue el precursor de la tabla periódica de los elementos como la
conocemos actualmente.17

La visión moderna de su estructura interna tuvo que esperar hasta el experimento de


Rutherford en 1911 y el modelo atómico deBohr. Posteriores descubrimientos científicos, como
la teoría cuántica, y avances tecnológicos, como el microscopio electrónico, han permitido conocer
con mayor detalle las propiedades físicas y químicas de los átomos.18

Evolución del modelo atómico[editar]

Los elementos básicos de la materia son tres.

Cuadro general de las partículas, quarks y leptones.

Tamaño relativo de las diferentes partículas atómicas.

La concepción del átomo que se ha tenido a lo largo de la historia ha variado de acuerdo a los
descubrimientos realizados en el campo de la física y la química. A continuación se hará una
exposición de los modelos atómicos propuestos por los científicos de diferentes épocas. Algunos
de ellos son completamente obsoletos para explicar los fenómenos observados actualmente, pero
se incluyen a manera de reseña histórica.

Modelo de Dalton[editar]

Artículo principal: Modelo atómico de John Dalton

Fue el primer modelo atómico con bases científicas, fue formulado en 1803 por John Dalton, quien
imaginaba a los átomos como diminutas esferas.19 Este primer modelo atómico postulaba:

La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no
se pueden destruir.

Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades
propias. Los átomos de los diferentes elementos tienen pesos diferentes.

Los átomos permanecen sin división, aun cuando se combinen en las reacciones químicas.

Los átomos, al combinarse para formar compuestos guardan relaciones simples.

Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más
de un compuesto.
Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.

Sin embargo desapareció ante el modelo de Thomson ya que no explica los rayos catódicos, la
radioactividad ni la presencia de los electrones (e-) o protones(p+).

Diferencia entre los bariones y los mesones.


Diferencia entre fermiones y bosones.

Modelo de Thomson[editar]

Artículo principal: Modelo atómico de Thomson

Modelo atómico de Thomson.

Luego del descubrimiento del electrón en 1897 por Joseph John Thomson, se determinó que la
materia se componía de dos partes, una negativa y una positiva. La parte negativa estaba
constituida por electrones, los cuales se encontraban según este modelo inmersos en una masa de
carga positiva a manera de pasas en un pastel (de la analogía del inglés plum-pudding model) o
uvas en gelatina. Posteriormente Jean Perrin propuso un modelo modificado a partir del de
Thomson donde las «pasas» (electrones) se situaban en la parte exterior del «pastel» (la carga
positiva).

Para explicar la formación de iones, positivos y negativos, y la presencia de los electrones dentro
de la estructura atómica, Thomson ideó un átomo parecido a un pastel de frutas. Una nube positiva
que contenía las pequeñas partículas negativas (los electrones) suspendidos en ella. El número de
cargas negativas era el adecuado para neutralizar la carga positiva. En el caso de que el átomo
perdiera un electrón, la estructura quedaría positiva; y si ganaba, la carga final sería negativa. De
esta forma, explicaba la formación de iones; pero dejó sin explicación la existencia de las otras
radiaciones.

Modelo de Rutherford[editar]
Artículo principal: Modelo atómico de Rutherford

Modelo atómico de Rutherford.

Este modelo fue desarrollado por el físico Ernest Rutherford a partir de los resultados obtenidos en
lo que hoy se conoce como el experimento de Rutherford en 1911. Representa un avance sobre el
modelo de Thomson, ya que mantiene que el átomo se compone de una parte positiva y una
negativa, sin embargo, a diferencia del anterior, postula que la parte positiva se concentra en un
núcleo, el cual también contiene virtualmente toda la masa del átomo, mientras que los electrones
se ubican en una corteza orbitando al núcleo en órbitas circulares o elípticas con un espacio vacío
entre ellos. A pesar de ser un modelo obsoleto, es la percepción más común del átomo del público
no científico.

Rutherford predijo la existencia del neutrón en el año 1920, por esa razón en el modelo anterior
(Thomson), no se habla de éste.

Por desgracia, el modelo atómico de Rutherford presentaba varias incongruencias:

Contradecía las leyes del electromagnetismo de James Clerk Maxwell, las cuales estaban muy
comprobadas mediante datos experimentales. Según las leyes de Maxwell, una carga eléctrica en
movimiento (en este caso el electrón) debería emitir energía constantemente en forma
de radiación y llegaría un momento en que el electrón caería sobre el núcleo y la materia se
destruiría. Todo ocurriría muy brevemente.

No explicaba los espectros atómicos.

Modelo de Bohr[editar]
Modelo atómico de Bohr.

Este modelo es estrictamente un modelo del átomo de hidrógeno tomando como punto de partida
el modelo de Rutherford, Niels Bohr trata de incorporar los fenómenos de absorción y emisión de
los gases, así como la nueva teoría de la cuantización de la energía desarrollada por Max Planck y
el fenómeno del efecto fotoeléctrico observado por Albert Einstein.

«El átomo es un pequeño sistema solar con un núcleo en el centro y electrones moviéndose
alrededor del núcleo en órbitas bien definidas». Las órbitas están cuantizadas (los e- pueden estar
solo en ciertas órbitas)

Cada órbita tiene una energía asociada. La más externa es la de mayor energía.

Los electrones no radian energía (luz) mientras permanezcan en órbitas estables.

Los electrones pueden saltar de una a otra órbita. Si lo hace desde una de menor energía a una de
mayor energía absorbe un cuanto de energía (una cantidad) igual a la diferencia de energía
asociada a cada órbita. Si pasa de una de mayor a una de menor, pierde energía en forma de
radiación (luz).

El mayor éxito de Bohr fue dar la explicación al espectro de emisión del hidrógeno. Pero solo la luz
de este elemento. Proporciona una base para el carácter cuántico de la luz, el fotón es emitido
cuando un electrón cae de una órbita a otra, siendo un pulso de energía radiada.

Bohr no pudo explicar la existencia de órbitas estables y para la condición de cuantización.

Bohr encontró que el momento angular del electrón es h/2π por un método que no puede justificar.

Barión

Diferencia entre los bariones y losmesones.


Nombre y carga eléctrica de los componentes de la materia.

Los bariones (del griego βαρύς, barys, “pesado”) son una familia de partículas
subatómicasformadas por tres quarks. Los más representativos, por formar el núcleo del átomo,
son elneutrón y el protón; pero también existe otro gran número de bariones, aunque éstos son
todos inestables. El nombre de barión se debe a que se creyó, cuando fue descubierto, que poseía
una masa mayor que otras partículas.

Los bariones son fermiones afectados por la interacción nuclear fuerte, por lo que están sometidos
al principio de exclusión de Pauli y pueden ser descritos mediante la estadística de Fermi-Dirac. Al
contrario que los bosones, que no satisfacen el principio de exclusión.

Los bariones pertenecen, junto con los mesones, a la familia de partículas llamadashadrones, es decir,
aquellas compuestas por quarks. Se diferencian de los mesones por estar compuestos por tres quarks,
mientras que los últimos están compuestos por un quark y un antiquark.

Tipos

Junto al protón y al neutrón, dentro de la familia de los bariones se encuentran también las partículas
delta (Δ), lambda (Λ), sigma (Σ), xi (Ξ) y omega (Ω).
Los bariones delta (Δ++, Δ+, Δ0, Δ-) están compuestos por quarks arriba y abajo, de tal manera que
el spin total es 3/2. Se desintegran en un pion y en un protón o un neutrón.
Los bariones lambda (Λ0) están compuestos por un quark arriba, uno abajo y un quark extraño,
con los quarks arriba y abajo en un estado de spin isotópico 0 (sabor antisimétrico). La observación
del lambda neutro supuso la primera evidencia del quark extraño. El barión lambda casi siempre se
desintegra en un protón y un pion con carga, o en un neutrón y un pion neutro.
Los bariones sigma (Σ+, Σ0, Σ-) están compuestos también por un quark extraño y la combinación
de un quark arriba y otro abajo, pero en un estado de spin isotópico 1. El Σ 0 posee la misma
estructura de quarks que el Λ0 (arriba, abajo y extraño), por lo que su desintegración es mucho más
rápida que el Σ+ (arriba, arriba, extraño) y el Σ- (abajo, abajo, extraño).
Los bariones xi (Ξ0, Ξ-) están compuestos de dos quarks extraños y un quark arriba o abajo. Se
desintegran generalmente en un pion y un barión lambda, que a su vez se desintegra como tal.
Debido a esta secuencia en cascada de desintegraciones, a Ξ se le llama también partícula en
cascada (cascade particle).
El barión omega negativo (Ω-) está compuesto de tres quarks extraños. Su descubrimiento supuso
un gran avance en el estudio de los procesos de los quarks, ya que sólo desde entonces se pudo
predecir su masa y su desintegración.
Los bariones compuestos por quarks pesados se cifran añadiendo un subíndice, el cual indica que
un quark extraño puede ser sustituido por otro más pesado (Ej.: Λ +c está compuesto por quark
encantado, arriba y abajo; en vez de arriba, abajo y extraño).
Materia bariónica[editar]
La materia bariónica es aquella en cuya masa predominan los bariones, la cual puede estar
formada por átomos de todo tipo, y por tanto, ser casi cualquier tipo de materia. Su contrario es la
materia no bariónica, que puede estar formada por neutrinos oelectrones libres, o incluso por
especies extrañas de materia oscura no bariónica, tales como partículas
supersimétricas, axiones oagujeros negros.
La distinción entre materia bariónica y no bariónica resulta de especial importancia en cosmología,
ya que la cantidad de materia bariónica presente en el universo primitivo determina en gran medida
los modelos de nucleosíntesis producidos en el Big Bang.
La mera existencia de bariones resulta ya un hecho cosmológico significativo, puesto que se
presupone que el Big Bang produjo una cantidad igual de bariones y de antibariones. El proceso
mediante el cual el número de bariones supera al de sus antipartículas es
llamado bariogénesis (análogamente al proceso de leptogénesis, mediante el cual la cantidad de
materia formada por leptonessupera a su antimateria).

También podría gustarte