Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ONDAS ELECTRICAS
1. Descripcion
2. Grafica. Dibujo
3. Formula
4. Tabal estadística
La radiación electromagnética es un tipo de campo electromagnético variable, es decir,
una combinación de campos eléctricos y magnéticos oscilantes, que se propagan a través
del espacio transportando energía de un lugar a otro.1 Desde el punto de vista clásico la
radiación electromagnética son las ondas electromagnéticas generadas por las fuentes del
campo electromagnético y que se propagan a la velocidad de la luz. La generación y la
propagación de estas ondas son compatibles con el modelo de ecuaciones matemáticas
definido en las ecuaciones de Maxwell.
La radiación de tipo electromagnético puede manifestarse de diversas maneras como
Radiación infrarroja, luz visible, rayos X o rayos gamma. A diferencia de otros tipos de
onda, como el sonido, que necesitaran un medio material para propagarse, la radiación
electromagnética se puede propagar en el vacío
Todos estos fenómenos consisten en la emisión de radiación electromagnética en
diferentes rangos de frecuencias (o equivalentemente diferentes longitudes de onda),
siendo el rango de frecuencia o longitud de onda el más usado para clasificar los
diferentes tipos de radiación electromagnética. La ordenación de los diversos tipos de
radiación electromagnética por frecuencia recibe el nombre de espectro electromagnético.
Luz visible[editar]
La luz visible está formada por la radiación electromagnética cuyas longitudes de onda están
comprendidas entre 400 y 700 nm. La luz es producida en la corteza atómica de los átomos,
cuando un átomo por diversos motivos recibe energía puede que algunos de sus electrones
pasen a capas electrónicas de mayor energía.
DISPERSION
ESPECTRO ELECTROMSGNETICO
El espectro visible es un minúsculo intervalo que va desde la longitud de onda correspondiente
al color violeta (aproximadamente 400 nanómetros) hasta la longitud de onda correspondiente
al color rojo (aproximadamente 700 nm
Ecuaciones de Maxwell[editar]
Artículo principal: Ecuaciones de Maxwell
Dualidad onda-corpúsculo[editar]
Artículo principal: Dualidad onda corpúsculo
Dependiendo del fenómeno estudiado, la radiación electromagnética se puede considerar no
como una serie de ondas sino como un haz o flujo de partículas, llamadas fotones. Esta
dualidad onda-corpúsculo hace que cada fotón tenga una energía directamente proporcional a
la frecuencia de la onda asociada, dada por la relación de Planck:
FUERZA ELECTRICA
PRINCIPIOS MC
pROBABILIDAD DE AMPLITUD
Probabilidad de amplitud: phi
Este patrón de interferencias se explica fácilmente a partir de la interferencia de las ondas de
luz al combinarse la luz que procede de dos rendijas, de manera muy similar a como las ondas
en la superficie del agua se combinan para crear picos y regiones más planas. En las líneas
brillantes la interferencia es de tipo "constructiva". El mayor brillo se debe a la superposición
de ondas de luz coincidiendo en fase sobre la superficie de proyección. En las líneas oscuras
la interferencia es "destructiva" con prácticamente ausencia de luz a consecuencia de la
llegada de ondas de luz de fase opuesta (la cresta de una onda se superpone con el valle de
otra).
Se puede formular una relación entre la separación de las rendijas, s, la longitud de onda λ, la
distancia de las rendijas a la pantalla D, y la anchura de las bandas de interferencia (la
distancia entre franjas brillantes sucesivas), x
λ/s=x/D
PRINCIPIO DE INCERTIDUMBRE
De esta forma, Heisenberg puso de manifiesto que existe un límite natural insuperable a la
precisión con la que se pueden medir simultáneamente la posición y el impulso de una partícula,
debido a que la medición de una de estas cantidades inevitablemente perturba a la partícula de
modo tal que deja incierto el valor de la otra cantidad. Este es el origen físico del principio de
incerteza.
Principio de complementariedad
Esta es la esencia del principio de complementaridad de Bohr: los conceptos de onda y partícula
no se contradicen sino que se complementan
EL EFECTO FOTOELETRICO
la frecuencia ν de los mismos, es la que determina la energía individual de cada fotón. Un rayo
rojo del espectro visible, aunque tenga mucha energía, es decir muchos fotones, la energía de
cada fotón es pequeña, porque la luz roja es de elevada longitud de onda, es por consiguiente baja
de frecuencia y el valor de hv es pequeño.
Albert Einstein sugirió que podría considerarse que la luz se comporta en determinados casos
como
Modelo atomico
EFECTO COMPTON
Compton hizo incidir un haz colimado de rayos X de longitud de onda λ bien definida sobre un
blanco de grafito y midió la intensidad y la longitud de onda de los rayos dispersados en varias
direcciones. Se observó que aunque el haz incidente consiste esencialmente de una única longitud
de onda, en los rayos X dispersados en direcciones que forman un ángulo θ no nulo con la
dirección del haz, aparecen dos longitudes de onda: una es la misma λ de la radiación incidente y
la otra, ′ λ , es mayor, esto es ′ =+ λλ λ ∆ . Este corrimiento ∆λ , denominado corrimiento Compton,
varía con el ángulo en que se observan los rayos X dispersados.
RAYOS X
La energía del electron (hv) e iual a la energía del electro mas la eneria del positrón.
MODELO ATOMICO DE BOHR
Primer postulado.
Los electrones se mueven en ciertas órbitas circulares permitidas alrededor del núcleo sin
emitir energía. En el átomo no hay emisión de radiación electromagnética mientras el electrón
permanece en su órbita. Según el postulado de la electrodinámica clásica una carga en
movimiento acelerado, como es el movimiento de rotación, debe emitir energía en forma de
radiación.
Para obtener la energía del electrón en una órbita dada en función de su radio. El movimiento
de rotación del electrón se mantiene por la acción de la fuerza de Coulomb, atractiva, debida a
la presencia del núcleo positivo. Dicha fuerza es precisamente la fuerza centrípeta necesaria
para mantener al electrón en su órbita circular. Esto conduce a la siguiente expresión:
; k es la constante de la fuerza de
Donde el primer término es la fuerza de Coulomb, Z es el número atómico, e es la
Coulomb y el segundo es la fuerza carga del electrón; me, es la masa del
centrípeta electrón, v es la velocidad del electrón en la
órbita y r el radio de la órbita.
lLa energía total es la suma de las energías cinética y potencial, la energía de un electrón se
expresa en función del radio r de la órbita como:
Los átomos tienen 1 o 2 x 10-8cm de radio. Ahora bien, 10-8 cm se denomina un ångström (tan
sólo otro nombre), de modo que decimos que tienen 1 ó 2 ångströms de radio.
TERCER POATULADO
El electrón solo emite o absorbe energía en los saltos de una órbita permitida a otra. En dicho
cambio emite o absorbe un fotón cuya energía es la diferencia de energía entre ambos
niveles. El fotón, siguiendo las ideas de Planck, tiene una energía:
ONDA PARTICULA
En su lugar la mecánica cuántica describe a las partículas como una especie de "campo de
materia" que se propaga por el espacio de modo similar a una onda; las propiedades del tipo
"onda" que exhiben las partículas cuánticas son consecuencia del modo en que se propaga el
campo de materia asociado a ellas. Obviamente hay una cierta relación entre la localización
de la partícula y las regiones del espacio donde el campo es más intenso en un momento
dado. Sin embargo, la mecánica cuántica introduce el principio (Postulado IV) de que cuando
se realiza una medida de la posición de una partícula cuántica se produce el llamado colapso
de la función de onda hasta una región del espacio muy pequeña, lo cual hace aparecer al
"campo de materia" como una partícula localizada.
PRINCIPIO DE INCERTIDUMBRE DE HEISENBERG
Werner Heisenberg —Premio Nobel 1932— enunció el llamado principio de incertidumbre o
principio de indeterminación, según el cual es imposible medir simultáneamente, y con
precisión absoluta, el valor de la posición y la cantidad de movimiento de una partícula.
La precisión con que se pueden medir las propiedades de los objetos microscópicos, como
posición y momento, está limitada y el límite viene fijado por una ecuación donde la constante
de Planck es sujeto principal.
CAMPO ELECTROMAGNETICO
Después de describir la idea de campo electromagnético, y de que este campo puede transportar
ondas. ¡A frecuencias más altas se comportan de forma mucho más parecida a partículas ! Es la
mecánica cuántica.
La incertidumbre del momento y la incertidumbre de la posición son complementarias, y el
producto de las dos es constante. Podemos escribir la ley de esta forma: x p h/2,
, no podemos predecir cuándo va a emitir la luz, o, en el caso de que haya varios átomos, cuál de
ellos es el que va a hacerlo. sólo podemos encontrar un promedio estadístico de lo que va a
suceder.
Tenemos un nuevo tipo de partícula que añadir al electrón, el protón y el neutrón. Esta nueva
partícula se denomina fotón . Y la nueva visión de la interacción de electrones y protones que
constituye la teoría electromagnética, pero ahora con todo correcto mecanocuánticamente, se
denomina electrodinámica cuántica.
De la electrodinámica cuántica salen todas las leyes eléctricas, mecánicas y químicas: las leyes para
el choque de bolas de billar, los movimientos de conductores en campos magnéticos, el calor
específico del monóxido de carbono, el color de los tubos de neón, la densidad de la sal, y las
reacciones del hidrógeno y el oxígeno para formar agua, son todas consecuencias de esta única
ley.
La electrodinámica cuántica (QED acrónimo en inglés de Quantum Electrodynamics) es
la teoría cuántica del campo electromagnético. QED describe los fenómenos que implican
las partículas eléctricamente cargadas que obran recíprocamente por medio de la fuerza
electromagnética.
La QED es una de las teorías más precisas de cuantas que se crearon en el siglo XX. Es
capaz de hacer predicciones de ciertas magnitudes físicas con hasta veinte cifras decimales
de precisión, un resultado poco frecuente en las teorías físicas anteriores. Por esa razón la
teoría fue llamada "la joya de la física". Entre sus predicciones más exactas están:
El momento magnético anómalo del electrón y del muon, para el cual la ecuación de
Dirac predecía un valor de exactamente el doble del valor clásico. Para el electrón la QED
predice un valor:
El valor del salto de Lamb en los niveles energéticos del átomo de hidrógeno.
La electrodinámica cuántica es una descripción detallada de la interacción
entre fotones y partículas cargadas de tipo fermiónico. La teoría cuántica comparte ciertos
rasgos con la descripción clásica. De acuerdo con la descripción de la óptica clásica la luz
viaja sobre todos los caminos permitidos, y su interferencia determina los frentes de onda que
se propagan de acuerdo con el principio de Fermat. Similarmente, en la descripción cuántica
de los fotones (y los fermiones), estos pasan por cada camino posible permitido por aberturas
o sistemas ópticos. En ambos casos el observador detecta simplemente el resultado
matemático de la superposición de todas las ondas consideradas a lo largo de integrales de
línea. Una diferencia es que en la electrodinámica la velocidad efectiva de un fotón puede
superar la velocidad de la luz en promedio.1
Además QED fue la primera teoría cuántica del campo en la cual las dificultades para construir
una descripción completa de campos y de creación y aniquilación de partículas cuánticas,
fueron resueltas satisfactoriamente.
Formalismo[editar]
una teoría de gauge abeliana, siendo el grupo de gauge asociado en grupo unitario .
El campo de gauge que media la interacción entre campos de espín -1/2 con carga es
el campo electromagnético.
La evolución temporal de un sistema de partículas cargadas y fotones puede ser calculada
mediante un cálculo perturbativo. En concreto la comparación con los experimentos
realizables frecuentemente requiere el cálculo de los elementos de la matriz S que permiten
encontrar las secciones eficaces de dispersión para partícula que puede ser comparada con
los resultados de los experimentos.
La electrodinámica cuántica reduce este tipo de cálculos a un desarrollo perturbativo en serie
de potencias que permite encontrar con la precisión deseada esas secciones eficaces. Cada
uno de los términos perturbativos admite una representación gráfica conocida como diagrama
de Feynman. De hecho, la electrodinámica cuántica fue históricamente la primera teoría donde
se usaron diagramas de Feynman como ayuda en el cálculo perturbativo. La forma de cada
uno de los términos perturbativos y, por tanto, la representación gráfica asociada depende de
la forma del lagrangiano que caracteriza dicha teoría (ver más adelante).
Ver teoría de gauge
Ecuaciones de movimiento[editar]
Las ecuaciones de "movimiento" o ecuaciones de evolución temporal de la QED pueden
obtenerse mediante las ecuaciones de Euler-Lagrange del lagrangiano de la teoría. Insertando
ese lagrangiano en las ecuaciones de Euler-Lagrange se obtiene la ecuación de evolución
temporal de la teoría:
Reglas de Feynman[editar]
Para dar cuenta de todos los efectos cuánticos, es necesario reemplazar las componentes de
los campos en las anteriores ecuaciones diferenciales por operadores autoadjuntos
interpretables como genuinos operadores cuánticos. En general eso lleva a unos sistemas de
ecuaciones que no sabemos como integrar exactamente, pero que admiten un tratamiento
perturbativo, descomponiendo el operador de evolución temporal
Abrégé de QED
de fixer un choix de jauge par une relation algébrique, par exemple ∂ μAμ= 0, sinon
l'opérateur différentiel n'a pas d'inverse bien défini. Notons que même encore,
l'inverse de l'opérateur n'est pas uniquement défini car on peut toujours ajouter à
A une solution de l'équation homogène (Jν= 0); cela ne cause par contre pas de
problème, c'est plus une question de « condition aux frontières ». Mais le point
important est que le propagateur dépend de la relation choisie, et l'invariance de la
théorie sous les différents choix possibles peut sembler douteuse; la forme simple
du propagateur utilisé plus haut, -igμν/q2, est un cas extrême très particulier; dans
une jauge générale, il peut être tout simplement impossible de représenter le
propagateur sous forme fermée.
Du point de vue de la théorie de champ, sous-jacente à la méthode perturbative, fixer une jauge
par une condition algébrique n'est pas trivial. En fait, A en chaque point est un opérateur, et il
s'avère que l'opérateur associé à un choix de jauge, par exemple ∂μAμ, ne commute tout
simplement pas avec A. On ne peut donc pas identifier cet opérateur à l'opérateur nul. On peut
contourner le problème en définissant cette condition comme une condition que doit satisfaire
tous les vecteurs de l'espace d'état sur lequel A agit : (∂μAμ)ψ = 0. En d'autres termes, on introduit
le choix de jauge comme une restriction de l'espace d'état sur lequel on travaille, une équation
que ces vecteurs doivent satisfaire. Il faut ensuite s'assurer que les véritables observables
physiques laissent ce sous-espace invariant par leur action. La démonstration que les résultats
physiques de la théorie sont biens invariants par rapport au choix d'une jauge n'a rien d'évident.
Conversion of Energy into Mass
In a NUCLEAR REACTOR, a spontaneous nuclear process results in a
net decrease in the net mass of all the particles involved. The "missing mass"
appears as the kinetic energy of the reaction products, which is dissipated by
what amounts to friction and generates heat that boils water; the steam is used to
spin turbines that run generators that send electrical power down the wires.
This leads to an obvious question: can we do the opposite? Can we take electrical
power out of the wires, use it to raise the kinetic energy of some particles to
enormous values, smack the particles together and generate some extra mass?
Yes! This is what a PARTICLE ACCELERATOR like TRIUMF24.12 does. Every
such accelerator is a sort of "reactor in reverse," taking electrical power out of the
grid and turning it into mass.
Such things happen naturally, too. Gamma rays of sufficient energy often
convert into electron-positron pairs when they have a glancing collision with a
heavy nucleus. This is pictured in Figs. 24.3 and 24.4.
The convention in FEYNMAN DIAGRAMS is that antiparticle lines (e+, for instance) are
drawn in the "backward" sense as if they were propagating backward in time.
This allows all "electron lines" to be unbroken, a graphical expression of
the CONSERVATION OF ELECTRONS.24.14 There are lots more elegant graphical features
to FEYNMAN DIAGRAMS, but I will wait until we discuss QUANTUM FIELD THEORYin the
Chapter on Elementary Particles to discuss them further.
The main point here is that the incoming particle(s) [ or e-] must have at least
1.022 MeV of kinetic energy to create a positron and an electron, both of which
have rest masses of 0.511 MeV/c2. With an accelerator one can give the original
projectile(s) more energy [there seems to be no limit on how much, except for
mundane concerns about funding resources and real estate] and thus facilitiate
the creation of heavier particles. At TRIUMF, for instance, we accelerate protons
to 520 MeV [just over half their rest mass energy of 938 MeV], which is enough
to create MESONS [mass = 139 MeV/c2] with reasonable efficiency; the
high intensity24.15 of the TRIUMF cyclotron qualifies it for the elite club of
" MESON FACTORIES," so named because they "mass produce" mesons
(or PIONS) in unprecedented numbers.
Since heavier particles can in principle decay into lighter particles like gamma
rays, neutrinos, antineutrinos, electrons and positrons, almost of these
"manufactured" particles are unstable. Nevertheless, they hang around long
enough to be studied and sometimes their very instability is what makes them
interesting, if only because it precludes finding a cache of them in a more Natural
setting.
I have gotten far beyond the terms of reference of this Chapter here, but I wanted
to "preview" some of the phenomenology of Elementary Particle Physics while
focussing your attention on the simple motive for building higher- and higher-
energy accelerators:
The more kinetic energy is available, the more mass can be created. The heavier
the particle, the more options it is apt to have for other lighter particles to decay
into, and the more unstable it can be expected to be; hence the less likely we are
to observe it in Nature.24.16 And the heavier the particle, the more exotic its
properties might be.
So far this simple strategy has paid off in many new discoveries; of course, it
may not keep working indefinitely . . . .
Diagrammi di Feynman. La fotonotizia di
scienze
Feynman's view of quantum electrodynamics[edit]
Introduction[edit]
Near the end of his life, Richard P. Feynman gave a series of lectures on QED intended for the
lay public. These lectures were transcribed and published as Feynman (1985), QED: The
strange theory of light and matter,[1] a classic non-mathematical exposition of QED from the
point of view articulated below.
The key components of Feynman's presentation of QED are three basic actions.[1]:85
A photon goes from one place and time to another place and time.
An electron goes from one place and time to another place and time.
An electron emits or absorbs a photon at a certain place and time.
These actions are represented in a form of visual shorthand by the three basic elements
of Feynman diagrams: a wavy line for the photon, a straight line for the electron and a junction
of two straight lines and a wavy one for a vertex representing emission or absorption of a
photon by an electron. These can all be seen in the adjacent diagram.
It is important not to over-interpret these diagrams. Nothing is implied about how a particle gets
from one point to another. The diagrams do not imply that the particles are moving in straight
or curved lines. They do not imply that the particles are moving with fixed speeds. The fact that
the photon is often represented, by convention, by a wavy line and not a straight one
does not imply that it is thought that it is more wavelike than is an electron. The images are just
symbols to represent the actions above: photons and electrons do, somehow, move from point
to point and electrons, somehow, emit and absorb photons. The theory does not explain how
these things happen, but it does tell us the probabilities of these things happening in various
situations.
As well as the visual shorthand for the actions Feynman introduces another kind of shorthand
for the numerical quantities called probability amplitudes. The probability is the square of the
Basic constructions[edit]
Suppose we start with one electron at a certain place and time (this place and time being given
the arbitrary label A) and a photon at another place and time (given the label B). A typical
question from a physical standpoint is: 'What is the probability of finding an electron at C
(another place and a later time) and a photon at D (yet another place and time)?'. The simplest
process to achieve this end is for the electron to move from A to C (an elementary action) and
for the photon to move from B to D (another elementary action). From a knowledge of the
probability amplitudes of each of these sub-processes – E(A to C) and P(B to D) – then we
would expect to calculate the probability amplitude of both happening together by multiplying
them, using rule b) above. This gives a simple estimated overall probability amplitude, which is
squared to give an estimated probability.
But there are other ways in which the end result could come about. The electron might move to
a place and time E where it absorbs the photon; then move on before emitting another photon
at F; then move on to C where it is detected, while the new photon moves on to D. The
probability of this complex process can again be calculated by knowing the probability
amplitudes of each of the individual actions: three electron actions, two photon actions and two
vertexes – one emission and one absorption. We would expect to find the total probability
amplitude by multiplying the probability amplitudes of each of the actions, for any chosen
positions of E and F. We then, using rule a) above, have to add up all these probability
amplitudes for all the alternatives for E and F. (This is not elementary in practice, and
involves integration.) But there is another possibility, which is that the electron first moves to G
where it emits a photon which goes on to D, while the electron moves on to H, where it absorbs
the first photon, before moving on to C. Again we can calculate the probability amplitude of
these possibilities (for all points G and H). We then have a better estimation for the total
probability amplitude by adding the probability amplitudes of these two possibilities to our
original simple estimate. Incidentally the name given to this process of a photon interacting with
an electron in this way is Compton scattering.
There are an infinite number of other intermediate processes in which more and more photons
are absorbed and/or emitted. For each of these possibilities there is a Feynman diagram
describing it. This implies a complex computation for the resulting probability amplitudes, but
provided it is the case that the more complicated the diagram the less it contributes to the
result, it is only a matter of time and effort to find as accurate an answer as one wants to the
original question. This is the basic approach of QED. To calculate the probability
of any interactive process between electrons and photons it is a matter of first noting, with
Feynman diagrams, all the possible ways in which the process can be constructed from the
three basic elements. Each diagram involves some calculation involving definite rules to find
the associated probability amplitude.
Feynman avoids exposing the reader to the mathematics of complex numbers by using a
simple but accurate representation of them as arrows on a piece of paper or screen. (These
must not be confused with the arrows of Feynman diagrams which are actually simplified
representations in two dimensions of a relationship between points in three dimensions of
space and one of time.) The amplitude arrows are fundamental to the description of the world
given by quantum theory. No satisfactory reason has been given for why they are needed. But
pragmatically we have to accept that they are an essential part of our description of all
quantum phenomena. They are related to our everyday ideas of probability by the simple rule
that the probability of an event is the square of the length of the corresponding amplitude
arrow. So, for a given process, if two probability amplitudes, v and w, are involved, the
probability of the process will be
The rules as regards adding or multiplying, however, are the same as above. But where you
would expect to add or multiply probabilities, instead you add or multiply probability amplitudes
that now are complex numbers.
Addition of probability amplitudes as complex numbers
Addition and multiplication are familiar operations in the theory of complex numbers and are
given in the figures. The sum is found as follows. Let the start of the second arrow be at the
end of the first. The sum is then a third arrow that goes directly from the start of the first to the
end of the second. The product of two arrows is an arrow whose length is the product of the
two lengths. The direction of the product is found by adding the angles that each of the two
have been turned through relative to a reference direction: that gives the angle that the product
is turned relative to the reference direction.
That change, from probabilities to probability amplitudes, complicates the mathematics without
changing the basic approach. But that change is still not quite enough because it fails to take
into account the fact that both photons and electrons can be polarized, which is to say that their
orientations in space and time have to be taken into account. Therefore, P(A to B) actually
consists of 16 complex numbers, or probability amplitude arrows.[1]:120–121 There are also some
minor changes to do with the quantity "j", which may have to be rotated by a multiple of 90° for
some polarizations, which is only of interest for the detailed bookkeeping.
Associated with the fact that the electron can be polarized is another small necessary detail
which is connected with the fact that an electron is a fermion and obeys Fermi–Dirac statistics.
The basic rule is that if we have the probability amplitude for a given complex process involving
more than one electron, then when we include (as we always must) the complementary
Feynman diagram in which we just exchange two electron events, the resulting amplitude is
the reverse – the negative – of the first. The simplest case would be two electrons starting at A
and B ending at C and D. The amplitude would be calculated as the "difference", E(A to D) ×
E(B to C) − E(A to C) × E(B to D), where we would expect, from our everyday idea of
probabilities, that it would be a sum.[1]:112–113
Propagators[edit]
Finally, one has to compute P (A to B) and E (C to D) corresponding to the probability
amplitudes for the photon and the electron respectively. These are essentially the solutions of
the Dirac equation which describes the behavior of the electron's probability amplitude and
the Klein–Gordon equation which describes the behavior of the photon's probability amplitude.
These are called Feynman propagators. The translation to a notation commonly used in the
standard literature is as follows:
Mathematics[edit]
Mathematically, QED is an abelian gauge theory with the symmetry group U(1). The gauge
field, which mediates the interaction between the charged spin-1/2 fields, is
the electromagnetic field. The QED Lagrangian for a spin-1/2 field interacting with the
electromagnetic field is given in natural units by the real part of[22]:78
Feynman diagrams[edit]
Despite the conceptual clarity of this Feynman approach to QED, almost no early textbooks
follow him in their presentation. When performing calculations it is much easier to work with
the Fourier transforms of the propagators. Experimental tests of quantum electrodynamics are
typically scattering experiments. In scattering theory, particles' momenta rather than their
positions are considered, and it is convenient to think of particles as being created or
annihilated when they interact. Feynman diagrams then look the same, but the lines have
different interpretations. The electron line represents an electron with a given energy and
momentum, with a similar interpretation of the photon line. A vertex diagram represents the
annihilation of one electron and the creation of another together with the absorption or creation
of a photon, each having specified energies and momenta.
Using Wick theorem on the terms of the Dyson series, all the terms of the S-matrix for quantum
electrodynamics can be computed through the technique of Feynman diagrams. In this case
rules for drawing are the following[22]:801–802
that, being closed loops, imply the presence of diverging integrals having no mathematical
meaning. To overcome this difficulty, a technique called renormalization has been devised,
producing finite results in very close agreement with experiments. It is important to note that a
criterion for theory being meaningful after renormalization is that the number of diverging
diagrams is finite. In this case the theory is said to be renormalizable. The reason for this is
that to get observables renormalized one needs a finite number of constants to maintain the
predictive value of the theory untouched. This is exactly the case of quantum electrodynamics
displaying just three diverging diagrams. This procedure gives observables in very close
agreement with experiment as seen e.g. for electron gyromagnetic ratio.
Renormalizability has become an essential criterion for a quantum field theory to be considered
as a viable one. All the theories describing fundamental interactions, except gravitation whose
quantum counterpart is presently under very active research, are renormalizable theories.
Nonconvergence of series[edit]
An argument by Freeman Dyson shows that the radius of convergence of the perturbation
series in QED is zero.[23] The basic argument goes as follows: if the coupling constant were
negative, this would be equivalent to the Coulomb force constant being negative. This would
"reverse" the electromagnetic interaction so that like charges would attract and unlike charges
would repel. This would render the vacuum unstable against decay into a cluster of electrons
on one side of the universe and a cluster of positrons on the other side of the universe.
Because the theory is 'sick' for any negative value of the coupling constant, the series do not
converge, but are an asymptotic series.
From a modern perspective, we say that QED is not well defined as a quantum field theory to
arbitrarily high energy.[24] The coupling constant runs to infinity at finite energy, signalling
a Landau pole. The problem is essentially that QED appears to suffer from quantum
triviality issues. This is one of the motivations for embedding QED within a Grand Unified
Theory.
il bosone di Higgs
Elettrodinamica quantistica:
verifiche sperimentali
L'elettrodinamica quantistica (QED, Quantum electrodynamics) è una teoria che descrive,
in eccellente accordo con i dati sperimentali, l'interazione tra elettroni, positroni e fotoni. Il
procedimento generale per la quantizzazione di un sistema classico consiste nel
determinare, per mezzo della funzione lagrangiana, i momenti coniugati alle coordinate del
sistema e la funzione hamiltoniana, verificando che per questa via si ottengano le corrette
equazioni classiche del moto, che successivamente sono trasformate nelle corrispondenti
equazioni quantistiche sostituendo alle parentesi di Poisson le parentesi di commutazione.
Tale procedimento può essere applicato a un campo d'onda ψ(r, t), che è dotato
evidentemente di un numero infinito di gradi di libertà e che, così come un sistema di un
numero infinito di particelle è specificato dalle coordinate di posizione e dalla loro
dipendenza dal tempo, è individuato dalla propria ampiezza in tutti i punti dello spazio in
funzione del tempo. Risulta quindi naturale usare le ampiezze ψ(r, t) come coordinate,
analoghe alle coordinate qi(t) delle particelle. È possibile, tuttavia, procedere
diversamente, sviluppando ψ in serie di un insieme completo ortonormale di funzioni uk:
dove il simbolo S indica un integrale oppure una somma. I coefficienti dello sviluppo nella
[1] possono essere considerati come le coordinate del campo, e le equazioni del campo
possono essere espresse per mezzo della ψoppure delle ak. Questa tecnica di
quantizzazione si applica anche al campo elettromagnetico.
Le equazioni dell'elettrodinamica quantistica erano già note alla fine degli anni Venti del
Novecento e la teoria era contenuta nei lavori classici di Paul A.M. Dirac, Werner
Heisenberg, Wolfgang Pauli ed Enrico Fermi. Il metodo consisteva nello sviluppare in serie
di potenze della costante di struttura fine α=e2/ℏc≃1/137 le funzioni d'onda che
rappresentano le grandezze fisiche in esame (e è la carica dell'elettrone, ℏ=h/2π è la
costante di Planck divisa per 2π e c è la velocità della luce nel vuoto). L'applicazione del
metodo perturbativo all'elettrodinamica forniva però risultati divergenti, e perciò non
soddisfacenti, che si cercò di migliorare introducendo fattori di forma di vario tipo che
permettessero di eliminare le divergenze prive di corrispondenza con i dati sperimentali,
secondo una tecnica che però non diede i risultati sperati e che fu perciò abbandonata. In
ogni caso, al primo ordine dello sviluppo si ottenevano risultati corretti e perciò le
equazioni di base della teoria sembravano giuste. Occorreva trovare il modo di evitare le
espressioni divergenti dovute alle correzioni radiative, introdotte nella teoria perturbativa
dai termini di ordine superiore al primo, e tale obiettivo fu raggiunto mediante la teoria
della rinormalizzazione.
sommario
1. L'era moderna dell'elettrodinamica quantistica. 2. Interpretazione grafica di alcuni processi di
elettrodinamica. 3. Verifiche sperimentali dell'elettrodinamica quantistica. 4. Il Lamb shift del
muone. 5. I momenti magnetici dell'elettrone e del muone. 6. Verifiche sperimentali della QED ad
alte energie. □ Bibliografia.
L'era moderna dell'elettrodinamica quantistica iniziò nella seconda metà degli anni
Quaranta del XX sec. con le misurazioni del momento magnetico dell'elettrone e
del Lamb shift, che diedero impulso allo sviluppo della teoria fino al
raggiungimento, grazie soprattutto ai contributi di Hans Bethe, Sin-Itiro Tomonaga,
Julian Schwinger, Richard Feynman e Freeman Dyson, della sua formulazione
attuale: la regolarizzazione della teoria fu ottenuta mediante la tecnica
della rinormalizzazione. Per illustrare il ragionamento che sottende a tale tecnica,
è necessario addentrarsi un po' nel formalismo. Se consideriamo un sistema
costituito da un campo elettromagnetico in presenza di un elettrone, l'operatore
hamiltoniano si può scrivere come la somma di tre termini: il primo, He, si riferisce
all'elettrone isolato, ed è quello che si avrebbe se il campo elettromagnetico non ci
fosse; il secondo, Hem, è relativo al solo campo elettromagnetico, come se
l'elettrone non ci fosse; vi è infine un termine di interazione Hint, la cui forma è:
[2] formula
in cui v è la velocità dell'elettrone e A e φ sono i potenziali vettore e scalare del
campo elettromagnetico nella posizione occupata dall'elettrone. L'hamiltoniano
totale del sistema è quindi:
[3] formula.
Il problema fondamentale della dinamica del sistema è quello di risolvere
l'equazione di Schrödinger il cui operatore hamiltoniano sia dato dalla [3].
Consideriamo il caso non relativistico, in cui l'elettrone si muova con piccole
velocità rispetto alla velocità della luce. L'approssimazione che si utilizza nel
risolvere l'equazione di Schrödinger consiste nel considerare He+Hem come la parte
imperturbata del sistema e Hint come la perturbazione. Il sistema non perturbato è
abbastanza semplice da trattare, poiché il campo elettromagnetico non è
influenzato dall'elettrone, e viceversa. Il termine He rappresenta l'energia
dell'elettrone, somma dell'energia cinetica p2/2m ‒ nel caso non relativistico,
essendo p la quantità di moto ‒ e dell'energia potenziale U. L'hamiltoniano Hem è
l'energia del campo elettromagnetico, che, come si può dimostrare, vale:
[5] formula.
[6] formula.
[7] formula.
[7] formula.
La [7] mette bene in evidenza l'esistenza di due perturbazioni, di cui una, e(v/c)∙A, dà un
risultato nullo al primo ordine e un risultato infinito al secondo ordine e
l'altra, p2/2msp2(mem/e2)e2, dà anch'essa un risultato infinito ma di segno contrario al
precedente. Il punto essenziale dell'osservazione di Berthe è che le due parti infinite si
cancellano e rimane un risultato finito, che, nel caso della struttura fine dell'atomo
d'idrogeno, è molto vicino a quello sperimentale. La teoria di Bethe, ricorrendo a un calcolo
non relativistico, non è invariante per trasformazioni di Lorentz e fornisce risultati non
corretti per valori dell'energia dell'ordine di mspc2. I successivi lavori di Tomonaga,
Schwinger, Feynman e Dyson hanno sviluppato uno schema teorico estremamente
elegante, che ha esteso l'idea di Bethe al caso relativistico e ha permesso di interpretare e
predire con successo i fenomeni fisici dell'elettrodinamica alle alte energie.
L'estensione della teoria della rinormalizzazione al regime di moto relativistico ha costituito
un arduo problema matematico. Tale estensione prevede l'introduzione di operatori di
campo, che rappresentano le operazioni di distruzione e di creazione di un fotone, di un
elettrone e di un positrone. In conformità ai principî generali della teoria dei campi
quantistici, lo stato di un sistema è descritto da un funzionale che dipende dal numero di
elettroni, positroni e fotoni, dalla loro energia, dalla loro quantità di moto e dal momento
della quantità di moto intrinseco, lo spin. In elettrodinamica quantistica è definito uno stato
di vuoto: se a esso si applicano operatori di creazione, si generano nuovi stati contenenti
un qualsiasi numero assegnato di elettroni, positroni e fotoni, con valori di energia-impulso
ed elicità definiti a priori. Il vuoto è lo stato del sistema che possiede il valore minimo del
quadrivettore energia-quantità di moto ed è invariante per trasformazioni di Lorentz, vale a
dire che, se si cambia il sistema di riferimento, il sistema permane in uno stato vuoto. La
teoria dei campi, e in particolare la QED, insegna che il vuoto è simile a un sistema
dinamico di spin nullo, il cui quadrivettore energia-quantità di moto tende ad avere
anch'esso un valore nullo. Come un campo di spin nullo, al vuoto possono essere
assegnati numeri quantici quali lo spin isotopico, la parità, la stranezza e così via.
2. Interpretazione grafica di alcuni processi di elettrodinamica
Da questi valori si deduce il rapporto tra la massa del muone positivo e dell'elettrone:
[10] formula.
[11] formula
[12] formula.
Il valore misurato da Polykarp Kusch e Henry Foley nel dicembre del 1947 era in accordo con il
calcolo di Schwinger. Il risultato sperimentale è:
[14] μ = − 2(1+a)μ0 s
[15] formula.
L'anomalia dell'elettrone
Il valore teorico dell'anomalia del momento magnetico dell'elettrone è:
Per calcolare ae si è fatto uso della costante α, misurata per il tramite dell'effetto Hall. Nella [16] il
primo e il secondo numero in parentesi indicano l'incertezza rispettivamente nel calcolo dei
termini A3 e A4, il terzo numero indica l'incertezza che proviene dall'errore della misura di α. Il
calcolo dell'anomalia è al quarto ordine in α e il risultato teorico è in accordo (entro 1,7 deviazioni
standard) con la misura sperimentale, che è:
tra due livelli energetici dell'elettrone sottoposto al campo magnetico. Un risultato preliminare
riportato da Brian Odom nella propria tesi di dottorato all'Università di Harvard nell'ottobre 2004
è:
Gli esperimenti condotti negli anelli di collisione (collider) e+e− oppure e−e− coinvolgono reazioni
con alta quantità di moto trasferita. Il capostipite degli anelli di collisione e+e− fu AdA, una
macchina relativamente modesta ma innovativa, costruita a Frascati nel 1960 su progetto di Bruno
Touschek. Il sistema di riferimento privilegiato si rivela quello del centro di massa, in cui il
quadrivettore energia-quantità di moto di una particella può contribuire per intero alla creazione
di nuovi stati fisici. Gli esperimenti presso gli anelli di collisione (e+e−) e (e−e−) hanno verificato le
previsioni della QED a distanze dell'ordine di 10−18 m, stabilendo che le equazioni di Maxwell
quantizzate e la corrente di Dirac forniscono risultati corretti. Gli anelli di collisione del tipo LEP
(Large electron-positron collider) sono strumenti possenti, atti a fornire una notevole statistica per
lo studio di nuove particelle. I processi fisici che sono stati studiati alle alte energie sono:
Nella fig. 4 sono rappresentati tre diagrammi di Feynman al primo ordine nella costante di
struttura fine, che descrivono alcune reazioni misurate con crescente precisione e a energie
sempre più elevate; nella figura sono anche indicati i q2 di genere spazio e di genere tempo nel
centro di massa del sistema. Le sezioni d'urto differenziali misurate sono confrontate con quelle
calcolate teoricamente, mediante l'introduzione dei cosiddetti fattori di forma: un'eventuale
violazione della QED potrebbe manifestarsi per grandi valori della quantità di moto associata al
propagatore del fotone, del muone o dell'elettrone, oppure ai vertici muone-fotone o elettrone-
fotone; propagatori e vertici possono essere moltiplicati per fattori di forma che stabiliscono un
limite per il quadrimpulso trasferito, in corrispondenza del quale la QED potrebbe perdere validità.
Si tratta di un modello dalla valenza eminentemente pratica, che permette di confrontare risultati
di differenti esperimenti, ma non va dimenticato che le situazioni fisiche cui si riferiscono sono tra
loro ben diverse. I risultati appena descritti si possono esprimere introducendo una lunghezza
fondamentale, che descrive la non località delle interazioni tra leptoni e
fotoni: l0≃ℏℏ/Λc≤5∙10−16 cm, dove Λ indica un 'taglio', che dagli esperimenti condotti presso
l'elettrosincrotrone Desy in Germania risulta dell'ordine di 500 GeV.
L'elettrodinamica quantistica è una teoria verificata con notevole precisione, che descrive
l'interazione della carica elettrica con il campo elettromagnetico ed è il modello di riferimento per
la costruzione di moderne teorie di campo. Nonostante i successi riportati, si ritiene che il
processo che è alla base della QED costituisca una questione non ancora risolta: la
rinormalizzazione appare come una teoria troppo complicata per descrivere un fenomeno fisico
fondamentale quale l'interazione tra la carica elettrica e il campo elettromagnetico, e d'altra parte
sarebbe opportuno avere una formulazione teorica da cui fossero escluse le divergenze. La
possibilità di raggiungere energie sempre più elevate aiuterà, forse, a comprendere sempre meglio
l'interazione tra la carica elettrica e il campo elettromagnetico. Gli esperimenti realizzati mediante
gli anelli di collisione e+e−, sia al Single linear collider (SLC) a Stanford (Stati Uniti), sia al LEP e al
CERN (Ginevra) hanno raggiunto energie tali da consentire la produzione dei bosoni vettoriali
pesanti Z0 e W±, permettendo la verifica del Modello Standard della teoria elettrodebole con una
precisione superiore a una parte su diecimila. Il LEP, in particolare, raggiungendo una energia di
200 GeV nel centro di massa per l'interazione e+e−, ha messo in evidenza i contributi delle
correzioni radiative alla produzione dei bosoni vettoriali e ha mostrato come l'elettrodinamica
quantistica e la teoria delle interazioni deboli si unifichino nella teoria elettrodebole intorno ai 100
GeV.
Bethe, Salpeter 1957: Bethe, Hans A. - Salpeter, Edwin E., Quantum mechanics of one-
and two-electron atoms, Berlin, Springer, 1957.
Brown, Gabrielse 1986: Brown, Lowell S. - Gabrielse, Gerald, Geonium theory: physics of
a single electron or ion in a Penning trap, "Review of modern physics", 58, 1986, pp. 233-
311.
Combley, Picasso 1974: Combley, Fred - Picasso, Emilio, The muon (g-2) precession
experiments: past, present and future, "Physics reports", 14, 1974, pp. 1-58.
Dirac 1959: Dirac, Paul A.M., I principi della meccanica quantistica, Torino, Boringhieri,
1959 (ed. orig.: The principles of quantum mechanics, Oxford, Clarendon, 1939).
Farley, Picasso 1990: Farley, Francis J.M. - Picasso, Emilio, The muon (g-2) experiments,
in: Quantum electrodynamics, edited by Toichiro Kinoshita, Singapore, World Scientific,
1990, pp. 474-553.
Farley, Semertzidis 2004: Farley, Francis J.M. - Semertzidis, Yannis K., The 47 years of
muon g-2, "Progress in particle and nuclear physics", 52, 2004, pp. 1-83.
Kinoshita 1990: Kinoshita, Toichiro, Theory of the anomalous magnetic moment of the
electron. Numerical approach, in: Quantum electrodynamics, edited by Toichiro Kinoshita,
Singapore, World Scientific, 1990, pp. 218-314.
Martyn 1990: Martyn, H.U., Test of QED by high energy electron-positron collisions,
in: Quantum electrodynamics, edited by Toichiro Kinoshita, Singapore, World Scientific,
1990, pp 92-156.
Mehra, Rechenberg 1987-2001: Mehra, Jagdish - Rechenberg, Helmut, The historical
development of quantum theory, New York, Springer, 1987-2001, 6 v.
Pipkin 1990: Pipkin, Francis M., Lamb shift measurements, in: Quantum electrodynamics,
edited by Toichiro Kinoshita, Singapore, World Scientific, 1990, pp. 696-773.
Schiff 1952: Schiff, Leonard I., Meccanica quantistica, Torino, Edizioni Scientifiche
Einaudi, 1952, pp. 473-558 (ed. orig.: Quantum mechanics, McGraw-Hill, New York,
1949).
Van Dyck 1990: van Dyck, Robert S. jr, Anomalous magnetic moment of single electrons
and positrons: experiment, in: Quantum electrodynamics, edited by Toichiro Kinoshita,
Singapore, World Scientific, 1990, pp. 3
tEORIA CUANTICA YANG MILLS
INTEGRAL DE CAMINO DE FEYNMAN
La massa dei costituenti, o massa efficace, è una sorta di
"massa effettiva" che i quark hanno quando si trovano legati
all’interno di un adrone (come il protone) o di un mesone (come
il pione). Ricordiamo che le particelle elementari si dividono in
queste due famiglie a seconda, rispettivamente, che siano
composte di tre quark o di un quark e di un antiquark. Essendo le
forze che legano tre quark in qualche modo diverse da quelle che
legano un quark ed un antiquark, si parla di massa effettiva negli
adroni e nei mesoni.
Per chi si chiedesse che senso abbia dare due definizioni di massa
dei quark, a seconda che si trovino o meno all’interno di un
sistema legato, ricorrerò al parallelo del cucchiaino: una cosa è
girare un cucchiaino in una tazza piena di tè, altra cosa è girarlo
in una tazza piena di miele. Se noi non sapessimo che cosa
contiene la tazza, diremmo che nel secondo caso il cucchiaino è
molto più pesante. In un certo senso è quello che facciamo con i
quark: data la nostra fondamentale ignoranza sui dettagli del
"brodo" in cui sono immersi i quark dentro al protone, ricorriamo
al trucco della massa dei costituenti.
The Standard Model is conceptually simple and contains a description of the elementary particles
and forces. The SM particles are 12 spin-1/2 fermions (6 quarks and 6 leptons), 4 spin-1 ‘gauge’ bosons
and a spin-0 Higgs boson. These are shown in the figure below and constitute the building blocks of the
universe. The 6 quarks include the up and down quarks that make up the neutron and proton. The 6
leptons include the electron and its partner, the electron neutrino. The 4 bosons are particles that
transmit forces and include the photon, which transmits the electromagnetic force. With the recent
observation of the tau neutrino at Fermilab, all 12 fermions and all 4 gauge bosons have been observed.
Seven of these 16 particles (charm, bottom, top, tau neutrino, W, Z, gluon) were predicted by the
Standard Model before they were observed experimentally! There is one additional particle predicted
by the Standard Model called the Higgs, which has not yet been observed. It is needed in the model to
give mass to the W and Z bosons, consistent with experimental observations. While photons and gluons
have no mass, the W and Z are quite heavy. The W weighs 80.3 GeV (80 times as much as the proton)
and the Z weighs 91.2 GeV. The Higgs is expected to be heavy as well. Direct searches for it at CERN
dictate that it must be heavier than 110 GeV.
The matter and force particles of the Standard Model. Up and down quarks were observed for
the first time in electron-scattering experiments at SLAC in the late 1960s. The 1990 Nobel Prize in
physics for this discovery was awarded to SLAC's Richard Taylor and to Jerome Friedman and Henry
Kendall from MIT. The charm quark was discovered simultaneously in experiments at SLAC and at
Brookhaven in 1974. SLAC's Burton Richter and MIT's Samuel Ting shared the 1976 Nobel Prize in
physics for this discovery. The tau lepton was discovered at SLAC in 1975, for which SLAC's Martin
Perl was awarded the 1995 Nobel Prize in physics.
The SM particles are considered to be point-like, but contain an internal ‘spin’ (angular momentum)
degree of freedom which is quantized and can have values of 0, ½ or 1. Spin-1/2 particles obey Fermi
statistics, which have as a consequence that no 2 electrons can be in the same quantum state. This
feature is necessary for forming atoms more complex than hydrogen. Spin-1 and spin-0 particles obey
Bose-Einstein statistics, which prefer to have many particles in the lowest energy or ground state. This
phenomenon is responsible for superconductivity.
The Standard Model says that forces are the exchange of gauge bosons (the force particles) between
interacting quarks and leptons. Feynman diagrams are useful to describe this pictorially. As illustrated in
the figures below, two electrons may interact by scattering and exchanging a photon; or an electron and
positron may collide and annihilate to form a Z particle, which then decays into a quark and anti-quark.
Electromagnetic forces occur via exchange of photons; weak nuclear forces occur via exchange of W
and Z particles; and strong nuclear forces occur via exchange of gluons. Electromagnetic forces and
interactions are familiar to everyone. They are responsible for visible light and radiowaves, and are the
physics behind the electronics and telecommunications industries. All quarks and leptons can interact
electromagnetically. Strong nuclear forces are responsible for holding protons and neutrons together
inside the nucleus, and for fueling the power of the sun. Only quarks interact via the strong interaction.
Weak nuclear forces are responsible for radioactivity and also for exhibiting some peculiar symmetry
features not seen with the other forces. In contrast to electromagnetic and strong forces, the laws of
physics (ie. the strengths of the forces) for the weak force are different for particles and anti-particles (C
Violation), for a scattering process and its mirror image (P Violation), and for a scattering process and
the time reversal of that scattering process (T Violation). All quarks and leptons can interact via the
weak interaction. The Standard Model provides much more than simply a description of
electromagnetic, strong and weak interactions. Its mathematics provides explicit and accurate
calculations for the rates at which these processes take place and relative probabilities for decays of
unstable particles into other lower mass particles (such as for a Z particle to decay into different types of
quarks and leptons).
Feynman diagram for an
Feynman diagram for a weak interaction in electron-
electromagnetic interaction in electron-
positron annihilation to a Z0, which then decays to a
electron scattering by exchange of a
quark-antiquark pair.
photon.
BOSON HUGGIS
Il Modello Standard infatti, non riesce a predire la massa del bosone di Higgs. Come nota,
aggiungo che la massa, in fisica delle particelle, si misura in elettronvolt. Infatti, grazie
all’equivalenza di massa energia spiegata dalla famosa formula di Einstein E=mc^2, possiamo
usare indifferentemente unità di massa o di energia (con il piccolo trucco di porre la velocità della
luce pari ad 1). Si trova così che 1 Giga electron volt, 1 GeV è pari a 1.78 × 10^-27 kg. Ora,
risulta che se la massa del bosone di Higgs fosse tra 115 e 180 GeV il Modello Standard
rimarrebbe valido fino alla “Scala di Planck”, cioè ad energie pari a 10^16 TeV. Se la massa del
bosone di Higgs eccedesse gli 1.4 TeV, allora il Modello Standard risulterebbe non valido, e
andrebbe messo completamente in discussione.
Come fare a cercare il bosone di Higgs all’LHC? Il modo principale per creare il bosone di Higgs
all’LHC è tramite il meccanismo di fusione gluonica, rappresentato nel diagramma di Feynman
qui di seguito:
Il problema del rumore di fondo, o “background”, è un problema molto serio, e immagino che
sarà uno dei punti principali nella discussione di domani. Per osservare l’esistenza dell’Higgs,
infatti, non si può “vederlo” in maniera diretta, ma bisogna dedurre la sua esistenza
misurandone i prodotti di decadimento. L’Higgs può decadere in una lunga serie di particelle
secondarie ma, oggi come oggi, solo un paio di “canali” sono rimasti aperti, mentre la maggior
parte dei possibili modi di decadimento dell’Higgs sono stati esclusi da esperimenti precedenti
(come quelli effettuati al Tevatron) o dall’LHC stesso.
Il canale di decadimento principale di cui sentirete parlare domani è la creazione di due fotoni
gemelli. Se la massa dell’Higgs fosse veramente 125 GeV si dovrebbero misurare due fotoni
gemelli di 62,5 GeV ciascuno. Il problema è che durante uno degli scontri che avvengono
all’LHC di fotoni se ne creano una marea! E con loro ogni genere di particelle: elettroni, pioni,
adroni… chi più ne ha più ne metta! Come si fa a capire che i fotoni che misuriamo siano
proprio quelli prodotti dall’Higgs? Eh, questa è proprio la domanda da un milione di dollari che
si fanno tutti i ricercatori e studenti del CERN.
La risposta sta nel duro lavoro di comprensione della fisica coinvolta e molta molta
programmazione. È importante costruire modelli teorici per riprodurre separatamente sua il
“background”, ovvero il rumore, i segnali e le particelle che non ci interessano e che disturbano
la nostra misura, e il segnale, che sono le particelle che vogliamo vedere noi. Il valore
dell’analisi, e quindi il valore della scoperta finale, sta proprio nell’affidabilità di questi modelli.
Confrontando i modelli che ci si aspetta con le misure che vengono fatte, possiamo dire infine
quale sia la probabilità che una certa misura (per esempio vedere i due fotoni a 62,5 GeV) sia
in accordo con un determinato modello teorico.
un decadimento .
Ad esempio, nel doppio decadimento , due neutroni del nucleo sono convertiti in due
protoni, con l'emissione di due elettroni e due antineutrini. Il processo fu osservato per la prima
volta nel 1986. È il processo di decadimento più raro conosciuto; è stato osservato per soli 10
isotopi, e tutti avevano una vita media maggiore di 1019 anni.
Per alcuni nuclei, il processo elementare è interpretabile come conversione di due protoni in
due neutroni, l'emissione di due neutrini elettronici e l'assorbimento di due elettroni atomici
(doppia cattura elettronica). Se la differenza di massa tra i genitori e i figli è maggiore di
1022 keV (due volte la massa dell'elettrone), un altro ramo del processo è possibile, con la
cattura di un elettrone atomico e l'emissione di due positroni. Inoltre, se la differenza di massa
è maggiore di 2044 keV (quattro volte l'elettrone), un terzo ramo si apre, con l'emissione di due
positroni. Tutte questi tipi di decadimenti beta sono stati predetti, ma mai osservati.
Doppio decadimento beta senza neutrini[modifica | modifica
wikitesto]
Diagramma di Feynman di un doppio decadimento beta in assenza di neutrini, con due neutroni che
decadono in due protoni. I soli prodotti emessi in questo processo sono due elettroni. Questo può
accadere se il neutrino e l'antineutrino sono la stessa particella (cioè un neutrino di Majorana). In tal caso
lo stesso neutrino può essere emesso e assorbito all'interno del nucleo. Nel doppio decadimento beta
convenzionale vengono emessi dal nucleo due elettroni e due antineutrini, uno da ogni vertice con un
bosone W. La rivelazione di un doppio decadimento beta sarebbe quindi una dimostrazione che i neutrini
sono particelle di Majorana.
I processi descritti prima sono conosciuti come doppio decadimento beta con neutrini, in
quanto sono emessi due neutrini (o antineutrini). Tuttavia, qualora neutrino ed antineutrino non
fossero particelle realmente distinte, cioè se fossero particelle di Majorana, sarebbe possibile
osservare un doppio decadimento beta senza neutrini. Nel doppio decadimento beta senza
neutrini, l'antineutrino emesso è assorbito immediatamente da un altro nucleone del nucleo.
Quindi, la somma delle energie totali dei due elettroni è esattamente pari alla differenza
dell'energia di legame tra il nucleo iniziale e quello finale.
Esistono diversi esperimenti in corso per lo studio del doppio decadimento beta senza neutrini.
La sua scoperta indicherebbe che il neutrino e l'antineutrino sono la stessa particella. Un
modello teorico, attualmente tra i migliori, che possa descrivere questo fenomeno è quello
sviluppato da Majorana.
Uno degli esperimenti per lo studio del doppio decadimento beta è stato NEMO-3. Questo
esperimento è stato condotto in un laboratorio sotterraneo all'interno del traforo del Frejus, nei
pressi di Modane. La presa dati è iniziata nel gennaio 2003 ed è terminata nel gennaio del
2011. In questi otto anni non è stato osservato alcun doppio decadimento beta in assenza di
neutrini. L'esperimento NEMO-3 sarà seguito dal "SuperNEMO", un esperimento analogo ma
condotto con apparecchiature più potenti.
Nel novembre del 2010 è stato inaugurato in Italia l'esperimento GERDA. Anche questo
esperimento ha come obiettivo la ricerca del doppio decadimento beta in assenza di
neutrini[1] [2]. Durante la prima fase di raccolta dati dell'esperimento, iniziata a novembre 2011 e
terminata a maggio 2015, non sono stati osservati eventi di doppio decadimento beta in
assenza di neutrini [3]. Nel dicembre 2015 è iniziata la seconda fase della raccolta dati.
Beta Decay
Decay is basically a loss of energy where the parent nuclide transforms either into a stable
nucleus in a different state or into nuclei of different number of protons and neutrons.
The radioactive decay is a process by which an unstable atomic nucleus loses its energy by
emitting ionizing particles.
There are commonly three types of decay which an unstable nucleus may undergo.
1. Alpha Decay
2. Beta Decay and
3. Gamma Decay.
At a time, either alpha or beta particle is emitted. Both alpha and beta particles are not
emitted during a single decay.
The beta decay is classified into two types based on the type of the particle it emits.
The Beta decay can also be understood by the help of the radioactive decay equation.
Starting with the beta minus decay (β−β−), the equation is given by:
ZA ---------------> Z+1A + e + νe¯νe¯. .................................(a)
N N -
From the equation, it is clear that the daughter nucleus contains one proton more than the parent nucleus.
From this type of decay the parent atom converts to next higher neighbor in the periodic table.
Beta Minus Decay is one of the two types of the beta decay in which a neutron in the nucleus decays into a
proton, electron and an antineutrino.
In this process, the emitted particle is electron and hence it is named as beta minus decay.
The beta minus decay is also known as electronic emission. This decay occurs generally in
the nuclei which are rich in neutrons.
As seen from the reaction below a neutron is decayed into proton, electron and antineutrino.
n -----------> p + e- + νe¯νe¯
where, n is neutron,
p is proton,
e- is electron and
νe¯νe¯ is antineutrino.
Beta Plus Decay
Back to Top
The Beta Plus Decay is also known as positron emission because of the fact that the particle
emitted in this type of beta decay is positron. This type of decay occur when a proton decay to form
neutron, positron (positively charged electron) and a neutrino.
The Double beta decay occurs when an unstable nucleus releases two beta
particles in the single process.The double beta decay could be either of plus decay or
minus decay type, wherein either two neutrons or protons decayed to form a stable nucleus
with larger binding energy in the nucleus.
The double decay is the rarest phenomenon and theoretically 35 isotopes are capable of
double beta decay but it is observed for only 12 of 35 isotopes. This process is only allowed
if after the decay the binding energy of the daughter nucleus be larger than the binding
energy of the parent nucleus.
The following figure gives the double beta decay, where the two neutrons converted into
two protons and two electrons are emitted by the process.
As from the name it is evident that the process is the reverse of the beta decay. In inverse beta
decay, a proton rich nucleus capture a lower orbital electron and changes its state to the neutron
thereby emitting a neutrino. This process is also known as electron capture. This type of decay is
primary mode decay in Radioisotopes which have abundance of the protons in its nucleus.
In this process, the number of neutron and proton changes by 1 hence the atomic mass remains
same and the nuclide is transformed into new element. The newly formed element is in excited
state due to the absence of the inner shell electron and hence may go through further different
types of decay before being in the normal state of the newly formed element.
Abstract (arXiv)
The possibility to probe new physics scenarios of light Majorana neutrino exchange and right-
handed currents at the planned next generation neutrinoless double beta decay experiment
SuperNEMO is discussed. Its ability to study different isotopes and track the outgoing electrons
provides the means to discriminate different underlying mechanisms for the neutrinoless double
beta decay by measuring the decay half-life and the electron angular and energy distributions.
A uranium-238 nucleus is unstable. It will spontaneously decay into a Thorium-234 nucleus, releasing an alpha
particle (He-4 nucleus). The combined mass of the alpha particle and thorium nucleus is slightly less than that
of the original uranium nucleus. The difference accounts for the energy released. As Einstein showed, mass
can be converted into energy (E = m.c2).
Beta decay occurs when a neutron either within a radioisotope or as a free neutron spontaneously
decays to form a proton, an electron and an electron antineutrino. The emitted electron has high
kinetic energy and is called a beta (β) particle. Beta decay is a weak nuclear interaction with the
W - particle acting as the force carrier (intermediate vector boson).
A neutron undergoes spontaneous beta decay to form a proton, a high energy electron (β particle) and an
electron antineutrino. Whilst atomic and mass numbers are conserved in the process the combined mass of
the products is slightly less than the original neutron mass. This accounts for the energy released.
Many radioisotopes undergo beta decay. The example below shows the beta decay of a Thorium-
234 nucleus (which is initially produced by alpha decay of U-238 as shown above).
Beta decay of Thorium-234 results in a high energy electron (beta particle) being released from the nucleus
plus an electron antineutrino (not shown in diagram). The daughter nucleus thus formed has the same mass
number of 234 as the parent but is one higher in atomic number as the decaying neutron has changed into a
proton which is retained within the nucleus. The Protactinium-234 nucleus still contains excess energy which it
gets rid of almost instantaneously by emitting a high energy gamma photon, a gamma ray.
Beta particles have a charge of -1 and a mass number of 0 though they still have an actual rest mass
about 1/1850th that of a proton.
Both alpha and beta decay events often produce daughter nuclei that still possess too much energy
and are intrinsically unstable. These nuclei may spontaneously and almost instantaneously emit a
high energy photon in the gamma radiation region of the electromagnetic spectrum. The photons are
generally termed gamma rays (γ). Emission of a gamma photon does not alter the mass or atomic
number of the daughter nucleus but does lower its energy.
Positively-charged alpha particles are deflected in the direction of the E field lines. Negatively-charged beta
particles are deflected in the opposite direction to that of the E field lines.
The direction of deflection for charged particles may be determined using Fleming's left hand rule. Positively-
charged alpha particles will be deflected in the opposite direction to that of negatively-charged beta particles.
Particle physics research during the second half of the 20th century helped establishing a simple and
comprehensive description known as the Standard Model. 12 elementary particles, 6 quarks and 3 lepton
pairs, grouped in 3 families, and 12 associated anti-particles:
Elementay particles
1st Family 2nd Family 3rd Family
u "up" c "charm" t "top"
Quarks
d "down" s "strange" b "bottom"
All four known interactions (gravity, electromagnetism, weak and strong interactions) are described through an
exchange of bosons as mediating particles between the quarks and leptons.
The neutrino of the Standard Model is massless and appears to have three flavors (e, μ et τ). Its only way to
interact is the weak one: for instance, during a β decay, a u quark turns into a d quark by emitting a charged
particle, the W - boson, and subsequently decays into an electron/anti-neutrino pair.
Fig. 1. Décroissance β
The Standard Model has long earned its reputation as a reliable tool for the understanding of particle physics
and for numerous and precise predictions which turned out to be correct. Nonetheless, as a model, some limits
to its capabilities are to be found.
The very fact that neutrinos oscillate (transition from one flavor to the other while the neutrino moves), which
was observed in the Super-Kamiokande experiment in 1998 and later confirmed by many other experiments
like SNO and KamLAND, proves that the neutrinos are not massless. This implies physical processes beyond
the Standard Model.
Oscillation experiments do not give an absolute mass, but only mass differences. Now, it is crucial to measure
the neutrino mass, which we already know is extremely small (at least a thousand times less than that of the
electron), and this alone is already an enigma.
Not only the mass, but the nature of the neutrino has to be inquired. Ettore Majorana demonstrated that, as a
neutral particle, the neutrino could be its own anti-particle. We call such a neutrino a Majorana particle,
whereas it would be a Dirac particle in the opposite case. In order to explain the formation of the Universe with
its mater/anti-matter asymmetry, most of the models rely on a Majorana neutrino-type! Talk about the huge
impact in the Universe of such a tiny particle!
If the neutrino happens to be a Majorana one, then it opens the door for a process forbidden by the the
Standard Model: the double-beta decay without emission of a neutrino. And then, apart from solving the
enigma of the nature of the neutrino, what was out of reach for oscillation experiments, we have found the way
to measure its absolute mass.
The double-beta decay with neutrino emission (2β2ν) is a seldom process with a half-life of some 1019years.
Seldom, but observed: for some nuclei, a simple β decay to the daughter nucleus is not energetically possible,
whereas two simultaneous decays are allowed.
For a Majorana neutrino, one of the two emitted anti-neutrinos might well be seen as a neutrino by the second
neutron and consequently absorbed during the second process instead of being emitted. In this particular
case, there is no neutrino emission. Such a sequence of events should occur far less often then the 2β2ν
decay, with a half-life around 1025 years!
Conversely, il there is no neutrino emitted, the total energy carried by the two electrons will be exactly Q and
ββ
Such a signal is the observable signature of the neutrinoless double-beta decay that experiments like NEMO
look for.
Diagrama de Feynman
https://es.wikipedia.org/wiki/Diagrama_de_
Feynman
Los diagramas de Feynman en física, son gráficos que representan las trayectorias de las
partículas en las fases intermedias de un proceso de colisión para resolver de manera eficaz
los cálculos implicados en dicho proceso, procedentes de la teoría cuántica de campos.1 Su
autor es el físico estadounidense Richard Feynman que los introdujo por vez primera en 1948,
publicándose su caracterización en un famoso artículo de 1949.2 También son utilizados en
otras teorías para resolver problemas de muchos cuerpos como en la física del estado sólido.
El problema de calcular secciones eficaces de dispersión en física de partículas se reduce a
sumar sobre las amplitudes de todos los estados intermedios posibles, en lo que se conoce
como expansión perturbativa. Estos estados se pueden representar por los diagramas de
Feynman cuyo cálculo resulta menos complejo y más ilustrativo que el proveniente de la
expresión matemática directa. Sin embargo, han de sumarse todos los términos del desarrollo
perturbativo y, en ocasiones, puede no resultar convergente. Feynman mostró cómo calcular
las amplitudes del diagrama usando, las así llamadas, reglas de Feynman, que se pueden
derivar del lagrangiano subyacente al sistema. Cada línea interna corresponde a un factor
del propagador de la partícula virtual correspondiente; cada vértice donde las líneas se reúnen
da un factor derivado de un término de interacción en el lagrangiano, y las líneas entrantes y
salientes determinan restricciones en la energía, el momento y el espín.
Además de su valor como técnica matemática, los diagramas de Feynman proporcionan
penetración física profunda a la naturaleza de las interacciones de las partículas. Las
partículas obran recíprocamente en cada modo posible; de hecho, la partícula "virtual"
intermediaria se puede propagar más rápidamente que la luz.3 La probabilidad de cada
resultado entonces es obtenida sumando sobre todas tales posibilidades. Esto se liga a la
formulación integral funcional de la mecánica cuántica, también inventada por Feynman —
véase la formulación integral de trayectorias.
El uso ingenuo de tales cálculos produce a menudo diagramas con amplitudes infinitas, lo que
es intolerable en una teoría física. El problema es que las auto-interacciones de las partículas
han sido ignoradas erróneamente. La técnica de la renormalización, iniciada por
Feynman, Schwinger, y Tomonaga, compensa este efecto y elimina los términos infinitos
molestos. Después de realizada la renormalización, los cálculos de diagramas de Feynman
emparejan a menudo resultados experimentales con exactitud muy buena. El diagrama de
Feynman y los métodos de la integral de trayectorias también se utilizan en la mecánica
estadística.
Murray Gell-Mann se refirió siempre a los diagramas de Feynman como diagramas de
Stückelberg,4 por el físico suizo Ernst Stückelberg que ideó una notación similar.
Índice
[ocultar]
1Interpretación
2Significado y aplicación
3Construcción
4Propagadores
5Ejemplos
6Bucles
7Reglas de Feynman
o 7.1Fotones
o 7.2Bosones Z
o 7.3Bosones W
o 7.4Gluones
o 7.5Bosones de Higgs
8Tipos de diagramas de Feynman
9Estado Sólido. Analogía física
10En la cultura popular
11Bibliografía
12Referencias externas
13Notas y referencias
14Véase también
Interpretación[editar]
Los diagramas de Feynman son realmente una manera gráfica de no perder de vista
los índices de Witt como la notación gráfica de Penrose para los índices en álgebra multilineal.
Hay varios diversos tipos para los índices, uno para cada campo (éste depende de cómo se
agrupan los campos; por ejemplo, si el campo del quark "up" y el campo del quark "down" se
tratan como campos diversos, entonces habría diversos tipos asignados a ambos pero si se
tratan como un solo campo de varios componentes con sabores, entonces sería solamente un
tipo); los bordes, (es decir los propagadores) son tensores de rango (2,0) en la notación de de
Witt (es decir con dos índices contravariantes y ninguno covariante), mientras que los vértices
de grado n son tensores covariantes de rango n que son totalmente simétricos para todos los
índices bosónicos del mismo tipo y totalmente antisimétricos para todos los índices
fermiónicos del mismo tipo y la contracción de un propagador con un tensor covariante de
rango n es indicado por un borde incidente a un vértice (no hay ambigüedad con cual índice
contraer porque los vértices corresponden a los tensores totalmente simétricos). Los vértices
externos corresponden a los índices contravariantes no contraídos.
Una derivación de las reglas de Feynman que usa integral funcional gaussiana se da en el
artículo integral funcional. Cada diagrama de Feynman no tiene una interpretación física en sí
mismo. Es solamente la suma infinita sobre todos los diagramas de Feynman posibles lo que
da resultados físicos.
Desafortunadamente, esta suma infinita es solamente asintóticamente convergente.
Significado y aplicación[editar]
Los diagramas de Feynman son una representación gráfica abstracta de las interacciones
carga eléctrica del electrón con el fotón. Los índices y son las cuatro
Construcción[editar]
Los diagramas de Feynman se componen de agrupaciones de símbolos básicos,
representando ciertos tipos de partículas elementales. Los fermiones (partículas
materiales) están de acuerdo con la convención habitual de representarse mediante líneas
continuas con flecha. La flecha indica con su sentido si se trata de una partícula (en la
dirección de tiempo) o una antipartícula (en contra de la dirección del tiempo).
Casualmente, a menudo se presentan antipartículas, cuyo movimiento no tiene el
significado físico que les atribuye el diagrama. Para las letras de las líneas de partículas y
antipartículas, hay varias convenciones. En la mayoría de los casos se escribe el símbolo
exacto de la partícula. Sin embargo, algunos autores utilizan una notación más corta y
más general, que puede referirse tanto a la partícula como a la antipartícula (por
Fermión
Antifermión
Bosón de Higgs
Terminador
(por ejemplo, interacción del bosón de Higgs con un condensado6 )
Además, las etiquetas se utilizan para definir a qué partícula elemental se hace referencia:
Leptones
Bosones
Símbolo Significado
Símbolo Significado
Electrón
Fotón
Positrón
Muón
Bosón Z
Neutrino
Bosón W+
Bosón W−
Propagadores[editar]
Las líneas interiores son llamadas propagadores y se interpretan como partículas virtuales
que no pueden ser observadas. Debido a esto, hay una ambigüedad. Cualquier pareja de
gráficos con las mismas líneas de entrada y de salida son equivalentes, y se pueden
sumar entre sí.
Ejemplos[editar]
Dispersión de Møller
Para el cálculo de la dispersión de dos fermiones -dispersión de Møller- se tienen en
cuenta los diagramas de Feynman con dos electrones de entrada y dos de salida.
Las imágenes muestran la dispersión en el orden más bajo (a nivel de árbol). Las cuatro
líneas externas representan los fermiones entrantes y salientes y la línea de eje interior
virtual representa los fermiones que genera la interacción electromagnética.
Dos fermiones (por ejemplo, electrón y positrón) con un bosón de mediación virtual (por
ejemplo, un fotón)
Efecto Compton = +
Bucles[editar]
Además de los diagramas con estructura de árbol, el software para el cálculo exacto de
los llamados diagramas en bucle son de la mayor importancia.
ningún bucle
(árbol)
un bucle
(1-loop)
dos bucles
(2-loop)
dos bucles
(2-loop)
Los posibles diagramas de Feynman se pueden clasificar por el número de bucles
internos a medida que se conoce el fin de cada bucle, y como parte de un desarrollo en
serie se suman:
.
Hay una cantidad indefinida de diagramas posibles. Sin embargo, las contribuciones
de orden superior dependen de las potencias correspondientes determinadas a partir
Reglas de Feynman[editar]
Las reglas de Feynman describen qué interacciones son posibles y cuáles no lo son.
Fotones[editar]
Los fotones interactúan con todas las partículas elementales cargadas eléctricamente.
Representación para electrones y muones:
Interacción entre muones y fotones
Bosones Z[editar]
El bosón Z interactúa entre todas las demás partículas elementales del modelo
estándar con la excepción de los gluones; simultáneamente, los fotones sólo
Interacción entre los dos bosones W con carga diferente (la línea de tiempo corre de
arriba a abajo)
Interacción entre los dos bosones W con carga diferente y dos fotones (la línea de tiempo
corre de arriba a abajo)
Interacción entre los dos bosones W con carga diferente y dos bosones Z (la línea de
tiempo corre de arriba a abajo)
Interacción entre los dos bosones W con carga diferente, un bosón Z y un fotón (la línea
de tiempo corre de arriba a abajo)
Los bosones W son especialmente interesantes porque tienen permitido el cambio
de "sabor". Esto significa que el número de electrones, neutrinos, etc. puede cambiar.
Esta característica juega un papel importante acerca de la desintegración beta.
Gluones[editar]
Representación gráfica de la neutralización de las cargas a imagen de la mezcla de los
colores rojo, verde y azul, y de cada color con los otros dos colores
En la cultura popular[editar]
Este diagrama aparece en el decimotercer capítulo de la primera
temporada de la serie televisiva The Big Bang Theory.7
Bibliografía[editar]
Otto Nachtmann: Phänomene und Konzepte der
Elementarteilchenphysik. Vieweg, Braunschweig 1986, ISBN
3-528-08926-1.
Referencias externas[editar]
(Hyperphysics. Definiciones de la física de partículas. En
español. Visitado el 15-10-2015)
(Cuentos cuánticos. Diagramas de Feynman para Todos. En
español. Visitado el 15-10-2015)
("¿Qué son los diagramas de Feynman?" "Soy científico"
23/01/2015. En español. Visitado el 15-10-2015)
("Richard Feynman: Diagramas de Feynman" Javier García,.
Publicado en YouTube el 2/5/2015. Video docente. En
español. Visitado el 15-10-2015)
Wikimedia Commons alberga contenido multimedia
sobre Feynman-Diagramme.
«Using Feynman diagrams to illustrate particle interactions in
the Standard Model» (en inglés). 27 de febrero de 2013.
«CERN».
Martin Bäker (27 de febrero de 2013). «Wie funktionieren
Feynman-Diagramme?» (en alemán). Einfache Erklärung der
Berechnung von Feynman-Diagrammen. «ScienceBlogs».
Plip Tanedo (27 de febrero de 2013). «Let’s draw Feynman
diagrams!» (en inglés). «USLHC, Cornell University».
Carl Brannen (27 de febrero de 2013). «Feynman Diagrams
for the Masses (part 1)» (en inglés).
Carl Brannen (27 de febrero de 2013). «Feynman Diagrams
for the Masses (part 2)» (en inglés).
Notas y referencias[editar]
1. Volver arriba↑ Martinus Veltman. 1994. Diagrammatica: the
path to Feynman diagrams. Cambridge Lecture Notes in
Physics. ISBN 0-521-45692-4. (en inglés)
2. Volver arriba↑ ("Space-Time Approach to Quantum
Electrodynamics" R. P. Feynman. Phys. Rev. 76, 769 –
Published 15 September 1949. En inglés. Visitado el 15-10-
2015)
3. Volver arriba↑ Esto no viola la relatividad por razones
profundas; de hecho, ayuda a preservar la causalidad en un
espacio-tiempo relativista.
4. Volver arriba↑ ("The Jaguar and the fox"; The Atlantic. 7/2000.
George Johnson. Página visitada el 15/10/2015. En lengua
inglesa)
5. Volver arriba↑ Abrikosov, Gor'kov, Dzyaloshinskii: Quantum
field theory methods in statistical physics. Dover, 1961 und
1977, ISBN 0-486-63228-8.
6. Volver arriba↑ «Demystifying the Higgs Boson with Leonard
Susskind» (en inglés). 16 de agosto de 2012. Consultado el 27
de febrero de 2013. «YouTube».
7. Volver arriba↑ «The Bat Jar Conjecture». Internet Movie
Database (en inglés). Consultado el 26 de septi
Núcleos y partículas
¿De qué están hechos los núcleos y cómo se mantienen unidos? la bomba atómica tiene que ver
con cambios en el interior del núcleo, mientras que la explosión de TNT tiene que ver con cambios
de los electrones en el exterior de los átomos.
Yukawa sugirió que las fuerzas entre neutrones y protones también tienen algún tipo de campo, y
que cuando este campo se agita se comporta como una partícula.
Además del protón y el neutrón, para tener fuerzas nucleares de hemos añadir el pión. Ahora
ustedes dirán: «¡Qué grande!, hagamos con esta teoría la nucleodinámica cuántica, utilizando los
piones tal como precisamente quería hacerlo Yukawa, y veamos si funciona, y entonces todo
quedará explicado». Mala suerte. Resulta que los cálculos implicados en esta teoría son tan
difíciles que nadie ha sido nunca capaz de calcular cuáles son las consecuencias de la teoría, o
comprobarla experimentalmente, y ¡esto ha estado sucediendo durante casi veinte años!
Resulta que hoy tenemos aproximadamente treinta partículas, y es muy difícil comprender las
relaciones entre todas estas partículas y para qué las quiere la naturaleza, o cuáles son los vínculos
entre unas y otras
Aunque todas las partículas salvo el electrón, el neutrino, el fotón, el gravitón y el protón son
inestables, sólo se han mostrado los productos de la desintegración para las resonancias. Las
asignaciones de extrañeza no son aplicables a los leptones, puesto que no interaccionan
fuertemente con los núcleos. Todas las partículas que están junto a los neutrones y los protones se
denominan bariones, y existen los siguientes: hay una partícula «lambda», con una masa de 1.154
MeV y otras tres, llamadas sigmas, menos, neutra y más, con masas diferentes pero casi iguales.
Hay grupos o multipletes casi de la misma masa, con una diferencia de un 1 o un 2 por 100. Todas
las partículas de un multiplete dado tienen la misma extrañeza. El primer multiplete es el doblete
protón-neutrón, y luego hay un singlete (el lambda), luego el triplete sigma, y finalmente el
doblete xi.
Hasta donde podemos decir, por todos los experimentos realizados hasta ahora, el electrón y el
muón sólo difieren en la masa. Todo funciona exactamente igual para el muón que para el
electrón, excepto que uno es más pesado que el otro. ¿Por qué hay uno más pesado que otro;
para qué sirve?
De hecho, parece haber sólo cuatro tipos de interacción entre partículas que, en orden de
intensidad decreciente, son la fuerza nuclear, las interacciones eléctricas, la interacción de la
desintegración-beta y la gravedad. El fotón se acopla a todas las partículas cargadas y la intensidad
de la interacción se mide por cierto número cuyo valor es 1/137. Se conoce la ley detallada de este
acoplamiento, que es la electrodinámica cuántica.
ECUACION DE SCHRODINGER
Por eso pudimos analizar la propagación de la onda piloto únicamente en el caso de una partícula
libre y no sabemos aún como tratar una partícula sometida a fuerzas. Falta, además, una relación
cuantitativa entre la onda y la partícula, que nos diga de qué forma la onda determina la
probabilidad de observar la partícula en un determinado lugar.
Resumiendo, hemos llegado al siguiente resultado:
Cuantificación de la energía en la teoría de Schrödinger: • si la relación entre Vx () y la energía
total E es tal que una partícula clásica está confinada (ligada), los niveles de energía permitidos son
discretos. • si esa relación es tal que una partícula clásica no está ligada, la energía total puede
tomar cualquier valor, de modo que los niveles de energía forman un continuo.
El conjunto de todos los niveles permitidos de la energía se denomina espectro de energía. En
general, entonces, el espectro de energía de una partícula cuya energía potencial es Vx () tiene una
parte discreta y una parte continua. Sólo cuando Vx () crece sin límite para x → ±∞ el espectro es
completamente discreto. Veremos que las conclusiones a que hemos llegado a partir de nuestra
discusión cualitativa se verifican en todos los casos específicos que estudiaremos.
El problema de la (7.36) es que para calcular la integral se precisaría expresar p en términos de x y
t. En un problema clásico, una vez resueltas las ecuaciones del movimiento se puede siempre
expresar p como función de x y t, pero no podemos hacer lo mismo en el caso cuántico, pues el
principio de incerteza establece que p y x no se pueden conocer simultáneamente con exactitud.
Luego hay que encontrar otra forma de expresar el integrando en términos de x y t. La forma que
buscamos se puede inferir considerando el caso de una partícula libre, cuya función de onda (ec.
7.8) es4
donde el operador ˆ(,,) f x p t se obtiene reemplazando5 p por el operador −ix h ∂∂ / en la función
f x p t (,,) que especifica la variable dinámica f. Estos resultados muestran que la función de onda,
además de determinar la densidad de probabilidad y la corriente de probabilidad como ya vimos,
contiene mucha más información, pues por medio de la (7.48) nos permite calcular el valor
esperado de cualquier variable dinámica. En realidad, la función de onda contiene toda la
información que podemos llegar a obtener acerca de la partícula, habida cuenta del principio de
incerteza.
QUIMICQ
la química teórica es de hecho física. la parte más profunda de la química teórica debe terminar en
la mecánica cuántica.
La mecánica estadística es entonces la ciencia de los fenómenos del calor. La química inorgánica,
como ciencia, está ahora reducida esencialmente a lo que se denominan química física y química
cuántica.
los principales problemas de la química orgánica no radican en estos aspectos, sino más bien en el
análisis y la síntesis de las sustancias que se forman en sistemas biológicos, en seres vivos. Esto
conduce imperceptiblemente, paso a paso, hacia la bioquímica, y luego a la propia biología, o la
biología molecular.
GRAVEDAD Y RELATIVIDAD
ley de la gravitación de Einstein. Una característica de esta nueva ley que es bastante fácil de
entender es la siguiente: en la teoría de la relatividad de Einstein, cualquier cosa que tenga energía
tiene masa; masa en el sentido de que es atraída gravitatoriamente.
Todavía no se ha encontrado ninguna de estas fuerzas nucleares o eléctricas que explique la
gravitación. Los aspectos mecanocuánticos de la naturaleza no han sido todavía trasladados a la
gravitación. Cuando la escala es tan pequeña que necesitamos los efectos cuánticos, los efectos
gravitatorios son tan débiles que la necesidad de una teoría cuántica de la gravitación no se ha
desarrollado todavía.
MECANICA CUANTICA
DERIVADA
la derivada de una función mide la rapidez con la que cambia el valor de dicha función
matemática, según cambie el valor de su variable independiente.
INTEGRAL
Las variaciones de una cantidad inciden en que otras cantidades cambien. Si se decide aumentar el
precio de un artículo la utilidad de la empresa ya no será la misma, probablemente la demanda
disminuya y la cantidad de materia solicitada cambiará. Si se aumenta la temperatura de un gas
contenido en un recipiente hermético la presión del gas sobre las paredes del recipiente aumenta.
Si aumentamos nuestro consumo diario de azucares probablemente aumente la insulina en
sangre. El cálculo diferencial trata del estudio del cambio de una cantidad cuando otra cantidad
que está relacionada con la primera varía.
Una manera de medir la relación entre los cambios de dos variables relacionadas es a través de la
tasa o razón de cambio promedio.
REGLAS DE DERIVACION
NUMERO ATOMICO