Está en la página 1de 27

CIEN AÑOS DE MECANICA CUANTICA

P. Kittl
Departamento de Mecánica
Universidad de Chile
Casilla 2777 - Correo 21
Santiago
CHILE

Resumen.

Se describe el desarrollo de la Mecánica Cuántica desde su comienzo en


1900 hasta nuestros días. Se mencionan los principales creadores, comentando brevemente
sus contribuciones, desde Planck y Einstein hasta la actualidad. Se da cierta amplitud a la
discusión de los experimentos cruciales como el de interferencia y el E.P.R. (Einstein,
Podolsky y Rosen). También la interpretaciones de Copenhage de Bohr, de los universos
múltiples de Everett, la transacional de Cramer y la suma de todas las historias de
Feynman. Se establece con bastante certeza que un sistema cuántico local, no solo conoce
todo lo que ocurre en el universo, sino todo lo que ha ocurrido y que ocurrirá.

El estado de la Física a fines del siglo 19 se suponía que era estable. Un


universo infinito, que existía desde un tiempo infinito y prolongándose indefinidamente en
el tiempo; con un espacio absoluto, y un tiempo cósmico, es regido por la mecánica
Newtoniana, con sus principios de conservación de la energía, el impulso, el momento de la
cantidad de movimiento; con conservación de la masa, que en última instancia se reducía a
partículas materiales - átomos con trayectorias continuas en función del tiempo; existencia
de reglas rígidas donde una señal se podrá trasmitir en forma instantánea; y finalmente todo
esto conservándose invariante para una transformación de Galileo, además estaba el campo
gravitatorio que llenaba todo el espacio. En otro orden de cosas existían las cargas
eléctricas, con su campo electromagnético y el principio de conservación de la cantidad de
electricidad. Este campo electromagnético podría existir sin tener asiento en la materia,
propagándose como una onda que, con sus fenómenos de interferencia y difracción
explicaba el comportamiento de la luz que era una onda electromagnética. Una propiedad
importante que no debe olvidarse es que un haz luminoso puede dividirse y recomponerse
con un vidrio semiazogado. El electromagnetismo era invariante para un tipo de
transformación que descubrió Voigt y que luego se llamo de Lorentz. Finalmente la
termodinámica con sus dos principios y su vinculación, a través de la estadística de
Maxwell-Boltzman, con la mecánica.

Este era el mundo de la física que llamamos clásica y que existía a fines del
siglo 19. Muchos creían que ya este edificio estaba terminado y que solo faltaban detalles.
Sin embargo había algunas señales que indicaban que debían hacerse algunas
modificaciones fuertes. En una dirección, los fenómenos de la radiación del cuerpo negro,
la llamada catástrofe del ultravioleta, el espectro de los átomos de materia que emitían
radiación y el efecto fotoeléctrico. En otra dirección la incompatibilidad del
electromagnetismo y la mecánica, el uno invariante para la transformación de Lorentz y
el otro para la de Galileo, algebraicamente diferentes, aunque coincidentes para la
velocidad de la luz igual a infinito. Otra indicación de que graves problemas se avecinaban
provenía de la fotografía, ya descubierta alrededor de 1830. El sistema óptico conducía a
la luz hasta la placa fotográfica como onda, llegaba a ella como onda plana, pero al llegar
impresionaba algunos gramos de la emulsión fotográfica, no todos. Llegando a la placa se
comportaba como compuesta de partículas. Incluso cuando la intensidad luminosa era
bajísima se podía lograr muy pocos puntos de ennegrecimiento, cambiando la placa y
superponiendo los puntos se podrá deducir que este proceso, que era de orden
probabilístico, reconstruiría la imagen final. Cada nuevo proceso tenia memoria del
anterior y la onda plana al llegar a la placa fotográfica colapsada en un punto. Todo esto
sin embargo paso desapercibido en forma inexplicable.

En esta breve descripción del estado de la física del siglo 19 queremos


resaltar el concepto de partícula material y el de onda. El primero como una posición que
depende en forma continua a través del tiempo y el segundo como una función del
espacio y del tiempo que se adjudica a una porción finita del espacio. El primero se puede
adjudicar a una región del espacio de volumen nulo, la segunda siempre necesita un
volumen finito, incluso en la forma de paquetes de ondas que sería lo mas próximo entre
una onda y una partícula. Otra similitud entre onda y partícula es que a los dos se les puede
adjudicar una cantidad de movimiento y una energía. En el caso de las ondas
electromagnéticas, las únicas que se conocieron en el siglo IXX, la cantidad de
movimiento y la energía aparecen como interacción con las partículas que contiene
electricidad, ya se sabía de la existencia de los electrones. Ondas y partículas eran
conceptos irreducibles.

1900. Max Karl Eroest Ludvig Planck (1858-1947).

La emisión de radiación por un cuerpo a una temperatura dada, tenía un


aspecto que la física clásica no podrá explicar. Muy pequeña para frecuencia bajas, pasaba
por un máximo y luego disminuía hasta anularse a frecuencias altas. La mecánica
estadística clásica de Maxwell-Boltzman, basada en que el espacio de las fases podría
subdividirse en celdas tan pequeñas como se quiera, espacio de las fases formado por las
coordenadas y cantidades de movimientos de todos los átomo del sistema - asignaba a cada
grado de libertad el valor de energía kT/2. Donde k era la constante llamada de Boltzaman
y T la temperatura absoluta y un grado de libertad era cada variable independiente que
corresponde aquí a una frecuencia. Como hay un número infinito de frecuencias, la
cantidad de energía emitida, que abarca todo el espectro de frecuencias, era divergente.
Para ser mas exactos, la energía media emitida en un rango de la frecuencia ν , era
proporcional al producto de la densidad de frecuencias-proporcional al cuadrado de la
frecuencias por la energía media de esa frecuencia kT/2. La manera de solucionar este
problema fue que la energía no podrá emitirse ni absorberse en forma continua si no en
forma discreta, por paquetes , 2 , 3 ...., donde = h v y h una constante. Así
que los resonadores que componían el cuerpo, en equilibrio con la radiación, solo podrán
absorber y emitir la energía en cantidades discretas. Al calcular la energía media, en base a
estas hipótesis, en un rango d v de frecuencia v, Planck obtuvo una fórmula que describía
los resultados experimentales con exactitud. En esta fórmula figuraban dos constantes, h
y k, que luego se llamaría constante de Boltzman. En base a las medidas experimentales
pudo Planck determinar h y k. Como k es el producto de la constante de los gases ideales
por el número de Avogadro, pudo determinar este número con muy buena coincidencia con
el obtenido por otros métodos, como ser la difusión gaseosa. Esta coincidencia de un valor
determinado por métodos independientes le mostró que la teoría estaba muy cerca de la
realidad. También pudo determinar, contando con la constante de Faraday, la carga del
electrón. Posteriormente para poner de acuerdo la naturaleza de una onda electromagnética,
la radiación, con la estructura de energías discontinúas, elaboro una teoría de absorción
continua de los resonadores y emisión discontinúa. Esta teoría no fructificó. Con el objeto
de hacer coexistir ondas y discontinuidades elaboro, junto con Poincaré, el espacio
discontinuo de fases. Para N partículas tiene 3N velocidades y 3N posiciones, en ese
espacio el elemento de volumen ∆ T = d q1 L d q 3 N dp1 L dp3 N = h 3 N , con q posiciones y p
cantidades de movimientos y h la constante de Planck. Este espacio discontinuo de las
fases es el que se usa para las estadísticas cuánticas, Bose-Einstein y Fermi-Dirac.
Finalmente descubrió las unidades, llamadas de Planck, en las cuales la velocidad de la luz
c, h, k y f (la constante gravitatoria) tienen el valor 1. Estas unidades corresponden a las
dimensiones donde las fuerzas básicas, electromagnetismo, gravitación y cuántica están
unificadas, o tienen el mismo valor. Sean to , mo y lo y θo las unidades de Planck para el
h m o2
tiempo, la masa la longitud y la temperatura, se tiene Eo = hvo = = f = k θo = mo c 2 , con
t o lo
lo cual se tiene :
 l o = c −3 / 2 f 1 / 2 h 1 / 2 ≈ 4 x 10 − 33 cm

 mo = c
1/2
f −1 / 2 h 1 / 2 ≈ 5 . 4 x 10 − 5 g
 −5 / 2
 to = c f 1 / 2 h 1 / 2 ≈ 1 .33 x 10 − 43 S

 θo = c
3/2
f −1 / 2 k −1 ≈ 3 .60 x 10 33 °C
para:
 c = 3 x 1010 cm s −1 = 1, l o to−1
 − 27
 ho = 6. 62 x 10 cm 2 g s −1 = 1 . l2o m o to−1
 −8 −1 − 2 3 −1 − 2
 f = 6. 67 x 10 cm g s =1 . l o m o to
3

 −16 −2
cm 2 g s − 2 °C = 1 . l o m o to vo
2
 k = 1 .38 x 10

1905 Albert Einstein (1879-1955).

El efecto fotoeléctrico fue descubierto por Thomson y Lenard y consistía


fundamentalmente en que iluminando un sólido este desprendía electrones. Obviamente
para efectuar mediciones con un sólido especial, como el Na o K, en alto vacio, luz
monocromática y un método para medir la energía de los electrones emitidos. Esta energía
no dependía de la intensidad de la luz con que se iluminaba sino de su frecuencia. Se
encontró que obedecía a una ley del tipo E = hv - A, donde A es una constante del metal
iluminado. Este fenómeno sólo puede interpretarse como una interacción entre partículas
que forma la luz, con energía hv, que al chocar con los electrones del metal iluminado,
interacciona con ellos y les entregan esta energía. La constante A es la energía necesaria
para desplazar el electrón del metal. El número de electrones de energía E depende de la
intensidad de la luz. Esta interpretación, trasmitió directamente a la radiación la
cuantificación que Planck había dado a los osciladores que emitían y absorbían energía en
cuantos. Se creo así el concepto de fotón, partícula luminosa que compone la luz de
energía hv. La interacción de la luz como onda absorbida en forma continua por todos los
electrones no permite interpretar el fenómeno fotoeléctrico. Pero, una vez más, aparece la
dualidad, la luz hasta que incide en el metal se comporta como una onda, interaccionando
con él como partícula.

1907. Albert Einstein.

El calor específico de los sólidos, a bajas temperaturas no obedecía a


la estadística clásica, según ella un oscilador en tres dimensiones tenía una energía media
kT kT
de 3 kT por grado de libertad para la posición y para la velocidad. Luego un
2 2
sólido tenía como energía media 3 NkT y como calor específico cv = ∂ U ∂ T = 3 N k = 3 R . Sin
embargo a bajas temperaturas el calor específico disminuye llegando anularse. Einstein
cuantificó los osciladores tridimensionales de los sólidos usando la fórmula de Planck y
pudo demostrar este comportamiento. Esto que fue denominado tercer principio de la
termodinámica por Nernst, es ahora un teorema. Esta teoría fue mejorando por Debye,
Karman y Born.

1913 Niels Hendrik David Bohr (1885-1962).

El gran problema de la emisión de radiación por un elemento atómico es que


según la teoría clásica, suponiendo un electrón girando alrededor de un núcleo, este pierde
energía en forma continua hasta caer en el núcleo y anularse las cargas eléctricas. Esto no
ocurre y las líneas espectrales producidas al dispersar la luz emitida por un elemento
incandescente, son estable y discontinuas. Bohr explico este fenómeno con un modelo de
átomo que contaba de dos partes, uno correspondiente a la mecánica clásica. Un electrón
de carga -e y masa girando alrededor del núcleo con una frecuencia v, a una distancia r y
atraído por el núcleo por una carga positiva +e. La otra obtenida de la experiencia y
combinada con la energía cuantizada de Planck. Estas dos expresiones tienen que estar de
acuerdo para frecuencias muy bajas, lo cual permite calcular una constante espectroscópica,
la llamada de Rydberg, Ro = 2 π 2 m e4 /h3 , con mucha exactitud. La idea de la coincidencia
entre la mecánica clásica y la cuántica para frecuencias bajas o velocidades pequeñas se
llamara después principio de correspondencia
.

1914. Theodore Lyman (1874-1954).


Lyman descubre la serie de líneas espectrales que lleva su nombre en el
ultravioleta del espectro del hidrógeno. Estas líneas estaban descritas por el modelo de
Bohr.

1915. Robert Andrew Millikan.

Determina h con gran exactitud a partir del efecto fotoeléctrico. Así que
junto con el método espectroscópico derivado del valor de la constante del Rydberg y el
que proviene de la radiación del cuerpo negro, son tres los métodos independientes que dan
el mismo valor de h.

1916. Arnold Johannes Wilhem Sommerfeld (1868-1951).

Ya se dijo que Plack y Poincaré establecieron como condición cuántica que el


volumen encerrado en el espacio de las fases en un sistema de energía constante E, que
determina una ipersuperficie E(q1 q2 ,.... q3N, p1 , p2 , ....., p3N) es un múltiplo entero de h 3N .
En el caso de un átomo de hidrógeno se trata de un área encerrada por una curva. Si esta
curva no cierra porque se esta en presencia de dos o mas períodos inconmensurables, habrá
tantas condiciones cuánticas como períodos. Si el número de período es u y el de grados de
libertad v , el grado de degeneración es w = v-u En el caso del átomo de hidrógeno es
simplemente periódica y el electrón tiene tres grados de libertad, así que se trata de un caso
de doble degeneración. Esta degeneración se elimina parcialmente introduciendo la
variación de la masa con la velocidad. Esto produce una rotación del perihelio, que elimina
parcialmente esta degeneración. Esta rotación del perihelio no coincide con el caso real y
que solo puede ser explicado, en el caso del planeta mercurio, mediante la relatividad
general. Así que la coincidencia de esta teoría con la experiencia debe considerarse casi
casual. De todos modos con la introducción de tres números cuánticos, el principal, el
azimuntal y el complementario se logro la explicación de los espectros de los átomos de
H, He++, Li++, con su estructura fina y el efecto Zeeman, interacción con un campo
magnético. También se pudo explicar los espectros de los átomos alealinos.

1914. James Franck (1882-1964) y Gustav Ludwig Hertz (1887-1975).

La teoría de Bohr tuvo una confirmación en la experiencia de bombardear


átomos con electrones hay un choque plástico cuando la energía perdida por el electrón es
igual a la energía En - Eo del átomo, siendo Eo el estado fundamental.

1916.Gilbert Newton Lewis (1875-1946).


Usando el modelo de Bohr de el átomo formado por capas de electrones
describió la unión química con el enlace covalente, donde dos átomos comparten dos
electrones completando la capa, el otro enlace es ceder un electrón como el caso NaCl.

1916.Abert Einstein.

Einstein introduce la idea de momento del fotón. Si a la energía E = hν se


le atribuye una masa E = m c2 , se tiene hν = mc2 = mc.c = p.c y como λν = c luego
hν h
p= = . Además pudo deducir la ley de radiación de Planck, mediante el concepto de
c λ
transiciones radiactivas espontaneas entre los niveles En de los átomos de la cavidad y la
radiación. Debe complirse Em - En = hν.

1916. Richard Gans (1880-1954).

La luz no se propaga en un medio refringente excitando las moléculas


componentes y emitiendo, es decir por un proceso de excitación y emisión. La luz puede
propagarse cuando la energía de la onda es inferior a la necesaria para excitar las
moléculas. Los fotones pasan a travéz del medio sin roce ni alteración.

1917.Walter Kossel (1888-1956).

Se explica los espectros de rayos X mediante el modelo de Bohr de capas.

1920. Arthur Holly Compton (1892-1962).

Un cuanto de luz al chocar con un electrón le transfiere parte de su energía y


momento, y luego de su dispersión su longitud de onda se hace mayor. Se prueba así la
naturaleza corpuscular de la luz.

1924. Louis-Victor Pierre Raymond Prince de Broglie (1892-1987).


Broglie extendió la idea de Einstein del momento del fotón a toda partícula
v2
material. Ahora Ε = c2 mo 1 − donde v es la velocidad de la partícula mo la masa en
c2
v2 h h v2
reposo y E esta dado por la relatividad restringida, p = m o v 1− y λ= = 1− 2 .
c2 p mo v c
Toda partícula material tiene asociada una longitud de onda.

1925 Walfgang Pauli.

Pauli enuncia al principio de exclusión. Con el se explica porque cada


orbital en un átomo no puede estar con mas de dos electrones, además dos sistemas de
números cuánticos que pueden deducirse mutuamente por intercambio de los electrones,
representan un estado. El segundo principio enuncia la indiscernibilidad de los electrones,
importante para la enumeración de los estados posibles, tal como lo exige la teoría del
sistema periódico y, en especial, para las estadísticas.

1924. Satyendra Nath Bose (1894-1974).

Encontró un método para deducir la ley de radiación de Planck basándose


exclusivamente en la idea de que la luz esta compuesta de fotones, caracterizando el
espacio de las fases por las componentes de la cantidad de movimiento, p x = h α , se obtiene
λ
la densidad de estados entre p y p + p. Esta capa se divide en celdas de tamaño finito y
en ella el número n de fotones puede ocupar de cualquier forma esas celdas. Esta
estadística se llama de Bose - Einstein.

1924. Wolgang Panli (1900-1958).

Enuncia la idea de que el cuarto número cuántico corresponde al spin del


electrón, que puede asimilarse a un momento rotatorio del electrón sobre si mismo, y que
solo puede tener dos direcciones "arriba" y "abajo".

1925. George Eugene Uhlenbeck (1900-1988) y Sammuel Abrahan Goudsmit (1902


1978).

Explicaron un experimento que implicaba la división de un haz de átomos de


plata en dos por un campo magnético. Esta experiencia es de Stern y Gerlach . Sugirieron
que esto proviene de que los átomos de Ag posee un spin. Debido a que los electrones
tienen spin, y puesto que el átomo de plata tiene 47 electrones, todos salvo uno de los
electrones anulan su spin entre ellos dejando uno solo. Como una mitad de los átomos lo
tiene "arriba" la otra mitad lo tiene para "abajo". Esto explica porque dos electrones
pueden ocupar el mismo nivel de energía en el átomo.

1925.Wener Karl Heisenberg (1901-1976), Max Born (1886-1970) y Ernest Pascual


Jordan (1902-1980).

Se desarrolla la llamada mecánica cuántica de matrices, a toda propiedad


clásica como q, p o E, posición, momento o energía, le corresponde una matriz [q nm ],
[p nm ] o [E nm ], obedeciendo a las reglas de conmutación p q −q p =
h
. El producto pq =
2πi
[p ] [q ] = [p
nm nm nκ qk m ] es el producto de matrices.

1925. Paul Adrien Maurice Dirac (1902-1984).

Dirac desarrollo la mecánica de matrices según una versión que se conoce


como teoría de operadores o álgebra cuántica.

1926. Max Born.

Introduce la interpretación probabilística de la mecánica cuántica. Todo


fenómeno cuántico es de ese tipo.

1926. Enrico Fermi (1901-1954).

Junto con Dirac se desarrollo la estadística conocida ahora como de Fermi-


Dirac. Se aplica a un gran número de partículas que tienen spin 1/2, como el electrón, y no
pueden dos partículas estar en el mismo estado. Luego cada celda del espacio de las fases
solo puede estar vacía o contener un electrón. Así que el número total de Fermiones debe
ser constante aisladamente en la interacción de partículas. Por lo tanto el número total de
Fermiones debe ser constante en el Universo y debió ser determinada por las condiciones
existentes durante el Big-Bang.
1926.Erwin Schrödinger (1887-1961).

Enunciado de la mecánica ondulatoria. Mediante una correlación con la


óptica se obtiene la ecuación que lleva su nombre. Actualmente se desarrolla en base a
postulados que se justifican por un éxito. Brevemente consiste en reemplazar la ecuación
h ∂ h ∂
H(p,q)-E=o, se reemplaza P ( p x , p y , p z ) y E por los operadores p = y Ε por −
2πi ∂ q 2π i ∂ t
obteniéndose la celebre ecuación. Para valores estacionarios la
  h ∂  h ∂ 
 H , q + ψ = o , ψ es la función de onda que en casos estacionarios es
  2 π ι ∂ q  2 π ι ∂ t 
−2 π i E t

ψ( q, t ) = ψ( q ) e y cuyo cuadrado se interpreta como probabilidad por unidad de


h

volumen de existencia de la partícula. Así que ∫ v ψ (q )ψ * (q) d v =1 , la partícula tiene que


estar en algún lado. La ecuación de Schördinger tiene autofunciones y autovalores que
representan los valores necesarios de energía y la probabilidad de existencia de la partícula.
Todos los problemas que se resolvieron anteriormente, oscilador armónico, átomo de
hidrógeno, etc, encuentran una solución y además se puede plantear y resolver otros
problemas.

1926. Paul Adrien Maurice Dirac.

Dirac muestra que la mecánica de matrices y la de ondas son equivalentes.

1926.Werner Karl Heisemberg.

Heisemberg demuestra el principio de inserteza . El producto de la


dispersión de variables complementaran (p, q) y (E, t), es mayor o igual a h 2 π . Así que
∆ p. ∆q ≥ h 2 πy ∆ Ε. ∆ t ≥ h 2 π . Damos una demostración elemental. Normalmente a una
rendija de ancho ∆ x incide un electrón de cantidad de movimiento p perpendicular al
plano de la rendija. El primer máximo de la difracción ocurre cuando ∆ x sen α = λ = h
p
siendo α el ángulo de desviación. Ese primer máximo proviene de una componente normal
a p que es ∆p = p senα . Por lo tanto ∆ p ≈ p sen α = h , o sea ∆ x . ∆ p ≈ h . A Heisenberg se
∆x
debe la idea de que la naturaleza onda corpúsculo de una partícula se debe a que son
"guiadas" por "ondas piloto".
1927. Walter Heitler (1904-1981) y Fritz Wolgang London (1900-1954).

Heither y London logran calcular la energía de disociación del H2 con


mecánica ondulatoria.

1927,Niels Bohr.

Bohr presenta lo que se conocerá en el futuro como interpretación de


Copenhagen de la mecánica cuántica. De acuerdo a esa interpretación la medición forma
parte del problema, así que lo único que se puede hacer es calcular la probabilidad que un
experimento específico nos de un resultado particular. Hay experiencias que permiten
esclarecer mucho esta interpretación como la experiencia de la interferencia con dos
rendijas. Si iluminamos una ranura que a su vez ilumina dos ranuras en una pantalla
paralela a la de la primera ranura, colocando una tercera pantalla paralela a las dos primeras
se forman franjas de luz y sombras paralelas a las dos primeras ranuras. Hay luz cuando la
luz llega en fase, es decir difiere en un número entero de ondas las que llega de una ranura
de la otra, cuando difieren en un número entero mas media onda hay sombra. Esta
experiencia que tiene muchas variantes no puede explicarse sino con la teoría ondulatoria
de la luz. Variantes interesantes son hacer llegar la luz a las dos ranuras dividiendo la luz
con un espejo seniazogado esto produciría, en el caso de la teoría corpuscular la subdivisión
del fotón. También resulta interesante la colocación de detectores. Pero mediante la teoría
corpuscular no puede explicarse el fenómeno. Porque cuando se tapa una ranura
desaparecen las franjas. Esto supondría que los fotones conocen lo que ocurre en la otra
ranura. Sin embargo cuando se colocan detectores en la tercera pantalla se detecta el
choque puntual de los fotones, estos existen cuando se hacen mediciones para encontrarlos.
La interpretación de Bohr es que el fotón o partícula material, existe como superposición de
estados cuánticos, que miden las probabilidad de un estado particular. Cuando la onda
llega a la tercera pantalla "colapsa" y se produce el impacto puntual. Todo este proceso,
que tiene sus antecedentes en el fenómeno fotográfico, no entra dentro de la lógica de la
física clásica. Planck, Einstein y Schrödinger no estuvieron de acuerdo con esta
interpretación. Einstein mismo ideó experiencias para tratar de poner de manifiesto lo
absurdo de esta idea.

1928,Oscar Klein (1894-1977) Paul Adrian Maurice Dirac.


La ecuación relativista de Schrödinger presenta grandes dificultades. Esta
ecuación se llama de Klein-Gordon ∆ ψ − 12 ∂ ψ2 −
2
mo2 c 2
ψ= 0 , para una partícula libre. En
c ∂t h 2

ecuación de la energía, E 2 − p2 c 2 = mo2 c 4 , se debe colocar los operadores conocidos


∂ ∂
Ε =−h y ρx = h 2 . La ecuación de K - G se puede descomponer como por ejemplo
i ∂t ∂x
a 2 + b2 = (u + b i )(a − b i ) ≡ o , transformándose en una ecuación de primer orden
{αx ∂ ψ + αy ∂ ψ + αz ∂ ψ − 1 ∂ ψ
h
} + β mo cψ = o, donde.
i ∂x ∂y ∂ z c ∂t

 0 0 01 0 0 0 − i   0 0 10  1000  ψ1 


         
 0 010  0 0 + i 0   0 00 − 1  0 100  ψ2 
αx =  0100  ; α =
y  ; α = ; β = ψ = ψ  , de tal forma que el
0 − i 00  1000   00 − 10 
z
         3 
1000   + i 000   0 − 100   000 − 1  ψ4 

cuadrado de la ecuación de D se transforma en la de K - G, la ψ es ahora un spinor, dos de


sus componentes representan a dos diferentes orientaciones del spin. Estas funciones el
doble de las que se necesitarían para describir el spin, se debe a que esta teoría admite
estados de energía negativos. Esto implica, entre otras cosas, la existencia de electrones
con carga positiva. Existen también partículas y antipartículas, antiproton, etc.

1927. Clinton Joseph Davisson (1881-1958), Lester Germer ( ), George Payet


Thomson (1892-1975).

Se prueba la naturaleza ondulatoria de la materia mediante la difracción de


electrones por una lámina delgada de metal.

1927.Paul Adrian Marie Dirac.

La cuantificación de un campo. La primera cuantificación trata de


partículas, electrones, que saltan de un nivel a otro en un átomo. La segunda trata de dos
campos y muestra que ellos pueden ser descritos en términos de intercambio de partículas,
hoy sin embargo a perdido totalmente importancia.

1928. George Gamow (1904-1968).


Gamow explico la desintegración α como el pasaje de a través de una
barrera de potencial de una partícula α . La partícula esta contenida en el núcleo, pero hay
una probabilidad de que este fuera, este efecto se denomina Tunel, y la vida media se
determina conociendo el número de veces por segundo que la partícula golpea las barreras.
En cada golpe hay una probabilidad p que pase, de aquí que la frecuencia de emisión es

χ= n p
Aproximadamente n es v 2 r donde ro es el tamaño del cráter y v la
o

velocidad de la partícula α , que puede ser determinada haciendo la longitud de onda h n v


2
de Broglie igual a ro , así que n= h . La probabilidad p es ψ 12 / ψ donde ψ1
4 m ro2 2

es el valor de ψ fuera del núcleo y Ψo dentro.

Estos cálculos fueron aplicados a las reacciones nucleares dentro de las


estrellas. Además se le debe el modelo de la gota líquida del núcleo, donde las partículas
del núcleo son contenidas por una suerte de tensión superficial.

1929. Werner Karl Heisemberg y Wolgeng Pauli.

Versión Lagrangiana de la mecánica cuántica.

1929.Ernest Pascual Jordan.

Teoría de los operadores para la mecánica cuántica.

1930.Werner Karl Heisenmberg.

Se sugiere que el núcleo esta formado por partículas que solo difieren en lo
que se llama spin isotópico.

1930.Nevill Francis Mott (1905-1996).

Teoría cuántica de las colisiones atómicas

1930.Fritz Wolgang London (1900-1954).


Cálculo de las fuerzas de Van der Walls.

1930.Albert Einstein, Niels Bohr.

Einstein presenta en el Congreso Solvay del año 1930 un argumento para


mostrar que se podrá invalidar uno de los principios de incerteza ∆ E ∆ t ≥ h . Se trata de una
caja en una de cuyas paredes se puede abrir y cerrar un obturador controlado por un reloj
dentro de la caja. La caja esta llena de radiación y cuelga de un resorte con índice y
graduación para pesarla. Se pesa la caja. Se abre el obturador para dejar que salga un
fotón. Se vuelve a pesar la caja. Así se ha encontrado tanto la energía del fotón,
∆ E = ∆m c 2 , como su instante de pasaje, con precisión arbitraría en contra de ∆ E .∆ t h.
Bohr demostró que esto es falso. La pesada inicial se hace registrando la posición del
índice, con respecto a la escala fija al soporte del resorte de donde cuelga la caja, la pérdida
de peso debida al escape del fotón se compensa mediante una carga, que hace volver el
índice a la posición inicial, con una tolerancia ∆ q . Por su parte la medición del peso tiene
un error ∆ m . La carga agregada imparte a la caja un impulso que puede medirse con
precisión ∆ p delimitada por ∆ p ∆q ≅ h . Además, ∆ p < t g ∆ m , donde t es el tiempo
necesario para reajustar el índice y g la aceleración de la gravedad. Así que t g ∆m ∆ q > h .
La inserteza en la posición ∆ q del reloj en el campo gravitatorio implica una inserteza
∆ t = g t ∆ q / c 2 en la determinación de t. Se trata del atraso de un reloj que va a la velocidad
v = gt. Por lo tanto c 2 ∆ m ∆ t = ∆ Ε ∆ t > h . De acuerdo a las relaciones de incertidumbre.

1930.Julius Robert Oppenheimer (1904-1967) .

Usa las ecuaciones de Dirac para probar la existencia del electrón positivo.

1932.Carl David Anderson (1905-1991).

Descubrimiento del positrón, el electrón positivo, producido por los rayos


cósmicos en una cámara de niebla .

1932, John Janos von Neuman (1903-1957).


Publica la prueba errónea de que la M.C. no puede contener variable
ocultas. Según la escuela de Copernhagen algo acontece cuando le observamos, colapsan
las funciones de onda y el fenómeno ocurre. De acuerdo a las variables ocultas las cosas
van ocurriendo, pero con un conocimiento global instantáneo de todo lo que ocurre.

1932.Hans Albreacht Bethe (1906- ) y Enrico Fermi (1901-1954).

Se sugiere el fotón como partícula de intercambio que produce la interacción


entre partículas cargadas.

1933. Grette Herman ( ).

Se pone de manifiesto el error de la prueba de von Neuman de que no puede


haber variables ocultas. Esto no se toma en cuenta debido al gran prestigio de von
Neuman.

1935. Albert Einstein, Nathan Rosen (1909- ) y Boris Podolsky (1896 - 1966).

Einstein, Rosen y Podolsky llaman la atención sobre una paradoja (E.P.R.)


que anula el principio de incerteza. Dos partículas parten simultáneamente de un lugar, la
cantidad de movimiento total es cero en el momento de partir, a gran distancia una de otra,
se mide el momento o cantidad de movimiento de una, luego se conoce el de la otra y
además, se puede medir su posición. Con esto se viola el principio de incerteza ∆ p ∆ q ≥ h .
Si es válido el principio de incerteza, en todos los casos, al medir el momento de una
partícula con un error ∆ p automáticamente se produce una incerteza ∆ q con la otra.
Hay que recordar que ∆ p y ∆ q son respecto de una cantidad grande de medidas. Esta
acción a distancia instantánea no permite sin embargo transportar información. La
experiencias, como veremos mas adelante, confirman la acción a distancia y la valides del
principio de incerteza.

1940. Richard Phillips Feynman (1918-1988) y John Anchibald Wheeler (1911- ).

Feynman y Wheeler desarrollan lo que se llamara la teoría de la absorción de


Wheeler - Feynman. Cuando un electrón se acelera radia energía, luego se forma una masa
adicional. Esto es válido para cualquier partícula cargada. Considerando el caso mas
simple posible, solo hay dos electrones en el universo, el primer electrón produce una onda
desfasada un medio progresiva, mientras que la onda regresiva esta un medio adelantada.
Cuando el segundo electrón se mueve en respuesta, produce otra onda con medio retardo,
que cancela la primera onda; y una con medio avance que va tras la primera onda del
electrón original, en fase con esa onda, reforzando la onda original media onda haciendo
una onda total, como la solución usual de las ecuaciones de Maxwell. Esta media onda
arriba al primer electrón, en el momento en que comienza a moverse y causa la radiación
resistente. Luego continua asía el pasado, anulando la onda con medio avance del primer
electrón. El resultado es que entre los dos electrones hay una onda sola que equivale a la
solución clásica de las ecuaciones de Maxwell, pero fuera se anulan y esa infinita energía
no aparece.

1940. Sin-tiro Tomonaga (1906- 1979), Julian Seymur Schwinger (1918-1994) y


Richard Phillips Feynman.

Los tres desarrollan independientemente la Electrodinámica cuántica. Esta


describe la interacción entre fotones y partículas cargadas. El éxito de esa teoría se
manifestó con la explicación del corrimiento de Lamb, en el átomo de hidrógeno y el
momento magnético del electrón.

1942. Richard Phillips Feynman.

Feynman propone por primera vez lo que se denomina integrales de camino,


una manera de iniciar probabilidades cuánticas basada en el formalismo de Lagrange. La
entidad cuántica toma todos los caminos posibles de A a B, en algunos casos se anulan
unos a otros todos salvo la trayectoria clásica. Pero bajo condiciones especiales se obtienen
los casos de interferencia de ondas como en la difracción por una rendija o la interferencia
por dos. Esta versión es mas satisfactoria que la de Schrödinger que es Hamiltonriana. La
partícula se mueve como si conociere todas las posibles trayectorias, un caso parecido ya
ocurría en el principio de Fermat con los fotones.

1947. Willis Engene Lamb (1913- ).

Se mide con exactitud lo que se denomina el corrimiento de Lamb en el


átomo de hidrógeno. Ese corrimiento proviene de la interacción del electrón con un campo
electromagnético.

1949. Freeman John Dyson (1923- ).


Dyson muestra que la EDC propuesta por Feynman Schwinger y Tomonaga
son matemáticamente equivalentes.

1950. Hugh Everett (1930-1982).

Everett desarrolla la interpretación de los universos múltiples. La idea es


que cada vez el mundo se enfrenta, en el nivel cuántico, con una elección, el universo se
divide en tantos universos como elecciones tiene. Por ejemplo, en la experiencia de las dos
ranuras, el electrón pasa por la ranura A en un universo y por la B en el otro . Esta idea es
interesante para los cosmologístas quienes pueden obviar la paradoja que ocurre en la
escuela de Copenhagen, sobre cual es la observación que hace colapsar la función de onda
que describe la totalidad del universo. La creación de la figura de interferencia en la
experiencia de los dos ranuras, necesita de electrones o fotones de los dos universos.

1950. David Joseph Bohm (1917-1992).

Bohm pone de manifiesto que el efecto fotoeléctrico se puede explicar por la


absorción de energía de una onda continua en forma discontinua. Una idea similar a la de
Planck, que trató de explicar el espectro de radiación del cuerpo negro mediante una
absorción continua y una emisión discontinua.

1952.David Joseph Bohm.

Bohm sugiere como experiencia crucial E.P.R una variación con fotones.

1957. John Bardeen (1908-1991), Leon Niels Cooper (1930- ) y John Albert
Schrieffer (1931 - ).

Bardeen, Cooper y Schrieffer logran explicar la superconductividad como


un fenómeno cuántico. Los electrones interactuan con la red cristalina en pares y esos
electrones se comportan como bosones por que los dos medios spin se suman formando un
spin uno. Como bosones, todos los electrones ocupan el mismo nivel de energía y pueden
ser descritos como una sola función de onda que se mueve sin roce por el conductor.

1958. Richard Phillips Feynman y Murray Gell-Mann (1929- ).


Desarrollan la teoría de la interacción débil. Las fuerzas de la naturaleza son
cuatro, la gravitatoria, la electromagnética y las nucleares, la fuerte y la débil. Estas dos
últimas fuerzas están en el núcleo atómico.

La fuerza gravitatoria, que es siempre aditiva, es la que interactua entre las


masas a distancias interplanetarias y mayores, la electromagnética es la que mantiene
unidos los átomos para formar moléculas y los electrones al núcleo para formar átomos.
Son las fuerzas nucleares fuerte que mantienen unidas las partículas que forman el núcleo,
los neutrones y protones se dispersarían sin estas fuerzas. Es la fuerza que mantienen
unidas los quarks a través del intercambio de gluones. Esta fuerza tiene un rango limitado
porque los gluones tienen masa, a diferencia de los fotones que transportan las fuerzas
electromagnéticas a los gravitones, que transportan la gravedad. El rango de influencia de
portadores como los gluones es inversamente proporcional a su masa.

La fuerza débil opera como los otros a través del intercambio de partículas
mensajeras, los bosones vectoriales intermedios que tienen masa, por lo tanto su rango de
influencia es limitada. Pero además de mantener unidos o separados, cambia la naturaleza
de las partículas entre las que se mueve. Afecta a los leptones y hadrones, en particular el
proceso de desintegración β. Así que un neutrón emite un electrón y un antineutrino,
convirtiéndose en un protón. Como interacción débil esto se describe como una interacción
entre un neutrino que arriba y un bajo quark dentro del neutrón. El quark bajo intercambia
W, un boson vectorial intermedio, con el neutrino, transformándose en un quark arriba y
el neutrino en un electrón. Los bosones tienen una gran masa y un rango de influencia muy
corto.

1959. Richards Phillips Feynman.

Sugiere la nanotecnología como posible

1961. Murray Gell-Mann y Yuval Neieman ( ) .

Proponen independientemente, un esquema para clasificar las partículas


elementales. Puede afirmarse que los quarks, leptones y los bosones son las únicas
partículas elementales. Los bosones son los que transportan fuerza. Los baryones están
compuestos por tres quarks, y son, por ejemplo, el protón y el neutrón, pueden ser tomados
por partículas elementales con ciertos propósitos, así como el muon. Hay seis variedades
de quarks que en singles son up, down, strange, charm, top y bottom y sus antipartículas.
Ellos y las partículas en que se combinan para formar los hadrones, están bajo la influencia
de la fuerza fuerte. Hay seis tipos de leptones, electrón, muon , tau, electrón neutrino,
muon neutrino y tau neutrino y sus antipartículas. Estas últimas seis partículas están bajo la
influencia de las fuerzas débiles.
1962 Richards Phillips Feynman.

Feynman introduce el concepto de gravedad cuántica, combinando la teoría


general de la relatividad con la mecánica cuántica. El núcleo de la teoría es que la fuerza
gravitacional es producida por el intercambio de gravitones, de la misma forma que el
intercambio de fotones produce las interacciones electromagnéticas. La principal
dificultad en el desarrollo de esta teoría es la equivalencia entre masa inerte y gravitatoria,
que no puede expresarse en la mecánica cuántica. Por otra parte los gravitones por poseer
energía, les corresponde una masa que interactua con todas las otras masas. Esto no ocurre
en la Electro Dinámica Cuántica puesto que los fotones, que al tener energía tienen masa no
interactuan con el sistema electromagnético. El gravitón aparece con spin 2. Para evitar
estos problemas se introduce la técnica de perturbación, persisten sin embargo, los que
derivan de la existencia de infinitos.

1962. Brian David Josephson (1940 - ).

Descubre lo que se llamara la unión de Josephson que permite medir


campos magnéticos con gran precisión y puede usarse en computadoras. Se trata de una
capa aislante entre dos superconductores.

1963. Chien - Shiang Wa (1912-1997).

Sus experiencias confirman la violación de la paridad en procesos que


involucran la interacción débil de Feynman y Gell-Man.

ς ois Englert (
1964. Peter Ware Higgs (1929- ), Robert Brout ( ) y Franς ).

Introducen lo que se llamara partícula de Higgs, que tiene masa. Esto


permite que cualquier fotón por absorción de un boson de Higgs obstenga masa. Así que
los portadores de la fuerza débil tienen masa.

1964. John Stuart Bell (1928-1990).


En 1952 Bohn sugirió que la experiencia de Einstein Podolsky y Rossen
(EPR, 1935) podrá efectuarse con fotones. Ahora Bell mostró como podía efectuarse el
experimento midiendo lo que se denominará desigualdad de Bell.

1964.

Diferentes autores descubren el kaon que produce piones que no conservan


la paridad, la partícula omega-menos. Se introduce el cuarto quark para explica los
hadrones. Walter Greenberg introduce la "para estadística" que distingue tripletes de
quarks que de otra manera serían idénticos

1965. Yoichiro Nambu y M.Y. Han.

Se introduce una teoría matemática de los quarks con el agregado de que


están "coloreados". Se esboza una primera teoría de las cuerdas.

1965, Richard Phillips Feynman.

Aparecen los "partones".

1966. John Stuart Bell.

Repite lo que demostró Grete Herman (1933), que la prueba de von Neuman
(1932) de que no existen variables ocultas en la mecánica, cuántica es falsa.

1967. Abdus Salam (1926-1996) y Eugene Paul Wigner (1902-1995).

Se unifica la interacción débil y la electromagnética entre/bosones, como


interacción electro débil .

1967.Andrei Dimitriedich Sakharov (1921-1989).


Sakharov muestra la asimetría en las leyes de la física. Esto significa que en
el principio, el Big-Bang, el universo quedó con aquellas partículas que no se anularon con
su antipartícula y se transformaron en el ruido de fondo compuesto por microondas.

1970. Jerome Isaac Friedman (1928- ), Henry Way Kendall (1926- ) y Richard
Edward Taylor (1929- ).

Se demuestra experimentalmente la existencia de quarks en el núcleo


atómico bombardeable con electrones de alta energía.

1970. Ion Clauser ( ), Michael Horne ( ), Abne r Shimony ( ) y Richard Holt ( ).

Demuestran experimentalmente que la desigualdad de Bell no se cumple. Se


trata de una versión del experimento EPR y por lo tanto se ve que hay una acción a
distancia. El mundo no es local.

1970. Murray Gell-Mann y Harold Fritzsch ( ).

Desarrollan una aproximación tipo teoría de campo describiendo las


interacciones entre los quarks, especialmente el cuarto "charm".

1970. SPEAR (Stanford Positron - Electron Asymmetric Rings).

Se observa por primera vez el efecto jet, generado por quark, antiquarks o
gluones que fueron sacados de sus partículas parientes o creados en un SPEAR estudiando
el choque electron - positron.

1970. Sheldon Lee Glashow (1932 - ).

Desarrolla la interacción electrónica débil de bosones comenzada por Abdus


Salam y Steve Weinberg en 1967.

1970. John Schcoarz (1941- ) y André Neveu ( ).


Encuentran un método para describir los fermíones usando la teoría de las
cuerdas.

1974. John Schuarz y Joel Scherk, ( ).

Descubren la conexión entre la teoría de las cuerdas y la gravedad. El origen


de la teoría de las cuerdas esta en la teoría de la relatividad de Klein-Kaluza. Cuando se
escriben la ecuaciones de la relatividad general en cinco dimensiones aparecen por un lado
la ecuaciones del campo gravitatorio y por otro las de Maxwell. Resulta así la primera
teoría del campo unificado. Del mismo modo si se escribe la ecuación de Schrödinger en
cincos dimensiones, cuatro espaciales y uno temporal, se obtienen soluciones que pueden
representarse como partículas - ondas que se mueven bajo la influencia de campos
electromagnéticos y gravitacionales (1926) para describir mas campos se agregan mas
dimensiones. Para ocho aparecen partículas con diferentes spin desde +2 a -2 de medio
cuarta en medio. Ahí aparece una partícula de masa cero y spin 2 que sería el gravitón. En
la teoría de Klein - Kaluza la quarta dimensión espacial debe imaginarse como de
dimensiones muy pequeñas agregadas a la trayectoria en 3 dimensiones. El tamaño es fácil
de calcular porque los efectos cuánticos y gravitatorios tienen la misma magnitud
1 m
h vo = h = mo c 2 = f 2o , como se vio antes (ver Planck, 1900) y además c = l o , con lo
to lo to

cual l o =10−33 cm. Lo mismo ocurre cuando se agrega mas dimensiones. Esto puede
representarse como un segmento agregado a una línea de universo, con lo cual se forma una
cinta. Cuando se agrega una dimensión mas se forma un tubo, una mas y una esfera en
cada punto de la línea del universo y así siguiendo. En el caso de un diagrama de Feynman
se trata de la interacción de dos tubos, un tubo puede provenir de la unión de dos, etc.

1979. Tony Klein ( ) y colaboradores.

Demuestran la difracción de neutrones y confirman la naturaleza dual, onda-


partícula, del neutrón.

1980. John Cramer ( ).

Asta este momento tenemos dos interpretaciones de mecánica cuántica: La


interpretación de Copenhagen y la interpretación de los universos múltiples. Ahora
tenemos una nueva interpretación que no altera las predicciones conocidas. Cramer uso la
teoría de Wheler - Feynman de la radiación. Gracias a esta teoría cada parte del universo
conoce lo que ocurre en todas las otras partes. En la teoría de Wheler - Feynman hay una
onda retardada que fluye hacia el futuro y una onda avanzada que fluye hacia el pasado. En
la ecuación de Schrodinger la onda fluye del pasado al futuro, pero cuando se calcula su
norma / Ψ / 2 = ψ * se supone una onda ψ * que fluye del futuro al pasado. Cuando esa onda
es recibida por otra partícula se produce una respuesta y hay una onda progresiva asía la
primera partícula emisora que cancela la onda regresiva. Así que hay un intercambio
instantáneo entre las dos partículas. Cada fotón que es emitido conoce cuando y como va a
ser absorbido, sabe - en la experiencia de las dos ranuras - que clase de detector lo espera.
Esta es la teoría interpretación transacional.

1982. Alain Aspect ( ).

La experiencia de Aspect probó que Einstein (EPR) no tenía razón al creer


que la acción a distancia era imposible. La experiencia crucial (EPR) fue transformada por
Bohm en una con fotones en lugar de partículas. Bell demostró que si vale la idea de
Einstein se cumple una desigualdad llamada la Bell. En sus experiencias Aspect demostró
que esta desigualdad es violada. En esta experiencia se usa la emisión de fotones
polarizados en forma que se anulan, si uno es "arriba" el otro es "abajo". Lo que se mide es
la polarización en cierto ángulo, cuando esto se realiza, cambia automáticamente, la
polarización del fotón distante B. El universo no es local. Para evitar toda influencia del
equipo se cambia los ángulos en que se mide la polarización, cuando el fotón esta en vuelo
y en forma aleatoria. Pero la desigualdad de Bell es siempre violada.

1982. Richard Phillips Feynman.

Se anuncia la posibilidad de que se construya un computador basado en


principios cuánticos.

1985. John Archibald Wheeler (1911- ).

La experiencia sugerida por Wheeler fueron realizada en Maryland y


Munich con éxito. En la experiencia de la doble ranura, en la pantalla se constata la llegada
individual de fotones que forman franjas de interferencia. Cuando se tapa una ranura
desaparecen las franjas. Los fotones que pasan por la otra ranura saben que se tapa una. Lo
mismo ocurre si se coloca un detector. Que pasa cuando se coloca un detector después que
el fotón paso por una ranura, antes de llegar a la pantalla?. Las nuevas experiencias
mostraron que incluso en este último caso las franjas desaparecen. Los fotones saben antes
de llegar al detector que este esta puesto. Esto puede realizar en forma aleatoria e incluso
introducir esta aleatoriedad cuando los fotones están ya en vuelo entre el orificio y el
detector. Wheeler propone hacer esta experiencia con luz llegada de un quasar por dos
caminos, uno directo y el otro a través de una lente gravitacional. En caso de éxito, y esto
es lo mas probable, el fotón conocería lo que va a pasar con una antelación del orden de
10.000 x 106 años.

1985, Cosmología Cuántica.

Diferentes autores desarrollan lo que puede denominarse cosmología


cuántica. El origen del universo es una fluctuación cuántica seguida de un proceso de
expansión. En el principio se trata de energía pura contenida en una celda de Planck, luego
esa energía se transforma en una capa de protones, electrones y neutrones que se transforma
en una mezcla de hidrógeno y helio con algo de deuterio. De aquí saldrán las galaxias que
hoy día forman el universo. Esto se puede ver en forma elemental, la energía Eo de la celda
de Planck es Ε o = h vo = h / t o y por lo tanto Εo to = h , que es una expresión del principio de
inserteza de Heisenberg. Como en la celda de Planck las energías gravitatoria y cuántica
mo2 mo 2
son equivalentes se verifica que la energía total m o c 2 − f =o , con lo cual lo
=c
f
.
lo
f mo2
Aquí lo
es la energía potencial gravitatoria, f es la constante gravitatoria de Newton
y c la velocidad de la luz; mo ,l o y t o son la masa, longitud y tiempo de Planck. Una vez
que se produce la materia, que varía con la velocidad de expansión en un espacio de cuatro
dimensiones, se verifica la ecuación c 2 − f M R = o , donde M = M o
2
y R el radio
v2
1−
c2
de curvatura de una esfera en el espacio de cuatro dimensiones con un tiempo cósmico,
.•
ν= R es la velocidad de expansión. El resultado es una esfera oscilante en cuatro
dimensiones con un período de alrededor de 15.000 x 106 años y una densidad en reposo
2
ρo = 10 −2 9 g 3 . Se verifica constantemente M R = c f . Desde el punto de vista de la
cm
termodinámica si Q es la energía intercambiada entre el universo que crece y el exterior
debe ser cero, Q = 0, puesto que el exterior no existe. En el caso de creación de materia
∆ m la ecuación del primer principio da 0 = c 2 ∆m + p ∆v , con lo cual p = − c ∆ m ∆ v . La
2

presión es esencialmente negativa y como la normal al volumen debe estar orientada hacia
el interior del volumen ∆ v, p es negativa y tiende a aumentar el volumen ∆ v . Cuando se
trata de aniquilación de materia, Big - Crusch, ∆ m es negativa y p tiende hacer
desaparecer el volumen ∆ v . Cuando el proceso de creación tiene lugar en un universo
constante, la normal es hacia afuera del ∆ v y p es de compresión, da materia creada ∆ m
desaparece.

1988. Akira Tonomura ( ).


Realizó el experimento de las dos ranuras con electrones pero emitiéndolos
uno por vez. Se van formando puntos en la pantalla hasta que finalmente se forma la
figura de interferencia. Los electrones se comportan como ondas por la figura de
interferencia y como partículas al llegar a la pantalla.

1990. Hendrik Brugt Gerhardt Carimer (1909 - ).

El principio de incerteza permite que durante un tiempo ∆ t exista una


energía ∆ E que aparece y desaparece, de y en la nada, como la materia esta formada de
energía esto significa que se forman partículas virtuales en el espacio vacío. Como los
fotones tienen masa cero son los que mas fácilmente pueden aparecer. Poniendo dos placas
reflectantes muy cerca, los fotones que pueden existir allí son los que tienen una longitud
de onda múltiplo de esa distancia. Estos son menos de los que hay afuera, luego hay una
presión de afuera que tiende a unir las placas. Este efecto también ocurre en los átomos en
el vacío. En la Universidad de Yale se midió este efecto para átomos de Na.

1992. El satelite COBE.

Cosmic Background Explorer (COBE). Este satélite encontró fluctuaciones


en la radiación de fondo de magnitud de acuerdo a la teoría normal del Big-Bang. La forma
de las desigualdades en radiación de fondo muestra la forma de las fluctuaciones que
debieran haber imprimido la fluctuaciones cuánticas cuando el tamaño del universo (su
radio de curvatura) era del orden de 10-25 cm.

1994.

Se crean las condiciones para recrear el plasma quark-gluon haciendo chocar


núcleos masivos en aceleradores de partículas produciendo pequeños Big-Bang Los
fotones producidos confirman la teoría del Big-Bang.

1994.

En Chicago en el Fermilab se identifica el último de los seis quarks.

1994-96 Peter Shor ( ) y Seth Lloyd.


Hay avances en el computador cuántico. Se puede resolver códigos
irrompibles en segundos. La conjetura de Richard Feynman de un computador cuántico
como simulador cuántico universal es correcta.

1995.

En los Alamos se mide la masa del electrón neutrino. En el CERN se


fabrica el primer antiátomo de Hidrógeno.

Conclusión.

En este breve esquema del desarrollo histórico - crítico de la Mecánica


Cuántica se dejo un poco de lado el problema de las partículas, pero se insistió en las
experiencias iniciales y su estructura interna. Puede afirmarse que supuesto un espacio
infinito de cuatro dimensiones, con un tiempo cósmico y una cantidad de dimensiones
extras - de las cuales algunas no se desarrollaron y tienen una dimensión de alrededor de
10-33 cm mas las leyes de la Física, un universo puede surgir de la nada - gracias al principio
de incerteza - y crecer y oscilar con tamaños de 1027 cm y períodos de 15.000 x 106 años.
Este universo es auto consiente, conoce instantáneamente, en lo que respecta al tiempo
cósmico, todo lo que ocurre y realiza las modificaciones necesarias para que no se viole
ninguna ley de la Física. Desde otro punto de vista suponiéndolo en su desarrollo temporal
conoce, además, todo lo que ocurrió, lo que ocurre y lo que ocurrirá. Es una figura fija en
el espacio (de muchas dimensiones) - tiempo, además puede multiplicarse. Esta figura
multidimensional nace en un punto del espacio y desaparece en él.

"El universo esa espantosa esfera infinita con su centro en todas partes".

Pascal, Penses

"El universo ese monstruo infinito que retuerce su cuerpo recamado de estrellas".

Atribuido por J.L. Borges a Víctor Hugo

Bibliografía
La bibliografía es inmensa. Se puede empezar con :
Born, Max; Física atómica, numerosas ediciones en todos los idiomas desde 1933.

De Broglie, L. y Brillouin, L. Selected Papers on Wave Mechanics, Blackie, 1928.

Dirac, P.A.M., The principles of Quantum Mechanics Clarendor Press, 1935.

Heinsenberg, W., The Principles of Quantum Theory, University of Chicago Press, 1930.

ö dinger E., Collected Papers on Wave Mechanics, Blackie, 1928.


Schorö

Sobre los orígenes de la mecánica cuántica, la paradoja E.P.R. y las controversias Einsten-
Bohr:

Pais, A. "El Señor es Sutil". La ciencia y la vida de Albert Einstein, Ariel, 1984.

Bibliografía interesante se encuentra en :

Kleppner, D. y Jackiw, R., One Hundred Years of Quantum Physics, Science, 289
(2000)893-898.

Roessler, Jaime. Sobre el significado de la mecánica cuántica, Sociedad Chilena de


Física, Publicaciones Científicas, 1981.

Datos biográficos y desarrollos científicos con bastante extensión en :

Frabke, H., Diccionario de Física, Editorial Labor 1967.

Biografías y comentarios sumamente acertados en:

Gribbin, J., Q is for Quantum, The Free Press, 1999.

Elemental pero acertado.

Gribbin, J., The Search for Superstrings, Symmetry, and the Theory of Everithing, Little,
Brown and Company, 1999.

El aspecto filosófico en:

Popper, K.R:, La lógica de la Investigación Científica, Tecnos, 19662.

Una visión de lo que se hizo en Latinoamérica a principios del siglo XX en:

Gans, R. y Pereyra Mingez., Refrengibilidad de luz de poca intensidad, Contribución al


Estudio de la Ciencias Físicas y Matemáticas, La Plata, 1916.
Un resumen sobre el estado actual de la cosmología en:

Kittl, P. Cosmología Universo Global : Modelos y Datos experimentales, Ciencia Abierta


2000, http://www.cec.uchile.cl/~cabierta/revista/lo/educacion/educacion4.html

También podría gustarte