Está en la página 1de 9

El Desafío de la Física Cuántica

Autora: Silvia Sokolovsky

Bibliografía

Toda teoría física posee dos componentes esenciales: un formalismo y una


interpretación. 

El físico representa los conceptos básicos mediante símbolos matemáticos. Por


ejemplo, la posición de una partícula (x), la velocidad (v), la masa (m), etc. Establece
procedimientos experimentales bien definidos para asignar a estos símbolos valores
numéricos. De esta manera, las relaciones conceptuales se transforman en ecuaciones
que podrán ser manipuladas por el aparato matemático. La teoría ha adquirido
formalismo.

El formalismo es interpretado al asignar un significado a estas expresiones


matemáticas.

Cuando se acepta universalmente que todos los símbolos del formalismo son
interpretados sin ambigüedad representando alguna propiedad de la realidad, se dice
que la teoría queda concluida.

Bien, cualquier teoría física, para ser aceptada, debe hacer predicciones detalladas.
Dado un experimento bien definido, la teoría ha de especificar correctamente el
resultado o, al menos, asignar probabilidades correctas a todos los resultados posibles.
Desde este punto de vista formal la mecánica cuántica puede considerarse
extraordinariamente buena. En su calidad de teoría moderna fundamental de las
partículas elementales, de los átomos, de las moléculas, de la radiación
electromagnética y del estado sólido, suministra métodos para calcular los resultados de
la experimentación en todos estos campos. Pero se espera que no sólo sea capaz de
determinar los resultados de un experimento sino que nos de alguna comprensión de los
sucesos que presumiblemente sustentan los resultados observados (interpretación).

Pongamos un ejemplo: ya vimos que en mecánica cuántica una partícula elemental,


presupongamos un electrón, se representa mediante una expresión denominada
"función onda". Esta representación no está en contra de la experiencia, por el
contrario, la función onda da en forma exacta la probabilidad de hallar el electrón en
cierto lugar. Sin embargo, cuando el electrón se detecta realmente, siempre tiene una
posición definida aunque la ecuación lo describa frecuentemente como esparcido sobre
una región del espacio. A causa de esta ambigüedad muchos hombres de física
encuentran más adecuado considerar a la mecánica cuántica como un mero conjunto de
reglas que permite predecir los resultados de los experimentos. Como se adelantó en la
sección anterior, esta ambigüedad es uno de los conceptos básicos de la mecánica
cuántica que más cuesta interpretar. Se vuelve a repetir la vieja cuestión de determinar
si los habitantes de la materia microscópica son o no partículas, sin olvidar la relación
probabilística de la ecuación onda. No olvidemos que cualquier partícula de menor
tamaño que el átomo no se rige por las mismas leyes que los objetos macroscópicos.
Este concepto es muy difícil de probar, pero a través de los años se ha intentado.

La función onda, llamada estado cuántico, especifica, hasta donde es posible, todas las
cantidades de un sistema físico. Según su visión no todas las cantidades de un sistema
tienen simultáneamente valores definidos. El ejemplo más claro de esta aseveración lo
constituye el "principio de incertidumbre de Heisemberg" que establece la
imposibilidad de definir al mismo tiempo la posición y el momento de una partícula.
No hay que olvidar que el estado cuántico de un sistema proporciona de manera
inequívoca la probabilidad de cada resultado posible de cada experimento que se
desarrolla en el sistema.

Estadísticamente, si la probabilidad es 1 el resultado se producirá sin duda, así como al


ser la probabilidad cero, el resultado no se dará. En medio de estos dos extremos se
halla toda una gama de posibilidades las que se darán con más frecuencia cuanto más se
acerquen a 1.

Para muchos personas, científicos inclusive, esta teoría sigue hallándose en conflicto
con una imagen del mundo que muchos consideran obvia y natural. Esta imagen se basa
en tres axiomas (por lo tanto se toman como verdades indemostrables).

1. La primera es el realismo, doctrina que establece que las regularidades


observadas en los fenómenos apreciados están causadas por alguna realidad
física cuya existencia es independiente del observador.
2. La segunda premisa establece que la inferencia inductiva es una forma válida
para aplicarse libremente, por tanto, podemos deducir conclusiones legítimas a
partir de observaciones coherentes.

3. La tercera premisa se la llama separabilidad o localidad de Einstein. 

Expliquemos con un ejemplo para facilitar su entendimiento. Supongamos que se tiene


dos personas, muy distanciadas una de otra, con una moneda cada una. Arrojan las
monedas una gran cantidad de veces a fin de determinar la probabilidad que salga cara
o cruz. El sentido común nos dice que, si las dos personas se alejan lo suficiente, la
probabilidad de que una de ellas obtenga cara en un tiro es independiente del resultado
obtenido por la otra. Aceptar la independencia de las probabilidades en juego es aceptar
que el sistema formado por las dos monedas es "separable". En efecto, aunque antes
hayan estado en estrecho contacto (en un bolsillo, por ejemplo), nadie pondrá en duda,
en este caso, la vigencia de la separabilidad. Es más, Einstein establece que ningunas
influencia (de la clase que sea) puede propagarse más rápido que la velocidad de la luz.

La argumentación a partir de estas premisas conduce a una predicción explícita de los


resultados de una determinada clase de experimentos en física de las partículas
elementales. También podemos acudir a las reglas de las mecánica para calcular los
resultados de estos experimentos. Ambas predicciones son distintas, por lo tanto, o las
teorías realistas locales o la mecánica cuántica, tienen que ser falsas.

Einstein se interesó mucho por la mecánica cuántica, a veces desde el punto de vista
crítico. Su sentido físico le decía que la exactitud de las predicciones de la teoría no era
razón para aceptar la interpretación probabilística de Max Born, Werner Heisemberg,
Niels Bohr y otros, conocida como "Interpretación de Copenhague",
debido al nombre de la ciudad en la que residía Bohr. Para refutar
esta interpretación, Einstein publicó en 1935, junto a Boris Podolsky
y Nathan Rose, un célebre artículo titulado "¿Puede considerarse
completa la descripción que de la realidad física da la Mecánica
Cuántica?.

En aquel tiempo los éxitos de la mecánica cuántica eran ya tales que


era natural considerar exactas sus predicciones. Desde ese punto de
vista Einstein, Podolsky y Rose (EPR) idearon un hábil experimento
imaginario. Calcularon los resultados que debía obtenerse según la mecánica cuántica y
razonaron del modo siguiente:  si para la noción de realidad física se acepta una
definición muy natural que proponen en su artículo, entonces la mecánica cuántica
deja escapar algunos "elementos de realidad" que, no obstante, aparecen en resultados
de medidas macroscópicas. Aunque muy potente y útil, esta teoría sería incompleta y
probablemente de carácter provisional . De allí extraemos que el movimiento de una
partícula debe describirse en términos de probabilidad por la única razón de que hay
algunos parámetros que determinan el movimiento que todavía no han sido
determinados. En cuanto los valores de estas hipotéticas "variables ocultas" lleguen a
conocerse se podrá definir una trayectoria totalmente determinista.

Muchísimos físicos han apoyado la visión del argumento EPR tachando de "dogma" a
la interpretación Copenhague:  ese es el dogma, más o menos oficial, de la física
teórica, y tal es la lección que exponen los manuales universitarios (Teoría alternativa de
Bohm a la mecánica cuántica - David Z. Albert - Investigación y Ciencia  Nº 214 - Julio 1994 - Pág. 20).
El argumento EPR históricamente fue desarrollado a partir de las variables de posición
e impulso de dos partículas correlacionadas. David Bohm, del Colegio Birbeck de
Londres, la reformuló para variables de espín (1951); su versión modificada sirvió a
Jhon Bell de punto de partida para establecer sus famosas desigualdades. Para cualquier
partícula la mecánica cuántica prevee la posibilidad de que posea un momento cinético
de rotación interna o espín, incluso en el caso de que tal partícula sea estrictamente
puntual. Dicho sea de paso, he aquí otro ejemplo de resultado cuántico poco intuitivo.
¿Cómo imaginar, en efecto, la rotación sobre sí mismo de un objeto puntual que, por
tanto, carece de estructura interna?. 

Al igual que el momento clásico el espín está representado por un sector del que cabe
medir la componente respecto de un eje cualquiera. El electrón, el muón y el protón son
partículas llamadas de espín ½. Ello significa que si se mide la componente del espín
sobre un eje cualquiera, sólo cabe esperar dos valores posibles: + /2 ó – /2 (donde
es una constante que es igual a h/2 y h es la constante de Planck). Es precisamente por
que la nueva teoría conducía a valores cuantificados como este que se la llamó
mecánica cuántica. Si bien el espín es análogo sólo en algunos aspectos al momento
angular de rotación de un cuerpo macroscópico, nos basta con que se represente
mediante un vector.

Supongamos que un físico ha ideado una demostración que pueda efectuarse con
partículas subatómicas, por ejemplo, los protones. Tras intentos descubre que unos
protones pasan la prueba y otros no; pero él no sabe si está midiendo alguna propiedad
real de los protones o simplemente observando fluctuaciones al azar de su aparato. Por
eso decide aplicar la prueba a pares de protones. Los protones que constituyen el par
están inicialmente muy próximos, lo que se logra aplicando un procedimiento análogo a
ambos. Se permite luego que las partículas se separen. Cuando se han alejado cierta
distancia macroscópica (medida en cm o m) se les pone la prueba, simultáneamente
para algunos pares y con intervalo de tiempo para otros. El físico descubre una estricta
correlación (existencia de mayor o menor dependencia entre dos elementos) negativa
cuando en un par un protón pasa la prueba y el otro no.

Si se acepta como premisa el realismo, el uso libre de la inducción y la separabilidad de


Einstein, el físico se sentirá justificado para concluir que la prueba mide alguna
propiedad real de los protones. Para que la correlación pueda explicarse, la propiedad
debe existir antes de la separación de los protones en cada par y ha de tener algún valor
definido para ellos desde el momento en que exista hasta que se lleve a cabo el
experimento.

Existe una prueba real que puede llevarse a cabo con partículas subatómicas y que da
resultados análogos. Se trata de la medición de cualquier componente del espín. Como
ya se ha dicho, cualquiera sea el eje elegido para medir la componente del espín, los
resultados serán siempre los mismos, uno de dos, + /2 ó – /2, ambos de igual valor
numérico pero de signos opuestos.

Se observa una correlación estrictamente negativa entre los componentes del espín
cuando se juntan dos protones en la configuración mecánico – cuántica llamada estado
singlete (single, del inglés, simple). En otras palabras, si dejamos separar dos protones
en estado singlete y se mide luego la componente del espín en ambas partículas, será
siempre para un protón positivo y para el otro negativo. No hay forma de predecir que
partícula tendrá la componente negativa y cual la positiva, sin que ello sea obstáculo
para que la correlación esté bien establecida.

En lo concerniente a la medición no hay razón de conflicto entre las predicciones de la


mecánica cuántica y las de las teorías realistas locales. Aparecen al complicarse el
experimento.

El vector que representa al espín de una partícula se define mediante sus componentes a
lo largo de los tres ejes en el espacio. Para un vector asociado con un objeto
macroscópico de vida normal, podría darse por sentado (y con razón), que las tres
componentes tienen valores definidos en cualquier instante aunque nosotros los
desconozcamos.

Aunque los instrumentos pueden medir únicamente una componente del espín cada vez,
podemos construir un dispositivo que mida la componente del espín a lo largo de
cualquier eje, arbitrariamente. Se designará a cada eje con la letra A, B, C.

Así que los resultados podrán ser: + A ó – A, + B ó – B, + C ó – C.

El investigador puede preparar una gran muestra de protones en estado singlete y


observará que se mide la componente A para ambos protones como lo indica la
correlación negativa.
Es importante recordar que en estos experimentos no se somete ningún protón a una
medición de más de una componente, pero, si se aceptan las tres premisas de las teorías
locales (realismo, inducción y localidad) se puede deducir a partir de los resultados, que
tomando la medida en distintos componentes del par de protones, se tendrá los valores
de ambas componentes para cada uno de los protones. Por ejemplo, si en una medición
me da que en el eje A es + y en el otro protón el eje B es –. Tengo dos protones: A + B +
el primero y A – B – el segundo. De allí que el número de pares observados de cada tipo
puede representarse por n (A+ B) ó n (A B+) donde n es un número natural.

En 1964 John S. Bell, de la Organización Europea de Investigaciones Nucleares


(CERN), descubrió la relación que estamos tratando. Para cualquier gran muestra de
pares de protones en estado singlete, Bell demostró (matemáticamente) que la hipótesis 
de las teorías realistas locales imponían un límite en la correlación que podía esperarse
cuando se medían distintas componentes del espin. El límite se expresa en forma de
desigualdad, que hoy día se conoce con el nombre de desigualdad de Bell. Dadas las
condiciones descriptas, se establece que el número de pares A+ B+ no puede ser superior
a la suma de los pares A+ C+ y el número de pares B+ C+.

La desigualdad queda expresada simbólicamente de esta manera: n (A+B+) < n (A+ C+) +
n (B+ C+)

Esta desigualdad puede ser fácilmente demostrada dentro del contesto de las teorías
locales mediante un simple razonamiento basado en teoría de conjuntos.

Para comenzar podemos introducir la hipótesis contraria, "existe una forma de medir
independientemente don componentes del espín en una sola partícula". Supongamos
que este aparato, inexistente, ha revelado que un protón posee componente de espìn A+
y B. La tercera componente no se ha medido por lo que puede ser positiva o negativa.
Por lo tanto el protón puede ser A+ BC+ o A+ BC . No hay otra posibilidad.

Si se detectan muchos protones de espín A+B podríamos escribir: N (A+B) = N


(A+BC+) + N (A+B C) (para evitar confusiones se ha utilizado N(A+B+) para representar electrones
simples y n (A+B+) para pares de protones).

La ecuación establece el hecho evidente que cuando un conjunto de partículas se divide


en dos conjuntos, el número total de partículas debe ser igual a la suma del número de
partículas de los subconjuntos.

Los protones que aparecen con espín A+ C pueden analizarse de forma análoga. 

De allí que: N (A+C) = N (A+CB+) + N (A+C B)*

Podemos dar un paso más.

El número de protones N (A+C)* debe ser mayor o igual a N (A+B C), o sea N (A+
C) > N (A+BC) (1). (suponiendo que el otro conjunto sea vacío). Recordar que la parte no
puede ser mayor que el todo. Recurriendo al mismo razonamiento tenemos que N
(BC+) = N (BC+A+) + N (B C+A), entonces, N (BC+) > N (A+ BC+) (2)

Consideremos de nuevo la primera ecuación y reemplacemos por (1) y (2):

N (A+B) = N (A+BC+) + N (A+B C)  N (A+B) < N (A+C) + N (B C+) (3)

Aunque esta desigualdad se ha deducido aquí formalmente, no puede comprobarse de


manera directa por vía experimental, pues el aparato capaz de hacerlo no existe. Pero
los experimentos realizables se refieren a pares de protones y no a protones
individuales.

Como ya se había explicado, podemos medir la componente de un espín de un protón y


otra componente del segundo protón y deducir las componentes de cada uno. Esto
quiere decir que la observación de un par de protones, uno de cuales tiene componente
A+ y el otro posee B+ puede emplearse como señal indicativa de la existencia de un
único protón A+ B. Además, mediante un argumento estadístico, puede probarse que n
(A+ B+), el número de pares doblemente positivo, debe ser proporcional a N(A+ B)
número de protones individuales con los componentes de espín A+ B. De manera
análoga n (A+C+) debe ser proporcional a N(A+C) y n (B+ C+) debe ser proporcional a
N(BC+). 

Como la constante de proporcionalidad es la misma para todos, al sustituir cada término


arriba especificado en la ecuación (3), se suprime quedando: n (A+B+) < n (A+ C+) + n
(B+ C+) que es llamada desigualdad de Bell.

Obviamente, dicha desigualdad se prueba mediante ese razonamiento si sólo si las tres
premisas de las teorías realistas locales se consideran válidas.

La desigualdad de Bell constituye una predicción explícita del resultado de un


experimento. Las reglas de la mecánica cuántica pueden utilizarse para predecir los
resultados del mismo experimento. No se darán detalles del proceso matemático
(formalismo), lo que si  hay que destacar es que es totalmente explícito y objetivo, en el
sentido que todo aquel que aplique correctamente sus reglas obtendrá el mismo
resultado.

Sorpresivamente, las predicciones de la mecánica cuántica difieren de las de las teorías


realistas locales. En particular predice que algunas elecciones de los ejes A, B,  y C
violan la desigualdad de Bell. Para ello habrá más protones A+B+ que pares combinados
en A+ C+ y B+ C+. Por lo tanto las teorías son antagónicos.

A partir de 1971 se idearon experimentos destinados a probar cual de las teorías era la
correcta. La mayoría suplantó al protón por el fotón (unidad - cuanta - de la radiación
electromagnética).

El fotón, unidad fundamental de la luz, puede comportarse como onda o como partícula
y persistir en ese estado de ambigüedad hasta que se realiza una medición. Si se mide
una propiedad corpuscular se comporta como partícula; si se mide una propiedad
ondulatoria, lo hará como onda. Que el fotón sea onda o partícula que queda indefinido
hasta que se haga una medición.

La función onda del fotón permite conocer tres "propiedades" del fotón: su dirección,
su frecuencia y su polarización lineal. Esta última es análoga al espín de una partícula
másica.

Un aparato adecuado para medir la polarización es una hoja de lámina polarizante. Su


versión ideal consta de una lámina llamada eje de transmisión, que deja pasar a todo
haz de luz linealmente polarizado a lo largo de su dirección; la lámina bloquea a toda la
luz que incide perpendicular a ella si esta se hallara polarizada en dirección
perpendicular al eje de transmisión.

Se pueden llevar a cabo diversas experiencias girando las láminas polarizadoras de


diferentes maneras. Si el fotón está polarizado linealmente según el eje de transmisión,
la probabilidad de que se transmita es 1. Si el fotón está polarizado linealmente en
dirección perpendicular al eje de transmisión, la probabilidad de que se transmita es
cero. Otra consecuencia de la mecánica cuántica, que trasciende la expuesto hasta
ahora, es  que si el fotón está polarizado linealmente formando cierto ángulo con el eje
de transmisión, comprendido entre 0º y 90º. La posibilidad de transmisión es un
número que es exactamente al coseno de dicho ángulo.

El principio de superposición constituyente otra idea fundamental de la mecánica


cuántica. Afirma que, a partir de dos estados cuánticos cualesquiera de un sistema,
puede formarse otros estados superponiéndolos. En un contexto físico, la operación
corresponde a formar un nuevo estado que se "solapa" con cada uno de los estados que
lo constituyeron, de la interferencia de dos ondas resulta una tercera.

Basta las dos ideas básicas (incertidumbre y superposición) para advertir que la
mecánica cuántica entra en conflicto con el sentido común, nuevamente.

En 1969 en la Universidad de Harvard se propone un plan para abordar la


comprobación requerida. Debían obtenerse pares de fotones, con polarización
linealmente correlacionadas, mediante la excitación de átomos hasta un estado inicial
apropiado. A continuación estos átomos volverían al estado no excitado por emisión de
dos fotones. Filtros y lentes asegurarían que cuando los fotones salieran en sentido
opuestos, un fotón incidiría sobre un analizador de polarización y el otro incidiría en
otro analizador. Variando las orientaciones de cada analizador de polarización entre dos
posibilidades y registrando el número de pares de fotones transmitidos en cada uno de
los cuatro combinaciones posibles de las orientaciones de los analizadores, podían
acometerse mediciones de las correlaciones de transmisión entre fotones de un par.
Como analizadores de polarización se sugirió cristales de calcita o placas de vidrio,
dada su mayor eficacia, que las láminas de polarización, a la hora de bloquear fotones
polarizados perpendicularmente al eje de transmisión. Si dos fotones, uno en cada
detector, se registran en un intervalo de 20 nanosegungos (2.10  8 seg), la probabilidad
de que los hubiera emitido el mismo átomo sería bastante elevada.

El experimento se lleva a cabo recién en 1975 en la Universidad de Texas, repetido


posteriormente por muchos otros grupos. La mayoría de los resultados experimentales
están de acuerdo con las predicciones de la mecánica cuántica y discrepan de la de los
modelos de las variables ocultas. Si bien hubo experiencias que disienten con las
predicciones cuánticas, la elaboración de estos experimentos son de dudosa fiabilidad a
causa de ciertos puntos débiles, muy sutiles, en su diseño.

Ello no obstante tiene su talón


de Aquiles, hasta comienzo de
la década del ochenta,
permitiendo mantener las
esperanzas a los defensores
incondicionales de variables
ocultas: los analizadores de
polarización persistían en sus
respectivas orientaciones
durante intervalos aproximados
de un minuto, tiempo
suficiente para el intercambio
de información entre los
analizadores mediante algún
mecanismo hipotético. Por lo tanto, tales experiencias no consistían ningún banco de
prueba para decidir entre la mecánica cuántica y los modelos locales.

Para acabar con ese punto débil, Alain Aspect, Jean Dalibard y Gerard Roger, del
Instituto de Óptica de la Universidad de  Paris, realizaron un espectacular experimento
en el que la elección entre las orientaciones de los analizadores de polarización se
producía mediante conmutadores ópticos mientras los fotones se hallaban en vuelo.
Ocho años de trabajo exigió el experimento que concluyó en 1982. En él, cada
conmutador es un frasquito de agua donde se generan, ultrasónicamente y con
periodicidad, ondas estacionarias. Las ondas sirven como redes de difracción que
desvían con un alto rendimiento un fotón incidente. Si se conectan las ondas
estacionarias, el fotón viajará sin desviarse hacia el analizador que está orientado de
otra. La conmutación entre las orientaciones dura unos 10 nanosegundos (10 – 8 seg).
Los generadores que abastecen a los conmutadores funcionan de modo independiente,
aunque (desafortunadamente para la total definición del experimento) la operación es
periódica y no aleatoria. Un analizador dista de otro 13 m, de manera que una señal que
avanza a la velocidad de la luz invierte, aproximadamente, 40 nanosegundos (4.10 – 8
seg.) en recorrer ese intervalo. En consecuencia, la elección de la orientación del primer
analizador no debería influir en la transmisión del segundo fotón a través del segundo
analizador, ni la elección de la orientación del segundo analizador debería hacerlo en la
transmisión del primer fotón a través del primer analizador.
Se esperaba, pues, que el dispositivo experimental satisfaga la condición de localidad
de Bell. De ello se infería que, de acuerdo con el teorema, habría violaciones de
correlación de la mecánica cuántica en los resultados experimentales. La verdad es que
el experimento produjo el resultado opuesto. Los datos de las correlaciones
concordaban, dentro del error experimental, con las predicciones mecánico - cuánticas
que se calculaban a partir del estado cuántico 1 (psi). Además, los datos diferían, en
más de cinco desviaciones estándar, de los límites permitidos según el teorema de Bell,
por cualquier modelo de las teorías realistas locales. Aún cuando el experimento no sea
absolutamente definitivo, la mayoría de la gente considera que las perspectivas de
invertir los resultados son mínimas.

Parece poco probable que la familia de los modelos locales pueda salvarse. Ahora sólo
resta hallar cual de las premisas es la que debe corregirse. Todo apunta que la tercera, la
llamada separabilidad de Einstein, deberá analizarse cuidadosamente y verificar hasta
donde llega su veracidad.   

También podría gustarte