Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Capitulo 4
Capitulo 4
4
14 de abril de 2023
4-1
Todo operador hermı́tico  tiene una base completa de autovectores. Denota-
mos a los autovalores reales de  como an , con n = 1, ..., K. Cada autovalor tiene
asociado un subespacio (el subespacio generado por los autovectores que tienen
ese autovalor). Denotaremos como P̂n al proyectorP asociado a ese subespacio.
La descomposición espectral de  es  = K n=1 an P̂n . Si  es no degenerado,
los proyectores P̂n son de rango 1 y se escriben como P̂n = | n ih n |. En ese caso
K es igual a la dimensión del espacio del espacio de Hilbert y los autovectores
| n i de  son una base ortonormal de H. Por otro lado, si el  es degenerado y gn
es la degeneraci
Pg ón del autovalor an , entonces podemos escribir los proyectores P̂n
como P̂n = µnn =1 | n,µn ih n,µn | (donde todos los vectores | n,µn i son ortonomales
satisfacen Â| n,µn i = an | n,µn i para todo µn = 1, .., gn y forman una base del espacio
de Hilbert).
Este postulado lleva implı́cita una noción de lo que quiere decir “medir”. Si
bien esta noción es intuitiva, vale la pena discutirla más extensamente (cosa que
haremos más adelante). Es suficiente decir aquı́ que este postulado es compatible
con la idea descripta en los capı́tulos anteriores: medir quiere decir filtrar un haz
incidente (descripto por un estado cualquiera) dando lugar a un conjunto de haces,
cada uno de los cuales corresponde a un autovalor distinto an . Y, dado que los
observables son operadores hermı́ticos, sus autovalores an son reales.
Además, podemos deducir que todas las predicciones que hace la Mecánica Cuánti-
ca son las mismas si el estado es descripto por el vector | i o por cualquier otro
vector | 0 i que sea de la forma | 0 i = exp(i✓)| i. Es decir, dos vectores que difieren
en un número complejo de módulo uno describen el mismo estado ya que predicen
las mismas probabilidades.
1 Prob(a
n | i) debe entenderse como la probabilidad de detectar an dado que el estado antes de
la medición es | i.
4-2
Antes de pasar al último postulado cinemático conviene introducir las siguientes
definiciones: diremos que el valor medio del operador  en el estado | i es
0 P̂n | i
| i= . (4.5)
h |P̂n | i1/2
Donde es necesario incluir el factor h |P̂n | i 1/2 para que el estado posterior a la
medición tenga norma 1. Para el caso no degenerado, el factor de normalización se
simplifica h |P̂n | i1/2 = |h n | i| a menos de un factor complejo de módulo uno, y
por lo tanto el estado luego de la medición es simplemente el autoestado corres-
pondiente al autovalor medido | 0 i = | n i.
Este postulado en realidad no es cinemático ya que habla sobre la evolución de
un sistema cuando se realiza una medición2 . Es la consecuencia natural de conce-
bir al proceso de medición como un proceso de filtrado, tal como se describió en
2A pesar que este postulado describe en forma correcta los experimentos, existen cuestiones
conceptuales que no explica: cómo y cuándo ocurre el colapso durante la medición. Para muchos
no existe un problema con esta cuestión, pero para otros sı́ y es lo que se conoce como el problema
de la medición. En este sentido, existen diversas interpretaciones sobre el proceso y es un tema que
continúa siendo debatido.
4-3
el caso del spin. Teniendo en cuenta que más arriba dijimos que “el estado es in-
formación”, este postulado nos trae aparejados problemas conceptuales serios. Al
registrar el resultado an adquirimos información y por lo tanto tenemos que ac-
tualizar la descripción del sistema cambiando el estado. El sistema, indudable-
mente, cambia en el proceso de medición ya que interactúa con otro (el aparato de
medición). Este cambio, en la visión que estamos presentando, es simplemente el
cambio en la información que disponemos sobre el sistema.
Los estados
Como vimos, hay infinitas bases que se corresponden a autoestados del obser-
vable Ŝn = n ~ A estas bases las denotamos Bn = {|0n i, |1n i}. Cualquier estado puede
~ ·S.
escribirse como combinación lineal de los elementos de alguna de estas bases. Por
simplicidad, tomaremos la base Bz y escribimos un estado como
| i = ↵|0z i + |1z i,
Los estados de una base Bn pueden escribirse como combinación lineal de los
estados de cualquier otra base Bm . Veremos más abajo como obtener estas expre-
siones de manera muy sencilla.
Los operadores
Los observables, estarán representados operadores que son matrices hermı́ticas
de 2⇥2. En lugar de escribir explı́citamente estas matrices, resulta muy convenien-
te expresarlas de una manera compacta en términos de las matrices de Pauli y la
identidad. Las matrices de Pauli x , y y z , junto con la identidad 1 forman una
base completa del espacio de los operadores que actúan sobre el espacio de esta-
dos. En efecto, el espacio de los operadores L(H) tiene la estructura de un espacio
4-4
de Hilbert con un producto interno tal que (Â, B̂) = Tr(† B̂). Por lo tanto, cualquier
operador  puede escribirse como combinación lineal de estos cuatro operadores:
1⇣ ⌘
 = a 1 + ax x + ay y + az
2 0 z
1⇣ ⌘
= a0 1 + ~
a· ~ , (4.7)
2
donde el factor 1/2 es una mera convención que se introduce por conveniencia.
Teniendo en cuenta que todos los operadores j son tales que Tr j = 0 y que dichos
operadores cumplen las relaciones j k = i✏jkl l y i2 = 1, podemos invertir la
ecuación anterior y obtener:
Donde si los operadores son hermı́ticos los coeficientes ai son reales. Si escribimos
al operador  de este modo, es inmediato calcular sus autovalores. En efecto, para
diagonalizar  sólo tenemos que diagonalizar el término ~ a · ~ , ya que el primer
término es la identidad multiplicada por un factor y por lo tanto es diagonal en
cualquier base. Usando la propiedad que introdujimos en el Capı́tulo 1: (~ a · ~ )(~b ·
a · ~b 1 + i (~
~) = ~ a ^ ~b) ~ , y considerando el mismo vector ~ a en ambas expresiones,
resulta que (~ 2
a·~ ) = |~ 2
a| 1. De forma que la matriz (~a·~ ), dado que es hermı́tica, tiene
autovalores reales iguales a ±|~ a|. En consecuencia, los autovalores de  resultan ser
a± = (a0 ± |~a|)/2 y sus autovectores son los autovectores del operador ~ a · ~.
1
P̂n,± = (1 ± n
~ · ~) , (4.9)
2
donde n~ es un vector de norma unidad (es decir, es tal que n2x + n2y + n2z = 1) y se
cumple que (~ n · ~ )P̂n,± = ±P̂n,± . Ası́ construido, el operador P̂n,± proyectará cualquier
vector sobre el autoestado de autovalor ±~/2 del operador Ŝn = n ~ · ~ ~/2.
Esta propiedad nos permite escribir fácilmente los vectores de cualquier base
Bn en función de los de la base Bz . Aplicando el proyector P̂n,+ al estado |0z i obtene-
mos un vector que es paralelo a |0in (en forma análoga si aplicamos P̂n, obtenemos
un vector paralelo a |1in ), y que es proporcional a la proyección del vector original
sobre esa dirección:
1 1
P̂n,± |0z i = (1 ± nz )|0z i ± (nx + iny )|1z i. (4.10)
2 2
4-5
De este modo resulta que, luego de normalizar,
(1 + nz )|0z i + (nx + iny )|1z i
|0n i = p ,
2(1 + nz )
(1 nz )|0z i (nx + iny )|1z i
|1n i = p . (4.11)
2(1 nz )
Cabe destacar que el único caso en que estas expresiones no pueden aplicarse di-
rectamente es aquel en el cual nz = ±1 (en ese caso los vectores de partida son
justamente los de la base Bn ).
Como mencionamos en el primer capı́tulo, además de la base formada por los
vectores |0z i y |1z i otras bases importantes son las denominadas Bx y By . Las matri-
ces unitarias de cambio de base son fáciles de calcular a partir de conocer todas las
proyecciones entre elementos de distintas bases. Por ejemplo, la matriz de cambio
de base entre Bx y Bz resulta ser
! !
h0x |0z i h0x |1z i 1 1 1
Ûx!z = =p , (4.12)
h1x |0z i h1x |1z i 2 1 1
†
por otro lado Ûx!z = Ûz!x , que en este caso está representada por la misma ma-
triz.
4-6
4.3. Observables
4.3.1. Conjunto Completo de Observables que Conmutan
(CCOC)
Un concepto muy importante es el de Conjunto Completo de Observables que
Conmutan (CCOC). Su definición es sencilla: Se trata de un conjunto de opera-
dores que conmutan todos entre sı́ (que, por lo tanto, pueden ser diagonalizados
simultáneamente) y que cumplen con la condición de “completitud”.
El conjunto de observables que conmutan {Â, B̂, Ĉ, D̂, ....} es completo si y sólo
si cada secuencia de autovalores (ai , bj , ck , dl , ...) identifica a un único vector de la
base ortonormal que diagonaliza a todos los operadores (o sea, que existe un único
vector que es autovector de  con autovalor ai , de B̂ con autovalor bj , etc). En
consecuencia, la base que diagonaliza simultáneamente a todos estos operadores
puede denotarse como B = {|ai , bj , ck , dl , ...i}.
Esta noción adquiere sentido para operadores degenerados, ya que un operador
no degenerado define, por sı́ mismo, un CCOC.
4-7
ponen de manifiesto cuán extraño es el comportamiento de la naturaleza a escala
microscópica.
El principio de complementariedad es un verdadero atentado contra nuestra in-
tuición. En su versión más general afirma lo siguiente: “Si preparamos un objeto
de manera tal que la propiedad A toma un valor preciso, entonces siempre exis-
te otra propiedad B cuyo valor está completamente indeterminado. En ese caso,
afirmamos que las propiedades A y B son complementarias”.
El principio se aplica a situaciones muy habituales en las que sometemos a un
objeto a algún proceso de preparación tal que si posteriormente medimos repetida-
mente la propiedad A siempre obtenemos el mismo valor. Lo sorprendente es que
el principio de complementariedad afirma que “entonces, siempre existe otra propie-
dad B cuyo valor está completamente indeterminado”. ¿Qué quiere decir esto? Simple-
mente significa que si preparamos al sistema en un estado en el que la propiedad
A tiene un valor preciso y medimos la propiedad B entonces obtendremos resulta-
dos completamente aleatorios. Si repetimos muchas veces este procedimiento (es
decir, preparamos el sistema con un valor de A y medimos la propiedad B) obten-
dremos resultados diferentes, distribuidos de manera totalmente azarosa. Es decir,
dos operadores complementarios son máximamente incompatibles.
La demostración del principio de complementariedad para un sistema de di-
mensión D es muy sencilla y para ello simplemente construiremos explı́citamen-
te el observable complementario para un observable arbitrario. Consideremos el
observable  no degenerado que es diagonal en la base BA = {| j i, j = 1, ...., D}. Sa-
bemos que si medimos  obtendremos uno de sus autovalores aj como resultado.
De esta manera, el estado del sistema quedará preparado en el correspondien-
te autoestado | j i. Lo que sigue es verificar que siempre podemos construir un
operador B̂ no degenerado tal que si luego de medir  medimos B̂, la probabili-
dad de todos los resultados bj será uniforme (aleatoriedad completa). Para esto,
alcanza con decir cuál es la base en la que B̂ debe ser diagonal. Esta base pue-
de elegirse como BB = {| ˜ j i, j = 1, ..., D} donde los vectores | ˜ j i se definen como
P i2⇡ k j
| ˜ j i = p1 k e D | k i (la transformada de Fourier discreta de los estados de los
D
estados de la base BA ). Efectivamente este es un conjunto de vectores que es orto-
normal4 h ˜ j | ˜ l i = jl , y que cumple con la siguiente propiedad importante:
˜ 2 1
h j| li = 8j, l. (4.14)
D
Esto implica que la probabilidad de medir cualquier autovalor de B̂, habiendo pre-
parado al sistema en cualquier autoestado de Â, es igual a 1/D. O sea, todos los
resultados son equiprobables y por lo tanto estas las propiedades A y B son com-
plementarias.
En este caso, llamamos a las bases BA y BB , que diagonalizan a dos operado-
res complementarios, bases mutuamente no sesgadas. Es posible demostrar que en
cualquier espacio vectorial de dimensión D existen a lo sumo un conjunto de D + 1
1 PD k
4 Para ello debemos utilizar la representación de la Delta de Kronecker jl = D k=1 ei2⇡ D (j l)
.
4-8
bases que son mutuamente no sesgadas entre sı́ (y que ese número siempre se pue-
de alcanzar si D es un número primo o una potencia de un número primo).
En el caso de un sistema de spin 1/2, los observables Ŝx , Ŝy y Ŝz son todos com-
plementarios ya que, como vimos, sus bases son mutuamente no sesgadas. En cam-
bio, los operadores
p de spin Ŝn en las direcciones no ortogonales a ẑ (por ejemplo
~ = (0, 1, 1)/ 2), aunque no son compatibles con Ŝz , no llegan a ser complementa-
n
rios.
donde las dispersiones de los observables (Ec. (4.4)) se refieren al estado |⇠i. Ahora
podemos reescribir el lado derecho de la desigualdad usando la identidad ÂB̂ =
1 1
2 {Â, B̂} + 2 [Â, B̂]. Asimismo, el módulo al cuadrado que aparece en el lado derecho
puede calcularse explı́citamente separando en parte real e imaginaria. Para ello se
pueden usar dos propiedades importantes: (a) el valor medio del conmutador de
4-9
dos operadores hermı́ticos es siempre un número imaginario puro5 ; (b) el valor
medio del anticonmutador es siempre real. De este modo, la desigualdad resulta
que puede ser escrita como:
2 2 1
A B |h[Â, B̂]i|2 + K 2 (Â, B̂), (4.17)
4
donde la función de correlación K(Â, B̂) está definida como K(Â, B̂) = 12 h{Â, B̂}i
hÂihB̂i. Como ambos términos de la desigualdad anterior son positivos, es evidente
que de lo anterior se pueden deducir las siguientes desigualdades
1
A B |h[Â, B̂]i|, (4.18)
2
A B |K(Â, B̂)|. (4.19)
~
X P (4.20)
2
En este caso, el lado derecho de la desigualdad es independiente del estado. La
segunda desigualdad, en cambio, no es relevante ya que siempre es posible encon-
trar estados para los cuales la función de correlación se anula (por ejemplo, para
cualquier autoestado de  o B̂ vale que K(Â, B̂) = 0).
Como el producto de las dos dispersiones debe ser mayor que una cierta can-
tidad entonces debe cumplirse que cuanto más pequeña sea Â, más grande debe
ser el valor de B (y viceversa). Para el caso de posición y momento, la pequeñez
del valor de ~ (un número con treinta y cuatro ceros detrás del punto decimal)
explica el motivo por el cual las consecuencias de los principios de complementa-
riedad e incertidumbre no son perceptibles en la escala macroscópica. Por ejemplo,
si preparamos una partı́cula de 1 gramo en un estado donde la posición está deter-
minada con una incerteza de X = 1cm, entonces el principio de indeterminación
establece que nunca podremos determinar la velocidad con una incerteza menor
que 10 28 m/seg. Claramente es extremadamente difı́cil construir un instrumento
de medición capaz de detectar una desviación tan pequeña.
No es posible dejar de sorprenderse por las implicancias de los principios de
complementariedad y el de indeterminación, que fueron establecidos respectiva-
mente por Niels Bohr y Werner Heisenberg alrededor de 1925. Ponen en evidencia
cuán extraña es la Mecánica Cuántica y es imposible aceptarlos sin antes intentar
demolerlos: Einstein, y cualquier persona en su sano juicio, preguntarı́a: ¿Cómo es
posible que podamos preparar un objeto de modo tal que si medimos la propiedad
5 Para mostrarloDse puede †
E D usarE la
D siguiente
E D E propiedad
D E para
D E operadores
D E⇤ hermı́ticos:
⇣D E⌘ (ÂB̂) =
(B̂† † ) = B̂Â. Luego [Â, B̂] = ÂB̂ B̂ = ÂB̂ (ÂB̂)† = ÂB̂ ÂB̂ = 2iIm ÂB̂ . En forma
similar se puede mostrar que para el anticonmutador el valor medio es real puro.
4-10
 siempre obtenemos el mismo valor pero que sea imposible lograr que el valor de
la propiedad complementaria B̂ tenga también un valor definido? Esta pregunta
no tiene respuesta dentro de la Mecánica Cuántica. Dicha teorı́a acepta este he-
cho sorprendente como una propiedad de la naturaleza y a partir de eso formula
un modelo que tiene una notable capacidad predictiva. Con todo dramatismo, la
Mecánica Cuántica se yergue hoy, a más de cien años de su nacimiento, como la
única teorı́a compatible con los resultados experimentales modernos.
Es importante notar que en muchos libros de texto de Mecánica Cuántica, el
principio de indeterminación se ilustra con una gran cantidad de ejemplos que
muestran que cuando uno quiere medir la posición de una partı́cula con una preci-
sión alta (con una incerteza pequeña X) entonces inevitablemente introduce una
perturbación que afecta el valor del momento P. Por ejemplo, si queremos localizar
a la partı́cula en un intervalo de longitud X podemos intentar iluminarla con luz
de longitud de onda menor que ese tamaño. En ese caso, cada fotón tendrá un mo-
mento Pf = ~2⇡/ > ~2⇡/ X. Al interactuar con la partı́cula el fotón transferirá su
momento a ella y por lo tanto introducirá una incerteza en el momento del orden
de P = Pf . Esto lleva a que X P ~/2. Sin embargo, este tipo de razonamientos
son innecesarios dentro de la presente formulación de la Mecánica Cuántica y en
muchos casos pueden inducir a equı́vocos. Esas discusiones sirven para motivar la
Mecánica Cuántica mostrando que no podemos imaginar mecanismos fı́sicos que
introduzcan perturbaciones despreciables en todas las propiedades de un sistema.
Sin embargo, la interpretación de las relaciones de Heisenberg no tiene nada que
ver con la perturbación del valor de un observable al medirse otro complementario
con el anterior. La Mecánica Cuántica, como dijimos varias veces, es mucho más
radical. Nos obliga a aceptar que “los experimentos que no se realizan, no tienen
resultados”. O sea, la medición de un observable no puede perturbar el valor que
toma otro ya que ese valor no existe, no pre-existe a la medición. Como vimos y
veremos, si imaginamos que esos valores existen (y que de alguna manera descono-
cida determinan el resultado de la medición de estos observables, aún aceptando
que no puedan medirse simultáneamente por algún motivo desconocido) llegamos
a paradojas y contradicciones con las predicciones de la Mecánica Cuántica.
4-11
bilidades experimentales. Einstein, y cualquier persona razonable, hubiera estado
dispuesto a aceptar un mundo de estas caracterı́sticas. En ese caso, la Mecánica
Cuántica no proveerı́a una descripción completa de la naturaleza sino solamente
darı́a una descripción parcial. Más adelante presentaremos un famoso argumento
formulado por Einstein en 1935 que intentaba demostrar precisamente esto: que
la descripción del mundo provista por la Mecánica Cuántica es incompleta. Vere-
mos también cómo, sorprendentemente, los notables avances de la fı́sica de fines
del siglo XX fueron capaces de demostrar la falsedad del argumento de Einstein.
Es notable, pero la fı́sica ha sido capaz de demostrar que el azar no se origina en
nuestra ignorancia. Sin embargo, debemos reconocer que, hasta ahora: ¡ignoramos
las causas que originan el azar!
4-12
la ciencia ficción y que inevitablemente conducı́a a resultados absurdos.
A principios de la década de 1980 la situación ya habı́a comenzado a cam-
biar y la posibilidad de manipular fotones y átomos individualmente ya no pa-
recı́a una tarea imposible. Hoy, contamos con tecnologı́as que nos permiten gene-
rar fotones de a uno, atrapar átomos de a uno, enfriarlos y controlar su estado.
Estas técnicas se realizan de manera usual en muchos laboratorios del mundo y
muchas están encontrando aplicaciones tecnológicas 6 . Este cambio de paradigma
motivó la búsqueda de tareas útiles que podrı́an llevarse a cabo si uno fuerza capaz
de controlar sistemas cuánticos de a uno. Ası́ surgieron ideas como la DCC y otras
que veremos más adelante, incluidas las simulaciones y computación cuántica.
~ = (m1 , m2 , . . . , mN ),
m (4.21)
4-13
demasiado en darse cuenta que ciertas secuencias de bits aparecen con más fre-
cuencia que otras y a partir de esa observación, junto con un análisis adecuado e
inteligente, podrı́a descubrir el código utilizado y revelar el contenido del mensaje.
Para enviar un mensaje de manera totalmente segura, A tiene una única posi-
bilidad: encriptarlo usando una clave secreta y aleatoria. Al igual que el mensaje, la
clave también es una secuencia de ceros y unos de la forma ~k = (k1 , k2 , . . . , kN ). Para
que la encriptación sea totalmente segura:
1. la clave debe ser secreta (sólo conocida por A y por B),
3. la clave debe ser tan larga como el mensaje (ambos deben tener N bits), y
4-14
Figura 4.1: Ejemplo de uso del protocolo one-time-pad para mandar un mensaje
encriptado de forma segura.
3. Bob decodifica el mensaje aplicando el mismo método usado por Alice para
encriptar:
~ 00 = m
m ~ 0 ~k = m
~ ~k ~k
~ 00 = m
m ~ (4.23)
Es importante notar que, una vez utilizada, la clave debe ser desechada. Por
cierto, si A utilizara la clave dos veces encriptando con la secuencia ~k al mensaje m ~
y también al mensaje n ~ , entonces el método se volverı́a inseguro. En efecto, si al-
guien interceptara los mensajes codificados con la misma clave, que denominamos
~0 y n
m ~ 0 entonces podrı́a extraer información útil sobre ellos notando que el método
antes descripto es tal que m ~0 n ~0 = m
~ n ~ . Esta secuencia, obtenida comparando
dos mensajes codificados con la misma clave pierde su carácter aleatorio y, por lo
tanto, es vulnerable a los métodos de análisis basados en el estudio de las frecuen-
cias de aparición de secuencias de bits, que dependen del lenguaje utilizado, etc.
4-15
Es decir, un espı́a suficientemente inteligente que intercepta varios mensajes codi-
ficados con la misma clave, podrı́a finalmente leer su contenido (o extraer alguna
información parcial).
4-16
Observable elegido O1 O2 O2 O1 O2 O1 O1 O2
Alice
Estado preparado 0 1 0 0 1 0 1 0
Observable medido O1 O1 O2 O2 O1 O2 O1 O2
Bob
Estado medido 0 1 0 0 0 1 1 0
Coincidencia de observables X ⇥ X ⇥ ⇥ ⇥ X X
Bits clave 0 0 1 0
Figura 4.2: Ejemplo de posibles resultados de las distintas rondas del protocolo
BB84 para generar una clave secreta entre Alice y Bob.
Paso 1 Alice prepara un sistema cuántico en un estado que lo elige aleatoriamente en-
tre los autoestados de dos operadores complementarios, y guarda en un cuaderno sus
decisiones.
Llamemos a los operadores complementarios Ô1 y Ô2 , supongamos que ambos son
de dimensión 2. Estos podrı́an ser, por ejemplo, para un spin 1/2: Ô1 = z y Ô2 = x .
Si bien el procedimiento no se restringe al caso de spin 1/2 conviene hacerlo de esta
manera para una primera exposición. En este ejemplo, el primer paso consiste en
que Alice elige al azar preparar alguno de los siguientes estados |0z i, |1z i, |0x i o |1x i.
Una vez preparado el estado, Alice confecciona una tabla con dos filas. En la
primera anota el operador que eligió (Ô1 u Ô2 ) y en la segunda anota el estado que
preparó (0 ó 1, independientemente de la base elegida).
Esto implica que Alice es capaz de enviar fı́sicamente la partı́cula a Bob; transpor-
tarla, dispararla, encausarla en un canal, en definitiva: llevarla de un lugar a otro.
Usualmente, para ello resulta más fácil emplear fotones que partı́culas masivas,
ya que estos viajan a la velocidad de la luz y pueden ser enviados por aire o fibras
ópticas sin que interactúen demasiado con su entorno.
Paso 3 Bob recibe el sistema cuántico enviado por Alice, realiza una medición eligiendo
aleatoriamente si mide el observable Ô1 o el observable Ô2 , y registra sus resultados.
Bob anota sus resultados en una tabla con dos filas, en la primera identifica cuál
es el observable que midió y en la segunda anota el resultado obtenido.
Paso 4 Alice y Bob repiten muchas veces estos tres pasos y en cada repetición registran
sus mediciones en una columna distinta de la tabla. Después de K repeticiones, cada uno
de ellos tendrá una tabla con K columnas y 2 filas tal como se indica en la Figura 4.2.
4-17
debe a que la elección del observable que Bob mide es totalmente independiente
de la elección del observable elegido por Alice. Ambas filas tienen una distribu-
ción aleatoria de observables, en las cuales Ô1 y Ô2 aparecen en ambas columnas
de forma totalmente azarosa y no hay correlación entre ellas. En cambio, la segun-
da fila de ambas tablas tiene un comportamiento diferente. Si el observable elegido
por Alice coincide con el elegido por Bob (lo que sucede, en promedio, la mitad de las
veces) entonces los valores registrados en la segunda fila coinciden. Esto se debe a que,
en esos casos, Alice preparó un autoestado del observable que después Bob de-
cidió medir. Obviamente, en esas situaciones el resultado registrado por Alice y
Bob será idéntico. En cambio, en la otra mitad de los casos, cuando Alice elige un
observable diferente del que mide Bob, los valores registrados en la segunda fila
están totalmente descorrelacionados. Esto se debe, precisamente, al carácter com-
plementario de los observables Ô1 y Ô2 : cuando Alice prepara un autoestado de
Ô1 y Bob mide Ô2 , la probabilidad de que los valores registrados por ambos sean
diferentes es exactamente igual a 1/2.
De acuerdo a lo antedicho, Alice y Bob están a punto de alcanzar su objetivo
que, recordemos, no es otra cosa que compartir una secuencia aleatoria de bits. En
efecto, si se restringen a considerar solamente la segunda columna de sus tablas en
aquellos casos en los que el contenido de la primera columna coincide, entonces
tienen una secuencia aleatoria compartida por ambos. Para eso, deben completar
el siguiente paso del protocolo que es:
Paso 5 Alice y Bob hacen pública la primera fila de sus tablas. Se quedan sólo con los
casos para los que estos valores coinciden y descartan el resto.
En efecto, esta acción revela la secuencia de observables preparados por Alice y la
secuencia de mediciones realizadas por Bob, pero en ningún caso revela los resulta-
dos registrados por ambos en la segunda fila. Seguidamente, Alice y Bob descartan
todas las columnas en las que los observables que aparecen en la primera fila de
la tabla de Alice difiere de lo que aparece en la primera fila de la tabla de Bob.
De este modo, ambos comparten una secuencia aleatoria de bits, formada por la
segunda fila de sus tablas.
Hasta aquı́, hemos demostrado que Alice y Bob pueden generar una secuencia
aleatoria de bits compartida por ambos. ¡Pero en modo alguno hemos demostrado
que esta secuencia sea secreta! Es decir, no hemos demostrado que este método de
distribución de claves sea realmente seguro.
La seguridad del método se origina, precisamente, en la complementariedad.
Supongamos que un tercer observador, al que llamaremos Eve (E, por espı́a o más
fuerte, por evesdropper en inglés) intenta espiar lo que hacen Alice y Bob. Si Eve
no tiene acceso a lo que sucede dentro de los laboratorios de Alice y Bob, su úni-
ca alternativa es interceptar el sistema cuántico que Alice le envı́a a Bob. Una vez
hecho esto, por ejemplo podrı́a generar copias de esos estados (desconocidos para
Eve) y reenviar una de ellas a Bob sin ser detectado. Pero, como veremos más ade-
lante, la Mecánica Cuántica nos dice que no es posible realizar copias de estados
desconocidos.
4-18
Una segunda opción, es que al interceptarlos intente obtener información de
los estados realizando alguna medición sobre estos sistemas, y luego reenviarlos
para que Bob los reciba. En ese caso, Bob recibirı́a el sistema en un estado “prepa-
rado” por Eve. Cabe aquı́ destacar que los cuatro estados preparados por Alice no
son todos ortogonales entre sı́ (pues efectivamente tenemos autoestados de opera-
dores complementarios). Por lo tanto, como ya hemos discutido, no hay ninguna
medición que pueda realizar Eve que le permita distinguir con certeza entre estos
cuatro estados. Veamos ahora en detalle cómo influye la acción de Eve. Si la pri-
mera fila de la tabla de Alice es realmente aleatoria y desconocida, Eve no sabe
cuál es el observable elegido por Alice y no tiene otra opción mas que elegir al azar
algún observable para medir. Si Eve elige medir el mismo observable que Alice, su
medición no alterará en modo alguno el estado del sistema. Pero, en cambio, si Eve
elige un observable diferente al de Alice la mitad de las veces obtendrá un resul-
tado aleatorio, y le enviará a Bob un sistema preparado en un estado diferente al
generado por Alice. En esos casos, la medición posterior de Bob ya no estará com-
pletamente correlacionada con el registro de Alice. Es decir, la presencia de un
espı́a deja una huella que se manifiesta en que las secuencias de bits de Alice y
Bob obtenidas después del Paso 5 ya no son idénticas, sino que tienen discrepan-
cias. Para revelar esa huella Alice y Bob ejecutan el último paso de su protocolo:
Paso 6 Alice y Bob revelan algunos de los valores de la segunda fila (digamos, uno de
cada diez, por ejemplo) y comparan los resultados para detectar la presencia de un espı́a.
Si los resultados difieren, han detectado la presencia de un espı́a (o bien, han detec-
tado un mal funcionamiento de sus aparatos, es decir ruido). En ese caso descartan
la secuencia y comienzan de nuevo. En realidad, Alice y Bob no estarán comple-
tamente seguros de que no hay un tercero espiando si la secuencia revelada es la
misma para ambos. Pero con un poco de esfuerzo matemático, pueden encontrar
cuál es la cantidad de bits que deben revelar para que la probabilidad de que no
haya nadie en el medio sea tan baja como quieran (para entrar en detalle sobre este
asunto, que puede encontrarse en la literatura del tema, es necesario un poco de
matemática rigurosa, con ✏’s y ’s, que aquı́ omitiremos).
De este modo, la cuántica provee un método seguro para distribuir claves se-
cretas en el cual la seguridad reside, precisamente, en las propias leyes de la natu-
raleza. Cabe mencionar que, en las últimas décadas, se han desarrollado diversos
dispositivos comerciales que usan variantes de este protocolo para implementar la
distribución cuántica de claves. Últimamente, incluso, han llegado a alimentar de
claves secretas un satélite que órbita alrededor de la tierra.
4-19
si el estado es | i siempre existe un experimento, asociado a la medición de un
CCOC, cuyo resultado puede predecirse con certeza. Esto sucede para cualquier
experimento que consista en la medición de un observable cuya base de autoesta-
dos contiene a | i con autovalor no degenerado. En ese caso la Mecánica Cuántica
predice certezas. En cualquier otro, predice probabilidades no triviales.
Los estados puros son proyectores. Teniendo esto en cuenta, el primer postu-
lado, tal como lo formulamos más arriba, en realidad admite una generalización.
Un estado fı́sico no se describe por un único vector sino por una familia de vec-
tores. Todos esos vectores se relacionan entre sı́ por vı́a de la multiplicación por
un número complejo de módulo unidad. Esto define un rayo en el espacio de Hil-
bert. La descripción matemáticamente correcta del estado de máxima información
sobre un sistema no es mediante un vector | i sino mediante el proyector
⇢ˆ = | ih |. (4.24)
4-20
con probabilidad pj preparamos el estado |0j i. Esto es lo que se denomina un esta-
do mixto que no es otra cosa que un ensemble, un conjunto de estados puros cada
uno con una probabilidad diferente.
En general, diremos que un ensemble es un conjunto de estados con una proba-
bilidad asociada a cada uno de ellos: E = {| j i, pj , j = 1, ..., k}. A diferencia de lo que
sucede con un estado puro, en este caso no existe ningún experimento (asociado a
la medición de un CCOC) en el cual podamos predecir resultados con certeza. Por
eso, este estado no es un estado de máxima información y lo llamamos mixto.
Los estados mixtos se describen matemáticamente con el operador que se de-
nomina operador densidad o matriz densidad, y se encuentra definido como
k
X
⇢ˆ = pj | j ih j |, (4.27)
i=j
P
con la condición de normalización j pj = 1. Veamos que un operador ası́ de-
finido cumple con lo que esperamos de él. En primer lugar, vemos que si un
pj = 1 entonces el resto debe ser nulo y tenemos que la matriz densidad descri-
be un estado puro. En segundo lugar, queremos probar que a partir de ⇢ˆ podemos
calcular cualquier probabilidad Prob(an E) asociada al estado mixto. Veamos: si
el estado fuera | j i, la probabilidad de obtener el resultado an al medir  serı́a
Prob(an | j i) = h j |P̂n | j i ⌘ Tr(| j ih j | P̂n ). Pero si cada | j i lo preparamos con pro-
babilidad pj , la probabilidad total de obtener an será
X X
Prob(an E) = pj Prob(an | i i) = pj Tr(| j ih j | P̂n )
j i
X
= Tr( pj | j ih j | P̂n )
j
Cabe notar que en general los estados | j i pueden no ser ortogonales entre sı́. Esto
sucede, por ejemplo, en el aparato de Stern-Gerlach cuando existen fluctuaciones
8 Notablemente, esta fórmula para el cálculo de las probabilidades, es la única compatible con
la estructura del espacio de estados y las reglas de cálculo de probabilidades. Esto fue demostrado
en el célebre Teorema de Gleason (1957).
4-21
en el eje del imán o cuando el gradiente del campo magnético no es uniforme sobre
el tamaño del haz de átomos. Si estas fluctuaciones son pequeñas, los estados | j i
serán distintos, pero no ortogonales entre sı́.
A continuación, enunciaremos propiedades importantes del operador densi-
dad:
1. Es hermı́tico: ⇢ˆ† = ⇢.
ˆ Esto se puede probar fácilmente a partir de su defini-
ción Ec. (4.27). Por lo tanto, es diagonalizable y tiene autovalores reales.
ˆ
3. Es semidefinido positivo: se cumple que h'|⇢|'i 0 para todo estado |'i.
Esto se debe a que esos valores medios, ver Ec. (4.28), están asociados a pro-
babilidades de medición y por lo tanto deben ser 0. Esto implica además
que los autovalores de la matriz son mayores o iguales a cero.
De esta manera, para incluir a los estados mixtos, el Postulado 1 podrı́a formu-
larse de la siguiente manera: “El estado general de un sistema fı́sico está representado
por un operador ⇢ˆ (que es hermı́tico, de traza unidad y semidefinido positivo) que actúa
sobre un espacio de Hilbert”. Los estados puros son aquellos para los cuales ⇢ˆ tiene
rango unidad.
En efecto, ˆ
2 P 2escribiendo ⇢ en la base en la cual es diagonal podemos verificar que
⇢ˆ = j qj | j ih j |. Siendo que 0 qi < 1, ya que para un estado mixto la matriz
4-22
P
densidad tiene más de un autovalor diferente de cero y j qj = 1. Entonces qj2 < qj
P P
y por lo tanto resulta que Tr ⇢ˆ2 = j qj2 < j qj = 1.
Un ejemplo interesante es el estado que llamamos de máxima ignorancia. Este
estado es tal que todos los estados de una base ortonormal {| j i} tienen la misma
probabilidad qj = 1/D donde D = dim(H). Por lo tanto, la matriz de densidad de
este estado es proporcional a la identidad
D
1X 1
⇢ˆ = | j ih j | = . (4.32)
D D
j=1
Dado que su forma matricial es invariante ante cambio de base, resulta ser igual
en cualquier base ortonormal, y por lo tanto podemos identificar de esta manera
infinitas formas equivalentes de representar esta matriz densidad. En este caso,
Tr ⇢ˆ2 = 1/D y es el mı́nimo valor que puede tomar esta cantidad para un estado
perteneciente a un espacio de Hilbert de dimensión D. Llamaremos a los estados
de mı́nima pureza máximamente mixtos.
La medida que describimos lleva el nombre de pureza, a secas, y se define como:
⇠ = Tr ⇢ˆ2 . (4.33)
Existen otras formas de medir cuán mixta es una determinada matriz densidad que
surgen de analizar la distribución de probabilidad qj (la entropı́a de la distribución
es una por ejemplo).
4-23
Es decir, la norma del vector p ~ está asociada al grado de pureza del estado.
En consecuencia, mostramos que existe una correspondencia directa entre vec-
tores del espacio de Hilbert y vectores de p ~ . Es decir que todo estado cuántico tiene
un vector p ~ asociado y todo vector p ~ da lugar a un estado. En particular, los estados
puros ⇠ = 1 estarán representados por vectores |~ p | = 1, mientras que cualquier otro
estado mixto tendrá un |~ p | < 1. Podemos decir entonces que estos vectores están en
la superficie (estados puros) o el interior (estados mixtos) de una esfera de radio
unidad, que se conoce como esfera de Bloch. En particular, el estado máximamente
mixto es descripto por la matriz densidad ⇢ˆ = 1/2 y se representa en el centro de
la esfera con el vector nulo p ~ = 0.
Veamos otra propiedad de esta representación. Usando las expresiones ante-
riores podemos calcular el producto escalar entre dos estados puros ⇢ˆ = | ih | y
⇢ˆ0 = | 0 ih 0 |:
1
|h | 0 i|2 = Tr(⇢ˆ⇢ˆ0 ) = (1 + p ~·p~ 0 ). (4.37)
2
Entonces los estados ortogonales son los que cumplen con la propiedad p ~0 = p ~, o
sea que están en las antı́podas de la esfera de Bloch.
En la Figura 5.1 mostramos varios ejemplos de estados puros y mixtos repre-
sentados en la esfera de Bloch.
A B C
D E
4-24
posición y momento. En efecto, si escribimos la fórmula de la sección anterior
eligiendo como observables a los operadores  = Ŝx = 2~ x y B̂ = Ŝz = 2~ z es fácil
reescribir la desigualdad de Heisenberg. Para eso, basta notar recordar que Ŝi2 =
~2
4 1, por lo que la dispersión de dichos observables resulta ser
2 ~2
 = hŜx2 i
hŜx i =2
hŜx i2 (4.38)
4
~ 2
B̂2 = hŜz2 i hŜz i2 = hŜz i2 . (4.39)
4
Por su parte, el lado derecho de la ecuación de Heisenberg puede escribirse uti-
lizando las reglas de conmutación para los operadores Ŝz y Ŝx . Para este caso el
conmutador es [Ŝz , Ŝx ] = i~Ŝy mientras que el anti-conmutador es nulo. Por lo tan-
to, la desigualdad de Heisenberg de la Ec. 4.17 resulta ser
! 2 ! !
~2 2 ~ 2 ~2 2 2 2
hŜx i hŜz i hŜ i + hŜx i hŜz i . (4.40)
4 4 4 y
1 h x i2 + h y i2 + h z i2 = |~
p |2 . (4.42)
que no es otra cosa que la condición que impone que el vector polarización p ~ = h~ i
pertenezca a la esfera de Bloch.
Por otro lado, si consideramos la desigualdad de la Ec. (4.18) y los mismos
operadores, llegamos a que
~
Sx Sz |hŜ i| (4.43)
2 y
Esta desigualdad es diferente a la que habı́amos obtenido para posición y mo-
mento, principalmente porque el lado derecho ahora depende del estado. De esta
forma, la desigualdad nos dice lo siguiente, si en un dado estado el valor del ob-
servable asociado a Ŝx o Ŝy se encuentra definido (autoestados de los operadores),
entonces este estado sólo puede ser tal que hŜy i = 0. Y, análogamente, si para un
dado estado el valor medio de Ŝy es diferente de cero entonces los observables
asociados a Ŝx y Ŝz no tienen valores definidos.
4-25
observables que conmutan (COCC). Supongamos ahora que otro cientı́fico quiere
descubrir cuál es ese estado, es decir, descubrir cuál fue el proceso de preparación
utilizado y cuáles fueron los valores obtenidos. ¿Es esto posible? Resulta eviden-
te que si el sistema fuera clásico (es decir, estuviera descripto por las leyes de la
fı́sica clásica, algo que sabemos que es imposible en realidad) esta tarea serı́a per-
fectamente realizable. En efecto, el cientı́fico solo tendrı́a que realizar un examen
exhaustivo de todas las propiedades del sistema midiéndolas con aparatos que las
perturben de manera suficientemente pequeña. Si bien, como hemos dicho, el esta-
do del sistema es “información” y esa información está representada en la lista de
los valores de todas las propiedades del sistema (una lista escrita, por ejemplo, en
un trozo de papel que está en poder de quien preparó el estado) esta información
también se encuentra “escrita”, metafóricamente hablando, en el sistema fı́sico y
por lo tanto puede ser “revelada” mediante observaciones apropiadas.
En cambio, en el caso cuántico la situación es completamente diferente. Si el
observador que analiza al sistema no conoce cuál es el CCOC que se utilizó en la
preparación, entonces su única opción es elegir algún observable y realizar una
medición. En esta situación, dado que la Mecánica Cuántica nos dice que sólo po-
demos conocer información estadı́stica del estado, es evidente que sin alguna infor-
mación previa sobre el proceso de preparación ¡no podemos extraer información
completa utilizando un único ejemplar del sistema!. Sólo será posible determinar
el estado del sistema con un único ejemplar si alguien le informa cuál fue el CCOC
utilizado en la preparación, en cuyo caso es suficiente con medirlo una única vez9 .
De esta manera, la única forma de inferir el estado de un sistema, si se desco-
noce completamente su proceso de preparación, es mediante la medición de ob-
servables sobre múltiples ejemplares del mismo. Es decir, si contamos con muchos
ejemplares del sistema, todos ellos preparados en el mismo estado, y somos capa-
ces de realizar muchos experimentos (uno sobre cada ejemplar) podremos deter-
minar el estado. En algún sentido, el estado caracteriza a un ensamble de objetos
preparados idénticamente y sólo en ese caso puede ser determinado experimen-
talmente. Pero, ¿cómo debemos hacer eso? Analicemos el caso de una partı́cula de
spin 1/2. Como vimos, el estado en general se puede describir mediante un ope-
rador densidad ⇢ˆ que siempre puede expresarse como una combinación lineal de
la identidad y las tres matrices de Pauli (cuatro operadores que forman una base
del espacio de las matrices de 2x2). Si escribimos a la matriz densidad de ese modo
(tal como hicimos antes) tendremos
1⇣ ⌘
⇢ˆ = 1+p
~·~ . (4.44)
2
Donde el vector p ~ es el denominado vector de polarización (que nos permite des-
cribir al estado en la esfera de Bloch). Cada una de las componentes de ese vector
se obtiene como
pj = Tr(⇢ˆ j ). (4.45)
9 Como vimos, se puede utilizar un único ejemplar del mismo para medir en forma secuencial
todos los observables del COCC ya que dichos observables conmutan entre sı́. El valor obtenido
para cada uno de los observables del COCC determinará unı́vocamente el estado en cuestión.
4-26
Es decir, cada componente del vector p ~ está directamente determinada por el va-
lor medio de la componente correspondiente del spin. De este modo, si tenemos
muchos ejemplares de la partı́cula de spin 1/2, para determinar su estado pode-
mos medir los valores medios de cada una de las componentes del spin (es decir, si
tenemos un ensemble de objetos idénticamente preparados debemos dividirlos en
tres subensembles y en cada uno de ellos realizar tantos experimentos como poda-
mos para determinar el valor medio de una de las componentes del spin usando
un aparato de SG). Una vez hecho esto, el estado del sistema queda completamente
determinado. Es sencillo notar que este procedimiento resulta ser válido tanto pa-
ra estados puros como mixtos ya que para obtener la Ec. (4.44) no hicimos ninguna
hipótesis.
La estrategia mencionada para el caso de una partı́cula de spin 1/2 puede gene-
ralizarse al caso de dimensión arbitraria (y finita) D. En ese caso, debemos proceder
del mismo modo que antes: el operador densidad puede escribirse como combina-
ción lineal de la identidad y de otros operadores que formen una base del espacio
de operadores lineales. En el próximo capı́tulo, mostraremos cómo hacer esta des-
cripción para D = 4 (dos partı́culas de spin 1/2). No es difı́cil convencerse que,
para una matriz densidad arbitraria, se necesitarán D ⇥ D operadores (contando a
la identidad) para formar la base y por lo tanto será necesario determinar expe-
rimentalmente D 2 1 valores medios10 . Este tipo de procesos para determinar el
estado de un sistema cuántico recibe el nombre de tomografı́a del estado cuántico.
10 Para convencerse de ello basta con contar los parámetros libres que determinan una matriz
densidad de D ⇥ D. En general, tenemos D 2 números complejos. Pero como la matriz densidad es
hermı́tica, esto se reduce a determinar D 2 números reales. Finalmente, siendo que además tiene
traza 1, será necesario determinar D 2 1 números reales.
4-27