Está en la página 1de 3

IDENTIFICACIÓN DEL PROBLEMA

Descripción de la problemática

Uno de los obstáculos principales para la computación cuántica es el problema de la de


coherencia, que causa la pérdida del carácter unitario (y, más específicamente, la
reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de coherencia para los
sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología
usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia
magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas
de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo
de coherencia, de forma que cualquier operación debe ser completada en un tiempo mucho
más corto que el tiempo de coherencia. Si la tasa de error es lo bastante baja, es posible usar
eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo
más largos que el tiempo de coherencia y, en principio, arbitrariamente largos. Se cita con
frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible
la aplicación eficaz de la corrección de errores cuánticos.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el


considerable incremento en qubits necesarios para cualquier cálculo que implica la
corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un
diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas
computacionalmente interesantes hoy en día.

Problema enunciado

Los intentos de procesar y manipular estados cuánticos pueden destruir la información


codificada en ellos”, avisa el equipo de dos instituciones de Innsbruck, Austria, y de la
Universidad Complutense de Madrid, España, que publica en el último Science su método
para estabilizar y proteger los bits de información cuántica o qubits. El problema esencial
para construir una computadora cuántica es el ruido, el medio hace siempre que la
superposición de estados del bit cuántico, qubit, desaparezca y tengamos un bit simple. El bit
en computación es el mínimo de información: cruza o no cruza electricidad por un puente
dentro de un minúsculo transistor en un chip. El lenguaje binario de la computación está
compuesto de dos elementos, 1 o 0. Si cruza electricidad es 1, si no cruza es 0. La cuántica
descubrió, en las primeras décadas del siglo XX, la superposición de estados: un electrón es
a la vez onda y partícula. Está en superposición de estados. Lo mismo un fotón o un quark.
El problema esencial es cómo evitar la degradación del qubit (a la vez 1 y 0) a simple bit (1
o 0). “La construcción de una computadora cuántica permanece como un reto científico y
tecnológico fundamental a causa de la influencia del inevitable ruido. Los estados cuánticos
[como la superposición de estados onda-partícula] y las operaciones con ellos se pueden
proteger de errores aunque sus componentes sean imperfectos. Aquí presentamos un código
para corrección de errores en el que el qubit se codifica en estados entrelazados (entangled)
distribuidos en una trampa de siete iones…” ¡Espérese tantito! Un ion es sólo un átomo que
ha dejado de estar balanceado en sus cargas (negativas en los electrones, positivas en los
protones) por falta o sobra. El entanglement, entrelazado (enmarañado me parece horrible)
es un estado cuántico tan escandalosamente contrario a la razón cotidiana que causó la
ruptura de Einstein con la física que él había remachado en 1905 usando el quantum de
Planck. Hacia 1935 diseñó un experimento del que se concluía un absurdo. Fue mental
porque no había la tecnología para realizarlo. Es la paradoja EPR, por las iniciales de sus
creadores: Einstein, Podolsky y Rosen. Y dice, en esencia, que si produzco dos partículas
gemelas y modifico sólo una de ellas, al instante y sin contacto físico, la otra también se
modifica. Están entrelazadas. Lo presentaron como prueba de que la cuántica no cumplía con
un principio esencial de la ciencia: el de localidad (los objetos separados sólo reciben
influencia de su entorno… que puede ser una señal muy lejana, pero llega a su entorno), ni
con la noción de espacio misma ya que ambos gemelos actúan como si no hubiera espacio
entre ellos. El principio de localidad lo eleva Einstein a axioma fundamental. En 1983 y 84,
Alain Aspect, en su laboratorio de París, probó con fotones que la paradoja ocurría: E, P y R
no habían demostrado que la cuántica era incompleta: ofrece lo mismo una respuesta que
otra. El entanglement aborrecido existe: la naturaleza es así. El código propuesto por los
investigadores detecta errores y los repara: “El código de siete qubits resulta así una instancia
totalmente funcional de un qubit codificado de forma topológica y abre la vía hacia una
computación cuántica tolerante a los errores”. En inglés: fault-tolerant quantum computing
o FTQC. “Con este método, la codificación de información [en forma de qubits] en las
propiedades globales de un sistema de muchas partículas ofrece protección contra fuentes de
ruido que actúan, de forma local, en qubits individuales o en pequeños grupos”. Ya vimos
que el entrelazamiento niega la localidad (que los objetos sólo reciben influencia de su
entorno local, como sostiene la sensatez y el trío EPR). El mundo subatómico es no-local,
como demostró Aspecto hace ya 30 años… (Y no ha recibido el Nobel), así que los errores
locales, causados por el medio ambiente que colapsa el qubit en bits, los restaura el código o
protocolo que provee una ruta para la computación FTQC.

También podría gustarte