Está en la página 1de 3

La computación cuántica es un paradigma de computación distinto al de la computación

clásica. Se basa en el uso de cúbits en lugar de bits, y da lugar a nuevas puertas


lógicas que hacen posibles nuevos algoritmos.
Una misma tarea puede tener diferente complejidad en computación clásica y en
computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos
problemas intratables pasan a ser tratables. Mientras que un computador clásico equivale
a una máquina de Turing,1 un computador cuántico equivale a una máquina de Turing
cuántica.

Índice

 1Origen de la computación cuántica


 2Problemas de la computación cuántica
 3Hardware para computación cuántica
o 3.1Condiciones a cumplir
o 3.2Candidatos
 3.2.1Procesadores
 3.2.2Transmisión de datos
 4Programas de computación
o 4.1Algoritmos cuánticos
o 4.2Modelos
o 4.3Complejidad
o 4.4Problemas propuestos
 5Cronología
o 5.1Años 1980
 5.1.11981 - Paul Benioff
 5.1.21981-1982 Richard Feynman
 5.1.31985 - David Deutsch
o 5.2Años 1990
o 5.3Año 2000 hasta ahora
 5.3.12000 - Continúan los progresos
 5.3.22001 - El algoritmo de Shor ejecutado
 5.3.32005 - El primer Qbyte
 5.3.42006 - Mejoras en el control del cuanto
 5.3.52007 - D-Wave
 5.3.62007 - Bus cuántico
 5.3.72008 - Almacenamiento
 5.3.82009 - Procesador cuántico de estado sólido
 5.3.92011 - Primera computadora cuántica vendida
 5.3.102012 - Avances en chips cuánticos
 5.3.112013 - Computadora cuántica más rápida que un computador convencional
 5.3.122019 - Primer ordenador cuántico para uso comercial
 6Véase también
 7Notas y referencias
 8Bibliografía
 9Bibliografía complementaria
 10Enlaces externos

Origen de la computación cuántica[editar]


A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para
producir microchips cada vez más pequeños, esto se traduce en mayor velocidad de
proceso. Sin embargo, no se pueden hacer los chips infinitamente pequeños, ya que hay
un límite tras el cual dejan de funcionar correctamente. Cuando se llega a la escala
de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto
se le llama efecto túnel.
Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota.
Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe
la posibilidad de que una parte de ellos pueda atravesar las paredes si son los
suficientemente delgadas; de esta manera la señal puede pasar por canales donde no
debería circular. Por ello, el chip deja de funcionar correctamente.
En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto
que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces
la necesidad de descubrir nuevas tecnologías y es ahí donde la computación cuántica
entra en escena.
La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría
para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a
nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit
sólo puede tomar dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen
las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente:
puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula
subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el
número de cúbits.
El número de cúbits indica la cantidad de bits que pueden estar en superposición. Con los
bits convencionales, si se tenía un registro de tres bits, había ocho valores posibles y el
registro sólo podía tomar uno de esos valores. En cambio, si se tenía un vector de tres
cúbits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición
cuántica. Así, un vector de tres cúbits permitiría un total de ocho operaciones paralelas.
Como cabe esperar, el número de operaciones es exponencial con respecto al número de
cúbits.
Para hacerse una idea del gran avance, un computador cuántico de 30 cúbits equivaldría a
un procesador convencional de 10 teraflops (10 millones de millones de operaciones en
coma flotante por segundo), actualmente la supercomputadora Summit tiene la capacidad
de procesar 200 petaflops.

Problemas de la computación cuántica[editar]


Uno de los obstáculos principales para la computación cuántica es el problema de
la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más
específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de
decoherencia para los sistemas candidatos, en particular el tiempo de relajación
transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e
imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a
temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre
tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación
debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la
tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores
cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de
decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de
error límite de 10–4, por debajo de la cual se supone que sería posible la aplicación eficaz
de la corrección de errores cuánticos.
Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el
considerable incremento en cúbits necesarios para cualquier cálculo que implica la
corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un
diseño capaz de manejar un número lo bastante alto de cúbits para resolver problemas
computacionalmente interesantes hoy en día.
Hardware para computación cuántica[editar]
Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación
cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista
de Di Vincenzo, y hay varios candidatos actualmente.
Ingenieros de Google trabajan (2018) en un procesador cuántico llamado "Bristlecone".

Condiciones a cumplir[editar]
 El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido
y controlado.
 Ha de ser posible hacer manipulaciones a los cúbits de forma controlada, con un
conjunto de operaciones que forme un conjunto universal de puertas lógicas (para
poder reproducir cualquier otra puerta lógica posible).
 El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
 Ha de poder leerse el estado final del sistema, tras el cálculo.
 El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el
número de cúbits, para tratar con problemas de mayor coste computacional.