Está en la página 1de 6

Computación cuántica

Ir a la navegaciónIr a la búsqueda

La esfera de Bloch es una representación de un cúbit, el bloque de construcción fundamental de


los computadores cuánticos.

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se


basa en el uso de cúbits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles
nuevos algoritmos.

Una misma tarea puede tener diferente complejidad en computación clásica y en computación
cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables
pasan a ser tratables. Mientras que un computador clásico equivale a una máquina de Turing,1 un
computador cuántico equivale a una máquina de Turing cuántica.

Índice

1 Origen de la computación cuántica

2 Problemas de la computación cuántica

3 Hardware para computación cuántica

3.1 Condiciones a cumplir

3.2 Candidatos

3.2.1 Procesadores

3.2.2 Transmisión de datos

4 Programas de computación

4.1 Algoritmos cuánticos

4.2 Modelos

4.3 Complejidad

4.4 Problemas propuestos

5 Cronología

5.1 Años 1980

5.1.1 1981 - Paul Benioff


5.1.2 1981-1982 Richard Feynman

5.1.3 1985 - David Deutsch

5.2 Años 1990

5.3 Año 2000 hasta ahora

5.3.1 2000 - Continúan los progresos

5.3.2 2001 - El algoritmo de Shor ejecutado

5.3.3 2005 - El primer Qbyte

5.3.4 2006 - Mejoras en el control del cuanto

5.3.5 2007 - D-Wave

5.3.6 2007 - Bus cuántico

5.3.7 2008 - Almacenamiento

5.3.8 2009 - Procesador cuántico de estado sólido

5.3.9 2011 - Primera computadora cuántica vendida

5.3.10 2012 - Avances en chips cuánticos

5.3.11 2013 - Computadora cuántica más rápida que un computador convencional

5.3.12 2019 - Primer ordenador cuántico para uso comercial

6 Véase también

7 Notas y referencias

8 Bibliografía

9 Bibliografía complementaria

10 Enlaces externos

Origen de la computación cuántica

A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para producir
microchips cada vez más pequeños, esto se traduce en mayor velocidad de proceso. Sin embargo,
no se pueden hacer los chips infinitamente pequeños, ya que hay un límite tras el cual dejan de
funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de
los canales por donde deben circular. A esto se le llama efecto túnel.

Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con
los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de
que una parte de ellos pueda atravesar las paredes si son los suficientemente delgadas; de esta
manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de
funcionar correctamente.

En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya


se ha llegado a escalas de solo algunas decenas de nanómetros. Surge entonces la necesidad de
descubrir nuevas tecnologías y es ahí donde la computación cuántica entra en escena.

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para
aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de
voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit solo puede tomar
dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica
cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a
la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar
varias operaciones a la vez, según el número de cúbits.

El número de cúbits indica la cantidad de bits que pueden estar en superposición. Con los bits
convencionales, si se tenía un registro de tres bits, había ocho valores posibles y el registro solo
podía tomar uno de esos valores. En cambio, si se tenía un vector de tres cúbits, la partícula puede
tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres
cúbits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de
operaciones es exponencial con respecto al número de cúbits.

Para hacerse una idea del gran avance, un computador cuántico de 30 cúbits equivaldría a un
procesador convencional de 10 teraflops (10 millones de millones de operaciones en coma
flotante por segundo), actualmente la supercomputadora Summit tiene la capacidad de procesar
200 petaflops.

Problemas de la computación cuántica

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia


cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de
los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en
particular el tiempo de relajación transversal (en la terminología usada en la tecnología de
resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre
nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente
proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma
que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de
decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de
errores cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de
decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite
de 10–4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de
errores cuánticos.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el


considerable incremento en cúbits necesarios para cualquier cálculo que implica la corrección de
errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de
manejar un número lo bastante alto de cúbits para resolver problemas computacionalmente
interesantes hoy en día.

Hardware para computación cuántica

Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se
ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vincenzo, y
hay varios candidatos actualmente.

Ingenieros de Google trabajan (2018) en un procesador cuántico llamado "Bristlecone".

Condiciones a cumplir

El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.

Ha de ser posible hacer manipulaciones a los cúbits de forma controlada, con un conjunto de
operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir cualquier
otra puerta lógica posible).

El sistema ha de mantener su coherencia cuántica a lo largo del experimento.

Ha de poder leerse el estado final del sistema, tras el cálculo.

El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de
cúbits, para tratar con problemas de mayor coste computacional.

Candidatos

Véase también: Qubit#Representación física

Espines nucleares de moléculas en disolución, en un aparato de RMN.

Flujo eléctrico en SQUID.

Iones suspendidos en vacío.

Puntos cuánticos en superficies sólidas.

Imanes moleculares en micro-SQUID.


Computadora cuántica de Kane.

Computación adiabática, basada en el teorema adiabático.

Procesadores

En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron


resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que
almacenan información cuántica, por lo que son llamados cúbits por analogía con los bits. Su
objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que
constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar
que un chip de tecnología VLSI contiene actualmente más de 100 000 puertas, de manera que su
uso práctico todavía se presenta en un horizonte lejano.

Transmisión de datos

Científicos de los laboratorios Max Planck y Niels Bohr publicaron en la revista Nature en
noviembre de 2004, resultados sobre la transmisión de información cuántica a distancias de 100
km usando la luz como vehículo.2 obteniendo niveles de éxito del 70 %, lo que representa un nivel
de calidad que permite utilizar protocolos de transmisión con autocorrección. Actualmente se
trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a
las ya alcanzadas.

Programas de computación

Algoritmos cuánticos

Artículo principal: Algoritmo cuántico

Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y
trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al
nivel de error de las máquinas actuales.

Algoritmo de Shor

Algoritmo de Grover

Algoritmo de Deutsch-Jozsa

Modelos

Computadora cuántica de Benioff

Computadora cuántica de Feynman

Computadora cuántica de Deutsch


Complejidad

La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de
error.

Problemas propuestos

Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación


clásica para varios problemas, entre ellos:

Factorización de números enteros

Logaritmo discreto

Simulación de sistemas cuánticos: Richard Feynman conjeturó en 1982 que los ordenadores
cuánticos serían eficaces como simuladores universales de sistemas cuánticos, y en 1996 se
demostró que la conjetura era correcta.34

Cronología

Años 1980

A comienzos de la década de 1980, empezaron a surgir las primeras teorías que apuntaban a la
posibilidad de realizar cálculos de naturaleza cuántica.

1981 - Paul Benioff

Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff, quien
trabajaba en el Argone National Laboratory, en Illinois, Estados Unidos. Imaginó un ordenador
tradicional (máquina de Turing) que trabajaba con algunos principios de la mecánica cuántica.

También podría gustarte