Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ir a la navegaciónIr a la búsqueda
Una misma tarea puede tener diferente complejidad en computación clásica y en computación
cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables
pasan a ser tratables. Mientras que un computador clásico equivale a una máquina de Turing,1 un
computador cuántico equivale a una máquina de Turing cuántica.
Índice
3.2 Candidatos
3.2.1 Procesadores
4 Programas de computación
4.2 Modelos
4.3 Complejidad
5 Cronología
6 Véase también
7 Notas y referencias
8 Bibliografía
9 Bibliografía complementaria
10 Enlaces externos
A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para producir
microchips cada vez más pequeños, esto se traduce en mayor velocidad de proceso. Sin embargo,
no se pueden hacer los chips infinitamente pequeños, ya que hay un límite tras el cual dejan de
funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de
los canales por donde deben circular. A esto se le llama efecto túnel.
Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con
los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de
que una parte de ellos pueda atravesar las paredes si son los suficientemente delgadas; de esta
manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de
funcionar correctamente.
La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para
aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de
voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit solo puede tomar
dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica
cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a
la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar
varias operaciones a la vez, según el número de cúbits.
El número de cúbits indica la cantidad de bits que pueden estar en superposición. Con los bits
convencionales, si se tenía un registro de tres bits, había ocho valores posibles y el registro solo
podía tomar uno de esos valores. En cambio, si se tenía un vector de tres cúbits, la partícula puede
tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres
cúbits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de
operaciones es exponencial con respecto al número de cúbits.
Para hacerse una idea del gran avance, un computador cuántico de 30 cúbits equivaldría a un
procesador convencional de 10 teraflops (10 millones de millones de operaciones en coma
flotante por segundo), actualmente la supercomputadora Summit tiene la capacidad de procesar
200 petaflops.
Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se
ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vincenzo, y
hay varios candidatos actualmente.
Condiciones a cumplir
El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.
Ha de ser posible hacer manipulaciones a los cúbits de forma controlada, con un conjunto de
operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir cualquier
otra puerta lógica posible).
El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de
cúbits, para tratar con problemas de mayor coste computacional.
Candidatos
Procesadores
Transmisión de datos
Científicos de los laboratorios Max Planck y Niels Bohr publicaron en la revista Nature en
noviembre de 2004, resultados sobre la transmisión de información cuántica a distancias de 100
km usando la luz como vehículo.2 obteniendo niveles de éxito del 70 %, lo que representa un nivel
de calidad que permite utilizar protocolos de transmisión con autocorrección. Actualmente se
trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a
las ya alcanzadas.
Programas de computación
Algoritmos cuánticos
Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y
trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al
nivel de error de las máquinas actuales.
Algoritmo de Shor
Algoritmo de Grover
Algoritmo de Deutsch-Jozsa
Modelos
La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de
error.
Problemas propuestos
Logaritmo discreto
Simulación de sistemas cuánticos: Richard Feynman conjeturó en 1982 que los ordenadores
cuánticos serían eficaces como simuladores universales de sistemas cuánticos, y en 1996 se
demostró que la conjetura era correcta.34
Cronología
Años 1980
A comienzos de la década de 1980, empezaron a surgir las primeras teorías que apuntaban a la
posibilidad de realizar cálculos de naturaleza cuántica.
Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff, quien
trabajaba en el Argone National Laboratory, en Illinois, Estados Unidos. Imaginó un ordenador
tradicional (máquina de Turing) que trabajaba con algunos principios de la mecánica cuántica.