Está en la página 1de 19

Computación cuántica

Ir a la navegaciónIr a la búsqueda

La esfera de Bloch es una representación de un cúbit, el bloque de construcción fundamental de los


computadores cuánticos.

La computación cuántica es un paradigma de computación distinto al de la computación


clásica. Se basa en el uso de cúbits en lugar de bits, y da lugar a nuevas puertas
lógicas que hacen posibles nuevos algoritmos.
Una misma tarea puede tener diferente complejidad en computación clásica y en
computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos
problemas intratables pasan a ser tratables. Mientras que un computador clásico equivale
a una máquina de Turing,1 un computador cuántico equivale a una máquina de Turing
cuántica.

Índice

 1Origen de la computación cuántica


 2Problemas de la computación cuántica
 3Hardware para computación cuántica
o 3.1Condiciones a cumplir
o 3.2Candidatos
 3.2.1Procesadores
 3.2.2Transmisión de datos
 4Programas de computación
o 4.1Algoritmos cuánticos
o 4.2Modelos
o 4.3Complejidad
o 4.4Problemas propuestos
 5Cronología
o 5.1Años 1980
 5.1.11981 - Paul Benioff
 5.1.21981-1982 Richard Feynman
 5.1.31985 - David Deutsch
o 5.2Años 1990
o 5.3Año 2000 hasta ahora
 5.3.12000 - Continúan los progresos
 5.3.22001 - El algoritmo de Shor ejecutado
 5.3.32005 - El primer Qbyte
 5.3.42006 - Mejoras en el control del cuanto
 5.3.52007 - D-Wave
 5.3.62007 - Bus cuántico
 5.3.72008 - Almacenamiento
 5.3.82009 - Procesador cuántico de estado sólido
 5.3.92011 - Primera computadora cuántica vendida
 5.3.102012 - Avances en chips cuánticos
 5.3.112013 - Computadora cuántica más rápida que un computador convencional
 5.3.122019 - Primer ordenador cuántico para uso comercial
 6Véase también
 7Notas y referencias
 8Bibliografía
 9Bibliografía complementaria
 10Enlaces externos

Origen de la computación cuántica[editar]


A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para
producir microchips cada vez más pequeños, esto se traduce en mayor velocidad de
proceso. Sin embargo, no se pueden hacer los chips infinitamente pequeños, ya que hay
un límite tras el cual dejan de funcionar correctamente. Cuando se llega a la escala
de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto
se le llama efecto túnel.
Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota.
Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe
la posibilidad de que una parte de ellos pueda atravesar las paredes si son los
suficientemente delgadas; de esta manera la señal puede pasar por canales donde no
debería circular. Por ello, el chip deja de funcionar correctamente.
En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto
que ya se ha llegado a escalas de solo algunas decenas de nanómetros. Surge entonces
la necesidad de descubrir nuevas tecnologías y es ahí donde la computación cuántica
entra en escena.
La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría
para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a
nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit
solo puede tomar dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen
las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente:
puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula
subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el
número de cúbits.
El número de cúbits indica la cantidad de bits que pueden estar en superposición. Con los
bits convencionales, si se tenía un registro de tres bits, había ocho valores posibles y el
registro solo podía tomar uno de esos valores. En cambio, si se tenía un vector de tres
cúbits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición
cuántica. Así, un vector de tres cúbits permitiría un total de ocho operaciones paralelas.
Como cabe esperar, el número de operaciones es exponencial con respecto al número de
cúbits.
Para hacerse una idea del gran avance, un computador cuántico de 30 cúbits equivaldría a
un procesador convencional de 10 teraflops (10 millones de millones de operaciones en
coma flotante por segundo), actualmente la supercomputadora Summit tiene la capacidad
de procesar 200 petaflops.

Problemas de la computación cuántica[editar]


Uno de los obstáculos principales para la computación cuántica es el problema de
la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más
específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de
decoherencia para los sistemas candidatos, en particular el tiempo de relajación
transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e
imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a
temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre
tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación
debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la
tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores
cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de
decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de
error límite de 10–4, por debajo de la cual se supone que sería posible la aplicación eficaz
de la corrección de errores cuánticos.
Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el
considerable incremento en cúbits necesarios para cualquier cálculo que implica la
corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un
diseño capaz de manejar un número lo bastante alto de cúbits para resolver problemas
computacionalmente interesantes hoy en día.

Hardware para computación cuántica[editar]


Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación
cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista
de Di Vincenzo, y hay varios candidatos actualmente.
Ingenieros de Google trabajan (2018) en un procesador cuántico llamado "Bristlecone".
Condiciones a cumplir[editar]

 El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido


y controlado.
 Ha de ser posible hacer manipulaciones a los cúbits de forma controlada, con un
conjunto de operaciones que forme un conjunto universal de puertas lógicas (para
poder reproducir cualquier otra puerta lógica posible).
 El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
 Ha de poder leerse el estado final del sistema, tras el cálculo.
 El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el
número de cúbits, para tratar con problemas de mayor coste computacional.
Candidatos[editar]
Véase también: Qubit#Representación física

 Espines nucleares de moléculas en disolución, en un aparato de RMN.


 Flujo eléctrico en SQUID.
 Iones suspendidos en vacío.
 Puntos cuánticos en superficies sólidas.
 Imanes moleculares en micro-SQUID.
 Computadora cuántica de Kane.
 Computación adiabática, basada en el teorema adiabático.
Procesadores[editar]
En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron
resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que
almacenan información cuántica, por lo que son llamados cúbits por analogía con los bits.
Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos
básicos que constituyen los procesadores, que son el corazón de los computadores
actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de
100 000 puertas, de manera que su uso práctico todavía se presenta en un horizonte
lejano.
Transmisión de datos[editar]
Científicos de los laboratorios Max Planck y Niels Bohr publicaron en la
revista Nature en noviembre de 2004, resultados sobre la transmisión de información
cuántica a distancias de 100 km usando la luz como vehículo.2 obteniendo niveles de éxito
del 70 %, lo que representa un nivel de calidad que permite utilizar protocolos de
transmisión con autocorrección. Actualmente se trabaja en el diseño de repetidores, que
permitirían transmitir información a distancias mayores a las ya alcanzadas.

Programas de computación[editar]
Algoritmos cuánticos[editar]
Artículo principal: Algoritmo cuántico

Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de


base y trabajan reduciendo el margen de error a niveles exponencialmente pequeños,
comparables al nivel de error de las máquinas actuales.

 Algoritmo de Shor
 Algoritmo de Grover
 Algoritmo de Deutsch-Jozsa
Modelos[editar]

 Computadora cuántica de Benioff


 Computadora cuántica de Feynman
 Computadora cuántica de Deutsch
Complejidad[editar]
La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen
de error.
Problemas propuestos[editar]
Se ha sugerido el uso de la computación cuántica como alternativa superior a la
computación clásica para varios problemas, entre ellos:

 Factorización de números enteros


 Logaritmo discreto
 Simulación de sistemas cuánticos: Richard Feynman conjeturó en 1982 que los
ordenadores cuánticos serían eficaces como simuladores universales de sistemas
cuánticos, y en 1996 se demostró que la conjetura era correcta.34

Cronología[editar]
Años 1980[editar]
A comienzos de la década de 1980, empezaron a surgir las primeras teorías que
apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.
1981 - Paul Benioff[editar]
Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff,
quien trabajaba en el Argone National Laboratory, en Illinois, Estados Unidos. Imaginó un
ordenador tradicional (máquina de Turing) que trabajaba con algunos principios de
la mecánica cuántica.
1981-1982 Richard Feynman[editar]
Richard Feynman, físico del Instituto de Tecnología de California (Estados Unidos) y
ganador del Premio Nobel en 1965, presentó una ponencia durante la Primera Conferencia
sobre la Física de la Computación, realizada en el Instituto Tecnológico de
Massachusetts (Estados Unidos). Su charla, titulada Simulación de la física con
computadoras(Simulating physics with computers), proponía el uso de fenómenos
cuánticos para realizar cálculos computacionales y exponía que, dada su naturaleza,
algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador
cuántico.
1985 - David Deutsch[editar]
David Deutsch, físico israelí de la Universidad de Oxford, Inglaterra, describió el primer
computador cuántico universal, es decir, capaz de simular cualquier otro computador
cuántico (principio de Church-Turing ampliado). De este modo, surgió la idea de que un
computador cuántico podría ejecutar diferentes algoritmos cuánticos.[cita requerida]
Años 1990[editar]
En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros
algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas
capaces de realizar cálculos cuánticos.
1993 - Dan Simon
Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un
problema teórico que demostraba la ventaja práctica que tendría un computador cuántico
frente a uno tradicional.
Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron
como base para el desarrollo de algunos algoritmos futuros (como el de Shor).
1993 - Charles Benett
Este trabajador del centro de investigación de IBM en Nueva York descubrió
el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de
comunicaciones cuánticas.
1994-1995 Peter Shor
Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su
nombre y que permite calcular los factores primos de números a una velocidad mucho
mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper
muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para
demostrar a una gran parte de la comunidad científica que observaba incrédula las
posibilidades de la computación cuántica, que se trataba de un campo de investigación
con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de
errores en el cálculo cuántico.
1996 - Lov Grover
Inventó el algoritmo de búsqueda de datos que lleva su nombre, algoritmo de Grover.
Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en
simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de
algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto.
1997 - Primeros experimentos
En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para
empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos
teóricamente hasta entonces. El primer experimento de comunicación segura usando
criptografía cuántica se realiza con éxito a una distancia de 23 km. Además se realiza el
primer teletransporte cuántico de un fotón.
1998 - 1999 Primeros cúbits
Investigadores de Los Álamos y el Instituto Tecnológico de Massachusetts consiguen
propagar el primer cúbit a través de una solución de aminoácidos. Supuso el primer paso
para analizar la información que transporta un cúbit. Durante ese mismo año, nació la
primera máquina de 2 cúbits, que fue presentada en la Universidad de Berkeley, California
(EE. UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la
primera máquina de 3 cúbits y además fue capaz de ejecutar por primera vez el algoritmo
de búsqueda de Grover.
Año 2000 hasta ahora[editar]
2000 - Continúan los progresos[editar]
De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5
cúbits capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte
del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un
computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de
Los Álamos National Laboratory (EE. UU.) anunciaron el desarrollo de un computador
cuántico de 7 cúbits. Utilizando un resonador magnético nuclear se consiguen aplicar
pulsos electromagnéticos y permite emular la codificación en bits de los computadores
tradicionales.
2001 - El algoritmo de Shor ejecutado[editar]
IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor
en el primer computador cuántico de 7 cúbits desarrollado en Los Álamos. En el
experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5
utilizando para ello 1018 moléculas, cada una de ellas con siete átomos.
2005 - El primer Qbyte[editar]
El Instituto de Óptica e Información Cuántica de la Universidad de Innsbruck (Austria)
anunció que sus científicos habían creado el primer qbyte, una serie de 8 cúbits utilizando
trampas de iones.
2006 - Mejoras en el control del cuanto[editar]
Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del
cuanto y consiguen desarrollar un sistema de 12 cúbits. El control del cuanto se hace cada
vez más complejo a medida que aumenta el número de cúbits empleados por los
computadores.
2007 - D-Wave[editar]
La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de
febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16
cúbits de propósito general; luego la misma compañía admitió que tal máquina, llamada
Orion, no es realmente una computadora cuántica, sino una clase de máquina de propósito
general que usa algo de mecánica cuántica para resolver problemas.[cita requerida]
2007 - Bus cuántico[editar]
En septiembre de 2007, dos equipos de investigación estadounidenses, el National
Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven
consiguieron unir componentes cuánticos a través de superconductores.
De este modo aparece el primer bus cuántico, y este dispositivo además puede ser
utilizado como memoria cuántica, reteniendo la información cuántica durante un corto
espacio de tiempo antes de ser transferido al siguiente dispositivo.
2008 - Almacenamiento[editar]
Según la Fundación Nacional de Ciencias (NSF) de los EE. UU., un equipo de científicos
consiguió almacenar por primera vez un Qubit en el interior del núcleo de un átomo de
fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos.
Este periodo puede ser expansible mediante métodos de corrección de errores, por lo que
es un gran avance en el almacenamiento de información.
2009 - Procesador cuántico de estado sólido[editar]
El equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de
la Universidad de Yale, que ya en 2007 había desarrollado el Bus cuántico, crea ahora el
primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de
forma similar a un microprocesador convencional, aunque con la capacidad de realizar
solo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos.
Para la comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan
sobre el bus cuántico, circuito electrónico que almacena y mide fotones de microondas,
aumentando el tamaño de un átomo artificialmente.
2011 - Primera computadora cuántica vendida[editar]
La primera computadora cuántica comercial es vendida por la empresa D-Wave Systems,
fundada en 1999, a Lockheed Martin por 10 millones de dólares.5
2012 - Avances en chips cuánticos[editar]
IBM anuncia que ha creado un chip lo suficientemente estable como para permitir que la
informática cuántica llegue a hogares y empresas. Se estima que en unos 10 o 12 años se
puedan estar comercializando los primeros sistemas cuánticos.6
2013 - Computadora cuántica más rápida que un computador convencional[editar]
En abril la empresa D-Wave Systems lanza el nuevo computador cuántico D-Wave Two el
cual es 500 000 veces superior a su antecesor D-Wave One, con un poder de cálculo de
439 cúbits. Realmente el D-Wave Two tuvo graves problemas finalmente, dado que no
tenía las mejoras de procesamiento teóricas frente al D-Wave One.7 Este fue comparado
con un computador basado en el microprocesador Intel Xeon E5-2690 a 2.9 GHz, teniendo
en cuenta que lo obteniendo, es decir, el resultado en promedio de 4000 veces superior.8
En 2016, Intel trabaja en el dominio del silicio por el primer ordenador cuántico9
En mayo de 2017, IBM presenta un nuevo procesador cuántico comercial, el más potente
hasta la fecha10 de 17 cúbits.11
2019 - Primer ordenador cuántico para uso comercial[editar]
En el CES de 2019, IBM presentó el IBM Q System One, el primer ordenador cuántico
para uso comercial. En el mismo se combina tanto la computación cuántica como
"tradicional" para ofrecer un sistema de 20 qubits para su utilización en investigaciones y
grandes cálculos.[2]

Véase también[editar]
 Computación basada en ADN
 Criptografía cuántica
 Electrónica molecular
 Entrelazamiento cuántico
 Fotónica
 Intelligence Advanced Research Projects Activity (IARPA)
 Simulador cuántico universal
 Teleportación cuántica
 En los últimos años, algunas grandes empresas de
tecnología como IBM, Microsoft, Intel o Google están
trabajando en relativo silencio sobre algo que suena
muy bien: la computación cuántica. El principal
problema de esto, al menos para nosotros, es que es
complicado saber qué es exactamente y para qué puede
ser útil.
 Hay algunas preguntas que se pueden resolver
fácilmente. Por ejemplo, la computación cuántica no
va a servir de momento para que tengas más FPS en tu
tarjeta gráfica. Tampoco será todo tan fácil como
cambiar la CPU de tu ordenador por una cuántica para
que se vuelva hiperrápido. La computación cuántica
es fundamentalmente distinta a la computación a
la que estamos acostumbrados, y en este artículo
vamos a tratar de arrojar algo de luz sobre el asunto.

 ¿Cuál es el origen de la
computación cuántica?
 A principios del siglo XX, Planck y Einstein proponen
que la luz no es una onda continua (como las ondas de
un estanque) sino que está dividida en pequeños
paquetes o cuantos. Esta idea, en apariencia simple,
servía para resolver un problema llamado la
"catástrofe ultravioleta". Pero a lo largo de los años
otros físicos fueron desarrollándola y llegando a
conclusiones sorprendentes sobre la materia, de las
cuales a nosotros nos interesarán dos: la
superposición de estados y el entrelazamiento.


 EN XATAKA
 NVIDIA no da «puntada sin hilo»: así funciona el ‘ray tracing’ de sus
GeForce RTX que nos coloca en las puertas del fotorrealismo

 Para entender por qué nos interesan, hagamos un


pequeño receso y pensemos en cómo funciona un
ordenador clásico. La unidad básica de información es
el bit, que puede tener dos estados posibles (1 ó 0) y
con los que podemos realizar varias operaciones
lógicas (AND, NOT, OR). Juntando n bits podemos
representar números y operar sobre esos números,
pero con limitaciones: sólo podemos representar
hasta 2^nestados distintos, y si queremos
cambiar x bits tenemos que realizar al
menos x operaciones sobre ellos: no hay forma de
cambiarlos mágicamente sin tocarlos.
 Pues bien, la superposición y el entrelazamiento nos
permiten reducir esas limitaciones: con la
superposición podemos almacenar muchos más
que sólo 2^n estados con n bits cuánticos (qubits),
y el entrelazamiento mantiene fijas ciertas relaciones
entre qubits de tal forma que las operaciones en un
qubit afectan forzostamente al resto.


 EN XATAKA

 La biblia del HDR: qué es, cuáles son los estándares actuales y cómo no
todo lo que dicen que es HDR lo es en realidad

 La superposición, si bien parece una bendición a


primera vista, también es un problema. Tal y como
demostraba Alexander Holevo en 1973, aunque
tengamos muchos más estados que podemos guardar
en n qubits, en la práctica sólo podemos
leer 2^n distintos. El por qué lo veíamos en un artículo
en Genbeta sobre las bases de la computación
cuántica: un qubit no vale sólo 1 ó 0 como un bit
normal, sino que puede ser un 1 en un 80% y un 0 en
un 20%. El problema es que cuando lo leemos sólo
podemos obtener o 1 ó 0, y las probabilidades que
tenía cada valor de salir se pierden porque al medirlo
lo hemos modificado.

 Si tenemos
una bola cuántica que oscila 100% en horizontal, siempre pasará por una rendija
horizontal. Si oscila en una superposición 50% horizontal y 50% en vertical, sólo
pasará algunas veces cuando justo entre con el ángulo adecuado y rebote con el
interior de la rendija, y al salir estará oscilando 100% horizontal.

 Esa discrepancia entre la información que guardan los


qubits y la que podemos leer nosotros llevaba a Benioff
y a Feynman a demostrar que un ordenador clásico
no sería capaz de simular un sistema
cuánticosin una cantidad desproporcionada de
recursos, y a proponer modelos para un ordenador
cuántico que sí fuese capaz de hacer esa simulación.
 Esos ordenadores cuánticos probablemente no serían
más que una curiosidad científica sin el segundo
concepto, el entrelazamiento, que permite
desarrollar dos algoritmos bastante relevantes: el
temple cuántico en 1989 y el algoritmo de Shor en
1994. El primero permite encontrar valores mínimos
de funciones, que así dicho no suena muy interesante
pero tiene aplicaciones en inteligencia artificial y
aprendizaje automático, tal y como comentamos
en otro artículo. Por ejemplo, si conseguimos codificar
la tasa de error de una red neuronal como una función
a la que podamos aplicar temple cuántico, ese valor
mínimo nos dirá cómo configurar la red neuronal para
que sea lo más eficiente posible.
 El segundo algoritmo, el algoritmo de Shor, nos sirve
para descomponer un número en sus factores primos
de manera mucho más eficiente que lo que podamos
lograr en un ordenador normal. Así dicho, de nuevo,
no suena para nada interesante. Pero si os digo que
RSA, uno de los algoritmos más usados para proteger y
cifrar datos en Internet, se basa en que factorizar
números es exponencialmente lento (añadir un bit a la
clave implica doblar el tiempo que se tarda en hacer un
ataque por fuerza bruta), entonces la cosa cambia. Un
ordenador cuántico con suficientes qubits
dejaría completamente obsoletos muchos
sistemas de cifrado.

 ¿Qué se ha conseguido hasta el


momento con la computación
cuántica?

 Hasta ahora, la computación cuántica es un campo que


no se ha aplicado mucho en el mundo real. Para que
nos hagamos una idea, con los veinte qubits del
ordenador cuántico comercial que anunciaba IBM,
podríamos aplicar el algoritmo de factorización de
Shor sólo a números menores que 1048576, que como
os podéis imaginar no es muy impresionante.
 Aun así, el campo tiene una evolución prometedora.
En 1998 se presentó el primer ordenador
cuántico (sólo dos qubits, y necesitaba una máquina de
resonancia magnética nuclear para resolver un
problema "de juguete" (el llamado problema de
Deutsch-Jozsa). En 2001 se ejecutó por primera vez el
algorimo de Shor. Sólo 6 años más tarde, en 2007, D-
Wave presentaba su primer ordenador capaz de
ejecutar el temple cuántico con 16 qubits. Este año, la
misma compañía anunciaba un ordenador de
temple cuántico de 2000 qubits. Por otra parte,
los nuevos computadores de IBM, aunque con menos
qubits, son capaces de implementar algoritmos
genéricos y no sólo el del temple cuántico. En
resumidas cuentas, parece que el empuje es fuerte y
que la computación cuántica cada vez será más
aplicable a problemas reales.
 ¿Cuáles pueden ser esas aplicaciones? Como
comentábamos antes, el algoritmo del temple cuántico
es muy apropiado para problemas de aprendizaje
automático, lo cual hace de los ordenadores que lo
implementen sean extermadamente útiles, aunque lo
único que puedan hacer sea ejecutar ese único
algoritmo. Si se pueden desarrollar sistemas que, por
ejemplo, sean capaces de transcribir conversaciones o
identificar objetos en imágenes y se puedan "traducir"
para entrenarlos en ordenadores cuánticos, los
resultados podrían ser órdenes de magnitud mejores
que los ya existentes. El mismo algoritmo también se
podría usar para encontrar soluciones a problemas
en medicina o química, como encontrar los
métodos óptimos de tratamiento para un paciente o
estudiar las posibles estructuras de moléculas
complejas.


 EN XATAKA

 Llevo más de una década traduciendo formatos de fichero de la antigua


informática para que no desaparezca

 Los ordenadores cuánticos genéricos, que aunque


ahora mismo disponen de menos qubits, sí podrían
ejecutar más algoritmos. Por ejemplo, podrían usarse
para romper gran parte de de la criptografía
usada ahora mismo como comentábamos antes (lo
cual explica por qué la NSA quería tener un ordenador
cuántico). También servirían como buscadores
supperrápidos si se consigue implementar el algoritmo
de búsqueda de Grover, y para la física y química
pueden ser muy útiles como simuladores eficientes
de sistemas cuánticos.

 Las barreras que todavía hay que


vencer

 Por desgracia, los algoritmos y códigos para


ordenadores clásicos no se podrían usar en
ordenadores cuánticos y obtener una mejora en
velocidad mágicamente: es necesario desarrollar un
algoritmo cuántico (cosa no trivial) e implementarlo
para poder obtener esa mejora. Eso, de primeras,
restringe mucho las aplicaciones de los ordenadores
cuánticos y será un problema a sortear cuando esos
sistemas estén más desarrollados.
 Sin embargo, el principal problema al que se enfrenta
la computación cuántica es construir los
ordenadores. Comparado con un ordenador normal,
un ordenador cuántico es una máquina
extremadamente compleja: funcionan a una
temperatura cercana al cero absoluto (-273 ºC), el
soporte de qubits son superconductores y los
componentes para poder leer y manipular los qubits
no son sencillos tampoco.
 Además, los qubits no suelen ser estables, en el sentido
de que son muy sensibles a las perturbaciones y al
ruido. Esto puede llevar a errores en los cálculos (por
ejemplo, si el ordenador calcula 1 + 1 y un qubit
cambia por ruido igual el resultado nos sale 3) pero
también a que el ordenador no sea cuántico
propiamente dicho.
 ¿Que cómo puede ser un ordenador cuántico no
cuántico? Tal y como habíamos explicado antes, los
dos conceptos relevantes de un ordenador cuántico son
la superposición y el entrelazamiento, y sin ellos no
pueden existir las mejoras de velocidad que prometen
los algoritmos cuánticos. Si las perturbaciones del
ordenador modifican qubits en superposición y los
llevan a estados clásicos rápidamente, o si rompen el
entrelazamiento entre varios qubits, lo que
tenemos no es un ordenador cuántico sino sólo
una computadora extremadamente cara que
sólo sirve para ejecutar un puñado de algoritmos de
manera equivalente a un ordenador normal (y
probablemente dé resultados erróneos).
 De las dos propiedades, el entrelazamiento es la más
difícil de mantener y de probar que existe. Cuantos
más qubits haya, más fácil es que uno de ellos
se desentrelaze (lo que explica por qué aumentar el
número de qubits no es una tarea trivial). Y no basta
con construir el ordenador y ver que salen resultados
correctos para decir que hay qubits entrelazados:
buscar evidencias de entrelazamiento es toda una tarea
en sí misma y de hecho la falta de evidencias era una
de las principales críticas a los sistemas de D-Wave en
sus inicios.

 EN XATAKA

 PC Fútbol cumple 25 años: sus creadores nos cuentan cómo nació, cómo
llegó a ser el juego español más vendido y qué ha sido de él

 ¿Y habrá móviles cuánticos en el


futuro?

 De momento, parece que la computación cuántica se


va a limitar a empresas grandes que puedan
aplicarla a problemas complejosy costosos
computacionalmente, un poco de forma similar a los
inicios de la computación clásica. Probablemente cada
vez habrá ordenadores cuánticos más potentes,
llegando a lo que Google decía sobre la supremacía
cuántica a partir de la cual los ordenadores cuánticos
podrían resolver problemas para los que ni el
supercomputador más grande tiene suficientes
recursos.
 Empresas como Google, Microsoft o IBM podrían usar
los ordenadores cuánticos para entrenar de manera
más eficiente sistemas de aprendizaje automático, o
para fines científicos simulando proteínas o sistemas
cuánticos. En cualquiera de los casos, serán avances
que no probablemente no notaremos mucho como
usuarios más allá de la nota de prensa de turno.


 EN XATAKA

 Así es el ordenador cuántico de 49 Qubits de Intel por dentro

 Y más a largo plazo, ¿qué podemos esperar? A priori y


con los materiales que se están construyendo ahora
mismo los ordenadores cuánticos, no parece que la
miniaturización sea demasiado factible. Pero ya hay
investigaciones sobre nuevos materiales que podrían
servir para crear ordenadores cuánticos más
accesibles. Quién sabe si de aquí a cincuenta años
podamos comprar "CPUs cuánticas" para mejorar la
velocidad de nuestros ordenadores.

¿Qué es la computación
cuántica?
Por Martin Caceres
Para diferentes científicos la computación cuántica será el futuro de las
computadoras, aunque actualmente solo grandes empresas como Google y la
NASA han podido adquirir una.

Hace unos años supimos que Google y NASA adquirieron una computadora
cuántica en su búsqueda por alcanzar la mayor velocidad de resolución de
problemas y analizar datos de una forma más precisa.

Diferentes científicos describen a la computación cuántica como un bebé en


pañales que será el futuro de las computadoras, aunque actualmente solo las
grandes empresas ya mencionadas, Google y NASA, tienen acceso a ellas.

Primero, definamos qué es una computadora u ordenador cuántico. Teóricamente


se trata de una computadora que utiliza los qubits para realizar las operaciones en
vez de los tradicionales bits de las computadoras clásicas, lo cual le permite
resolver problemas mucho más rápido, lo que a una computadora ordinaria le
tomaría demasiado tiempo o hasta, incluso, podría ser incapaz de resolver.

¿Qué es un qubit?

Un qubit o también llamado cubit es la unidad mínima de la información cuántica,


mientras un bit (unidad de información clásica) entrega resultados binarios, es
decir 0 y 1. El qubit entrega resultados al mismo tiempo gracias a las leyes de la
cuántica, lo que permite más rapidez de procesamiento de datos. Además, el qubit
puede resolver muchas más operaciones al mismo tiempo de forma simultánea e
incluso realizar miles de combinaciones, lo cual rompería cualquier tipo de
encriptación de manera instantánea.
Existen numerosos campos donde el qubit tendrá gran relevancia como la
teletransportación de información cuántica en la tierra y en el espacio, las
comunicaciones con seguridad definitiva (infranqueable), y el comienzo de big data
a niveles inimaginables, y esto es solo el comienzo de todo lo que se puede lograr
con el qubit.

El ordenador cuántico con el que cuentan Google y NASA es el famoso D-WAVE


2. Lo adquirieron en el 2013 y ambas entidades han colaborado en su desarrollo.
Este ordenador les permite realizar trabajos de investigación y desarrollo de
manera mucho más rápida, especialmente en los trabajos de inteligencia artificial
que vienen desarrollando, sobre todo Google.

Además, Google ya ha comenzado a realizar pruebas para hacer de su navegador


“Chrome” lo suficientemente seguro ante las posibles amenazas que la
computación cuántica traiga consigo, debido a que las propiedades y capacidades
de la computación cuántica para el procesamiento de información son tan grandes
que los protocolos y sistemas de seguridad que actualmente se emplean en la red
se verían seriamente comprometidos si no se realizan modificaciones.

Incluso IBM acaba de poner a disposición su ordenador cuántico a cualquier


persona mediante internet. Este ordenador se encuentra en su laboratorio de
YorkTown Heights, New York. Será posible utilizarlo desde cualquier ordenador y
en cualquier parte del mundo mediante un software que se podrá descargar.

Así, IBM pone en marcha una iniciativa por la cual cualquier científico, investigador
o programador puede encontrar errores y proponer mejoras, además de tener la
oportunidad de trabajar con una máquina súper poderosa que resolvería
problemas que para una computadora ordinaria tomaría mucho más tiempo.

Referencia:

Ya puedes utilizar un ordenador cuántico desde tu casa a través de internet (Mayo,


2016). El Confidencial. Recuperado
de http://www.elconfidencial.com/tecnologia/2016-05-04/ibm-computacion-
cuantica-informatica_1194604/

También podría gustarte