Está en la página 1de 2

La computación cuántica está en el corazón del debate.

Durante 2019 y 2020 le hemos


dedicado muchos artículos en Xataka porque se han producido avances muy
relevantes en esta disciplina en los que merecía la pena indagar. La llegada de la
supremacía cuántica es el más sorprendente de todos ellos y la ha colocado en el centro
de la discusión, pero los expertos en ordenadores y algoritmos cuánticos reconocen sin
ambigüedad que queda mucho trabajo por hacer. Tanto, de hecho, que hay quien cree
que todo este esfuerzo no va a ir a ninguna parte.

Uno de los miembros de la comunidad científica más críticos con la computación


cuántica es el matemático israelí Gil Kalai, profesor en la Universidad de Yale. Según
este investigador el incremento del número de estados de los sistemas cuánticos y de su
complejidad provocará que acaben comportándose como los ordenadores clásicos, por
lo que la superioridad de los primeros acabará evaporándose.

No obstante, la ausencia de un respaldo unánime por parte de la comunidad científica no


debe empañar el esfuerzo y los avances notables que están haciendo muchos grupos de
investigación, algunos de ellos en instituciones españolas como el CSIC y otros
integrados en la estructura de empresas que tienen unos recursos muy abultados, como
IBM, Google o Intel, entre otras.

Tenemos motivos fundados no para lanzar las campanas al vuelo, pero sí para mirar con
razonable optimismo hacia las innovaciones que llegarán en el futuro. Este breve repaso
al statu quo de los ordenadores cuánticos es el preludio a un artículo en el que nos
hemos propuesto recoger toda la información que necesitamos para tener una fotografía
lo más certera posible del estado de la computación cuántica.

Confiamos en que este texto resulte útil a los lectores que tenéis curiosidad por esta
disciplina y queréis tener una base sólida sin necesidad de recorrer uno a uno todos los
artículos que hemos publicado hasta ahora.Qué es un cúbit la palabra ‘cúbit’ procede de
la contracción de los términos en inglés quantum bit, o bit cuántico. En los ordenadores
que utilizamos actualmente un bit es la unidad mínima de información. Cada uno de
ellos puede adoptar en un momento dado uno de dos valores posibles: 0 o 1.

Pero con un único bit apenas podemos hacer nada, de ahí que sea necesario agruparlos
en conjuntos de 8 bits conocidos como bytes u octetos. Por otro lado, los bytes pueden
agruparse en «palabras», que pueden tener una longitud de 8 bits (1 byte), 16 bits (2
bytes), 32 bits (4 bytes), etc. Si queremos saber cuántos valores diferentes puede adoptar
un conjunto de bits, que puede tener cualquier tamaño (así que lo llamaremos n), solo
tenemos que elevar 2 a n (2^n). El dos, que es la base, procede del hecho de que cada bit
puede adoptar uno de un máximo de dos valores, de ahí que a la notación utilizada por
los sistemas digitales en general se la llame notación binaria.

La notación que nosotros utilizamos en nuestro día a día es la decimal debido a que


usamos un conjunto de diez valores diferentes que van del 0 al 9, y no solo dos valores
(0 y 1), como la notación binaria. Es una restricción absolutamente razonable que
parece tener un reflejo claro en el mundo que observamos porque una cosa es o no es,
pero no puede tener ambas propiedades simultáneamente. Este principio tan evidente y
básico, curiosamente, no se da en la computación cuántica. Y es que los cúbits, que
son la unidad mínima de información en esta disciplina, a diferencia de los bits no
tienen un único valor en un momento dado; lo que tienen es una combinación de los
estados cero y uno simultáneamente. Pueden tener mucho de estado cero y poco de
estado uno. O mucho de estado uno y poco de estado cero. O lo mismo de ambos. O
cualquier otra combinación de estos dos estados que se os ocurra.

También podría gustarte