Documentos de Académico
Documentos de Profesional
Documentos de Cultura
MONOGRAFIA DE COMPUTACION CUANTICA Casiii
MONOGRAFIA DE COMPUTACION CUANTICA Casiii
MONOGRAFIA DE COMPUTACION CUANTICA Casiii
DEL PERU
FACULTAD DE INGENERÍA ELÉCTRICA Y
ELECTRÓNICA
2023
INTRODUCCION:
2
INDICE:
Origen............................................................................................................................................................
Cronologia..........................................................................................................................................................
2. Algoritmos cuanticos..........................................................................................................................................
3. Tecnologias cuanticas.........................................................................................................................................
6. Conclusiones ................................................................................................................................................
3
ORIGEN:
A medida que evoluciona la tecnología , aumenta la escala de integración y caben más transistores en un espacio, así
se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza
el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar
correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben
circular. A esto se le llama efecto túnel. Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota.
Pero los electrones, que son partículas cuánticas y se comportan como ondas, una parte puede atravesar las paredes si
son demasiado finas y la señal pasa por canales donde no debería circular. Por ello, el chip deja de funcionar
correctamente.
En consecuencia, la computación digital tradicional, no tardaría en llegar a su límite, puesto que ya se han llegado a
escalas de cientos de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la
computación cuántica.
La idea de computación cuántica surge en 1981 cuando Paul Benioff expuso su teoría para aprovechar las leyes
cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto.
En la computación digital, un bit sólo puede tomar dos valores : 0 ó 1. En cambio, en la computación cuántica,
intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y
puede ser un 0 y un 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan
realizar varias operaciones a la vez, según el número de qubits.
El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si
teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En
cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la
superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas.
Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea
del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops
(billones de operaciones en punto flotantes por segundo) cuando actualmente las computadoras trabajan en el orden de
gigaflops (miles de millones de operaciones)
4
CRONOLOGIA:
Años 80
A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar
cálculos de naturaleza cuántica.
Años 90
En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras
aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos.
5
1994-1995 Peter Shor
Este científico americano de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular
los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional.
Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo
sirvió para demostrar a una gran parte de la comunidad científica que observaba
científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de
investigación con un gran potencial. Además, un año más tarde, propuso
un sistema de corrección de errores en el cálculo cuántico.
6
2005 – El primer Qbyte
El Instituto de "Quantum Optics and Quantum Information" en la universidad de Innsbruck (Austria) anunció que sus
científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.
2007 – D-Wave
La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit (Figura 4.2). Entre
las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y un algoritmo que
soluciona Sudokus. Todo ello a través de una interficie gráfica similar a la utilizada en los computadores actuales,
tratándose del primer acercamiento de la computación cuántica al mundo comercial y no tan científico.
En septiembre de este año, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de
Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de
superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado
como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser
transferido al siguiente dispositivo
7
CAPITULO 1 :
8
1.1.2 Principios de la correspondencia
Es uno de los principios metodológicos fundamentales del desarrollo de la ciencia; su significado filosófico
estriba en expresar el proceso del movimiento del conocer que va de las verdades relativas a la verdad
absoluta, cada vez más plena. Fue formulado por primera vez durante el período del total desplome de los
conceptos de la física clásica (Bohr, 1913). Según el principio de correspondencia, cada vez que se produce
una quiebra de las concepciones científicas, las leyes fundamentales de la nueva teoría creada como
resultado de dicha quiebra, presentan siempre tales caracteres que en un caso extremo, si se da el adecuado
valor de cierto parámetro característico inserto en la nueva teoría, se transforman en leyes de la teoría vieja.
Por ejemplo, las leyes de la mecánica cuántica se transforman en leyes de la mecánica clásica cuando se
puede desdeñar la magnitud del cuanto de acción. La vigencia del principio de correspondencia puede
registrarse en la historia de la matemática, de la física y de otras ciencias. En ella se refleja la conexión,
sujeta a ley, entre las viejas teorías y las nuevas, derivadas de la unidad interna existente entre niveles de
materia cualitativamente distintos. Semejante unidad no sólo condiciona la integridad de la ciencia y de la
historia de la ciencia, sino, además, el inmenso papel heurístico del principio de correspondencia para
penetrar en una esfera de fenómenos cualitativamente nueva. La interpretación científica de dicho principio
permite descubrir la dialéctica del proceso de cognición, permite demostrar la inconsistencia
del relativismo.
Las computadoras que conocemos y utilizamos en nuestra vida diaria trabajan con unidades básicas
llamadas bits; cada una de estas puede tener el valor 0 o el valor 1 únicamente y dichos valores no pueden
ser representados simultáneamente, es decir, un bit en un momento dado solo puede representar
uno de los dos. Por su parte, las computadoras cuánticas trabajan con unidades llamadas qubits (bits
cuánticos), que pueden tomar el valor 0 o el valor 1, o cualquier combinación de esos valores de manera
simultánea; en otras palabras, pueden tener o representar más de un valor al mismo tiempo. Esto plan- tea
la posibilidad de procesar muchísima más información de la que sería posible con una computadora
convencional.
Los qubits, para retener información y así ser de utilidad, deben cumplir con dos propiedades muy
importantes llamadas superposición y entrelazado cuántico. La primera se refiere al hecho de que el qubit
puede tomar más de un valor al mismo tiempo, lo que ha- ría posible que con la misma cantidad de bits (o
9
de qubits en este caso) se almacene más información simultáneamente. Por ejemplo, en la actualidad una
computadora clásica con 3 bits puede representar ocho posibles estados o valores diferentes, pero solo uno
a la vez; mientras que la computadora cuántica podría representar los ocho estados o valores al mismo
tiempo, es decir, en lugar de tener solo uno de los posibles ocho valores, podría tener todos a la vez.
https://www.google.com/url?sa=i&url=https%3A%2F%2Fdimateria.com%2Ffisica%2Fentrelazamiento-cuantico&psig=AOvVaw1hRe
10
1.3.1.Entropia de entrelazamiento:
11
1.1.3. Resultados en QFT:
12
https://www.google.com/url?sa=i&url=https%3A%2F%2Fblogdetito.com%2F2014%2F02%2F10%2Ftermodin-mica-f-sica-cu-ntica-y-la-ley-de
13
CAPITULO 2 :
2) ALGORITMOS CUANTICOS:
14
2.1. Algoritmo de Shor
15
16
https://francis.naukas.com/files/2018/10/Dibujo20181031-shor-quantum-algorithm-with-five-qubits.pn
17
2.1. Algoritmo de Grover
CAPITULO 3:
3) TECNOLOGIAS CUÁNTICAS:
La tecnología cuántica es una clase de tecnología que funciona utilizando los principios de la
mecánica cuántica (la física de las partículas subatómicas), incluido el entrelazamiento cuántico y la
superposición cuántica.
Tal definición puede hacer que tu cabeza dé vueltas, pero la verdad es que no necesitas saber
exactamente qué es la tecnología cuántica para hacer uso de ella. Tu teléfono inteligente es un tipo de
tecnología cuántica: sus semiconductores utilizan la física cuántica para funcionar, pero ni tu ni el
https://learn.microsoft.com/es-es/azure/quantum/media/success-probability-grovers.png
ingeniero que lo diseñó necesitan conocer los entresijos de la mecánica cuántica.
La razón por la que estamos hablando de tecnología cuántica ahora, 50 años después de que se
convirtió en parte de nuestras vidas a través de la energía nuclear, es que las últimas proezas de la
ingeniería están aprovechando más el potencial de la mecánica cuántica. Ahora estamos empezando a
controlar el entrelazamiento cuántico y la superposición cuántica. Eso significa que la tecnología
cuántica promete mejoras para una amplia gama de dispositivos cotidianos, que incluyen:
18
Todas estas aplicaciones podrían, hasta cierto punto, ser útiles dentro de uno o dos años. Pero es
difícil saber cuál será una evolución simple y cuál será verdaderamente disruptiva. Esa incertidumbre
brinda una oportunidad a las empresas proactivas, ya que la diferencia entre la evolución y la
revolución probablemente será la inversión temprana.
Dos acontecimientos importantes cambiaron el curso de la criptografía, uno de ellos fue el estudio
que realizo Claude Shannon con la teoría de la información y la criptología, en esta define un marco
de trabajo y de matemáticas donde propone convertir las imágenes, los sonidos a dígitos binarios (0 y
1) y que sean transmitidas por cualquier medio de comunicación, reduciendo el ruido o corrigiéndolo,
de esta manera al llegar al destinatario se convertiría nuevamente los códigos binarios en la
información enviada, por estos y más contribuciones a Shanon se le considera el padre de las
comunicaciones digitales. En el campo de la criptografía, también realizo importantes aportes uno de
ellos es el documento “Communication Theory of Secrecy Systems en el año 1949, donde “establece
una base teórica para la Criptografía y para el criptoanálisis y define las estructuras matemáticas
básicas de los sistemas de seguridad”12. Con este nuevo documento de Shannon la criptología es
considerada como una de las ramas de las matemáticas y deja de estar rodeada de escepticismo y
misterio. El siguiente acontecimiento importante en la historia de la criptología fue la publicación de
un ensayo https://media.es.wired.com/photos/6324939aeca5c77cdd70ba05/16:9/w_2991,h_1682,c_limit/computadoras%20cuanticas-1241891416.jpg
realizado por Whitfield Diffie y Martin Hellman en el año 1976 que marca un antes y un
después de la clave pública, este ensayo lleva por nombre New Directions in Cryptography, en el que
proponen el cifrado asimétrico.
Este concepto de asimetría consiste básicamente en tener que el receptor tenía ahora dos claves, una
publica (Puede ser conocida por todo el mundo) y una privada, las dos claves son distintas, pero con
la ayuda de las matemáticas, el mensaje se cifra con la clave pública y solo se descifra con la clave
privada. La seguridad cambia radicalmente con el uso de estas dos claves, ya que, si se intentaba
descifrar el mensaje con la clave privada, el mensaje sería totalmente incomprensible. La distribución
de estas claves era segura ya que el emisor del mensaje difundía la clave pública y se la enviaba al
20
receptor. A continuación, un ejemplo del envió de un mensaje utilizando la criptografía simétrica
https://ethicalhackneox.wordpress.com/2015/09/29/criptografia-llaves-publicas-y-privadas-tarea-
Con estas bases realizadas por Diffie y Hellman, se desarrolló el sistema uno de los criptosistemas de
clave pública más utilizados en la actualidad el RSA, inventado en 1978 por Ronald Rivest, Adi
Shamir y Leonard Adleman, el criptosistema está basado en la factorización de enteros “Funciona de
la siguiente manera: se toman dos números primos grandes, p y q, y se calcula su producto n = pq; n
se denomina módulo. Elija un número e, menor que n y primo relativamente de (p-1) (q-1) y halle el
inverso de, modo (p-1) (q-1), que significa que de = 1 mod (p-1) (q-1); e y d se denominan el
exponente público y privado, respectivamente. La clave pública es el par (n, e) y la privada es d. Los
21
CAPITULO 4
Tomar las riendas del desafío cuántico Habida cuenta del crecimiento informático descripto y de su
capacidad de alterar varios campos de acción humana distintos, es de notar, que es muy probable que
resulten nuevas dificultades a resolver sobre viejos paradigmas de las ciencias jurídicas. Esto es,
encontrarse con situaciones conflictivas dignas de litigios, pero que nos encuentren con normas
anticuadas no pensadas para la naturaleza de dicho conflicto, mediante las cuales, las interpretaciones
que se puedan hacer podrían ser imprecisas o encontrarnos con zonas grises. Es por esto que
entiendo, es deber de un Estado incorporar a su agenda el seguimiento de dichos avances y reglar
conforme a los principios y garantías de su Constitución, los efectos jurídicos de innovaciones que
pudieran superar la imaginación -y por ende voluntad- del legislador al momento de sancionar las
distintas normas. Esta regulación, en principio sería un desafío ante una tecnología tan incipiente, de
la cual aún no tenemos claros todos los efectos que se pudieran producir. De todos modos, sería
posible -al menos en el corto plazo- ir delineando políticas de protección de datos acordes a los
estándares más exigentes de la actualidad, tales como El Reglamento General de Protección de Datos
de Europa8 (Reglamento (UE) 2016/679, 2016) o la Ley General de Protección de Datos de Brasil9
(Ley número 13.709/18). Teniendo en cuenta que nuestra normativa en esa materia data del año
2000, la ley numero 25.326 cuyo nombre es “Ley de Protección de Datos Personales”10 en base a su
antigüedad y los avances desarrollados en todo este tiempo en la materia, se puede inferir que muchas
de sus disposiciones no se encuentran a la orden del día y así mismo lo confirma la práctica, es por
ello que en el presente me encargo de tratar algunos de los supuestos que a mi entender urgen revisar,
porque en comparación con el Reglamento Europeo han quedado vetustos.
22
Es necesario entender que, con el paso del tiempo, surgen nuevos paradigmas de trabajo en el campo
de la computación e internet, que en un primer momento no se imaginaban o pensaban desarrollar- al
menos en el corto tiempo- y es por esto que conceptos claves como “datos genéticos” o” datos
biométricos” no supieron ser atendidos por nuestra ley. También es así con otros conceptos de
especial relevancia como “empresa”, “grupo empresarial”, “normas cooperativas vinculantes” o
“servicio de la sociedad de la información” que el Reglamento Europeo en 2018 se encargó
especialmente de tratar. Otra definición importante a atender es la de datos personales, en la cual la
ley argentina no hace ningún tipo de reflexión ni definición y hoy constituye un valor trascendente,
puesto que es muy grande la cantidad de datos que las personas suben tanto a sus redes sociales,
como a distintos blogs, o al registrarse en páginas de internet de todo tipo y es valioso definirlas e
identificarlas para poder tratarlas de un modo seguro y cuidarlas. Por su parte el Reglamento General
de Datos de Europa deja establecido que una persona se considerará identificable cuando su identidad
pueda “determinarse, directa o indirectamente, en particular mediante un identificador, como por
ejemplo un nombre, un número de identificación, datos de localización, un identificador en línea o
uno o varios elementos propios de la identidad física, fisiológica, genética, psíquica, económica,
cultural o social de dicha persona”. En relación al tratamiento de datos sensibles, también vale aclarar
que se encuentran incorporados los datos genéticos y los biométricos al Reglamento General de
Datos de Europa, y resultaría muy valioso tenerlo en cuenta para actualizar nuestra ley.
Puesto que a la hora de identificar a una persona física de manera univoca, resulta de inmenso valor,
por otra parte, el acceso a este tipo de innovaciones ya se encuentra de fácil acceso para el público
general, con lo cual las relaciones y usos que se le den requieren su reconocimiento jurídico para
poder velar desde el Estado por su buen uso. Es menester entender también las relaciones de sujetos
que se contemplan cuando hablamos de protección de datos, en ello la clasificación argentina es bien
simple los divide en:
Simplemente se encarga de las personas cuyos datos son objeto de tratamiento, de quien los archiva
como responsable y de quien pueda realizar un tratamiento de dichos datos. En cambio, en el
Reglamento General de Datos de Europa nos encontramos con una clasificación más amplia, a saber:
• El interesado
• El responsable
• El Encargado
• El destinatario
• El tercero
• El representante
El interesado se trata simplemente de la figura que encontramos en nuestra Ley como “titular de
datos” y no ofrece ninguna distinción, así como también ocurre con “el responsable”. “El encargado”
23
debe decirse que es quien trate datos personales por cuenta del responsable de su tratamiento, en
tanto que “el destinatario” es aquel a quien se le comunican datos personales que pudieran ser o no de
un tercero, “el tercero” es aquella persona distinta del interesado, del responsable de tratarlos, de su
encargado y de las personas autorizadas para tratar los datos personales bajo autoridad del
responsable o encargado. Por último, el representante es quien representa al responsable o al
encargado en cuanto se trate de obligaciones impuestas por el Reglamento (ACD Por los derechos
civiles, res 6 julio 2020).11 Ante esto es inminente la necesidad de una reforma, mediante la cual se
pueda actualizar y por sobre todo preparar al sistema para transformaciones más profundas.
Reformas que ya se pueden prever que generaran nuevas figuras legales a contemplar, o en cuanto
menos profundizará esquemas de figuras que ya existen y se encuentran contempladas en la
normativa europea pero no en la nuestra, como muestran los casos vistos anteriormente. Sería de
esperar que, en cuanto antes se puedan preparar a nuestros cuerpos legales, más fácil ser interpretar o
encasillar las nuevas situaciones fácticas que se puedan suscitar, o mejor dicho existirá una mayor
facilidad para poder resolver los nuevos conflictos que de ellas se obtengan. Caso contrario, es muy
probable que se genere un vacío legal que ocasione en los operadores judiciales una incertidumbre
supina, ya que, lejos de referenciar y mostrar cómo debería resolver la autoridad, podría la ausencia
de especificidad aumentar el margen de discrecionalidad para resolver de los magistrados. Dicha
situación caería en la consecuencia de generar una nueva faz de inseguridad jurídica, lo cual sería
contraproducente para explorar y explotar el potencial de la tecnología cuántica en nuestro país. De
mas esta decir la importancia que posee que todo ciudadano tenga certezas, sobre los márgenes de
legalidad que poseen sus actos
24
[1], [2], [3], [11], [12]. Si bien gran parte de los trabajos al día de hoy se centran en estudiar
potenciales aplicaciones de la QC y se estima que su máxima capacidad se hará visible en los
próximos cinco años, ya se han realizado destacados avances en casos reales, en especial en el área
de Seguridad y en el tema que nos compete: Finanzas Cuantitativas, donde se han llevado a cabo
desarrollos vinculados con “Pricing de Derivados” y Optimización de 17 Portfolios (Simulaciones de
Monte Carlo) [4], [5], [6], [7], [8], [9], [10], [13]. En relación al híbrido propuesto en el presente
trabajo entre IA y QC ya se han logrado codificar circuitos cuánticos de algoritmos populares de
Machine Learning, como Vecinos Más Cercanos (KNN) y Redes Neuronales Artificiales (ANN),
aunque como mencionábamos este campo se encuentra actualmente en pleno desarrollo e
investigación académica. Por otro lado, el vínculo entre Procesamiento del Lenguaje Natural (NLP) y
QC es uno de los campos interdisciplinarios que más se está expandiendo, incluso, varios autores ya
han denominado a esta disciplina como “Quantum NLP”. Una de las aplicaciones más destacadas se
presenta en “Detección y Prevención de Fraudes”, como así también en el procesamiento de datos
alternativos [14], [15]. Finalmente, es importante mencionar, que la empresa IBM ha lanzado lo que
se denomina IBM Quantum Experience, un servicio en la nube y que brinda acceso libre a los
simuladores de computadoras cuánticas, lo cual sumado al framework open source Qiskit, el cual
permite programar computadoras cuánticas, brindan un entorno de trabajo eficiente e ideal para llevar
proyectos de investigación [9].
Pregunta Problema:
La computación cuántica podría tener el potencial de acelerar y optimizar los algoritmos de Machine
Learning en general y aquellos relacionados con gestión de carteras de inversión y análisis de riesgo,
en particular.
Objetivo General:
25
Plataforma Cloud de IBM-Q.
Objetivos Específicos:
a. Determinar los casos donde la aplicación de Computación Cuántica (QC) en la actualidad sea
eficiente y posible en el campo de las Finanzas.
b. Determinar los casos donde la aplicación de la Computación Cuántica (QC) no resulte posible o
eficiente en el campo de las Finanzas.
c. Estudiar y desarrollar algoritmos para Finanzas donde se utilizan circuitos cuánticos en conjunto
con algoritmos de Machine Learning.
d. Realizar un benchmark entre algoritmos de Machine Learning utilizando circuitos cuánticos y sin
utilizarlos.
e. Disponibilizar una interfaz escrita en Python y Qiskit donde diferentes usuarios puedan realizar
simulaciones dentro del entorno Cloud de IBM. f. Avanzar en la relación entre NLP y Computación
Cuántica (QC) utilizando los lexicones desarrollados en las etapas anteriores a este proyecto.
CAPITULO 5
Desde 2016 IBM ofrece la posibilidad de usar online una computadora cuántica, que primero
constaba de 5 qubits, y desde 2017 de 16 qubits. Y en diciembre de 2017 anuncia la disponibilidad de
un procesador cuántico de 20 qubits y un prototipo con 50 qubits. Notemos que la capacidad aumenta
exponencialmente con el número de qubits, duplicándose cada vez que se agrega un qubit. Por otro
lado, ya en 2007 la compañía canadiense D-Wave anunciaba un procesador cuántico con 28 qubits, y
en 2017 presentó uno con 2048 qubits. No obstante, a diferencia de los anteriores, estos son en
realidad “quantum annealers”, que sirven para ciertos problemas y simulaciones específicas, siendo
su eficiencia tema de controversias. En esta carrera, en marzo de 2018 Google también anunció un
procesador cuántico de 72 qubits. Más allá de sus limitaciones (deben funcionar a bajas temperaturas
y por el momento soportan tiempos de operación muy reducidos), estas primeras realizaciones
parecen indicar que una computadora cuántica eficiente con un número de qubits suficiente como
para alcanzar la denominada supremacía cuántica, puede ser una realidad en un futuro no muy lejano.
Cabe destacar además que una computadora cuántica resulta especialmente apta para simular
eficientemente otros sistemas cuánticos. Estos no admiten, en general, una simulación clásica
eficiente, ya que el número de parámetros necesarios para describirlos aumenta exponencialmente
26
con el número de componentes. Este uso, sugerido por el físico Richard Feynman ya en 1981, tiene
un gran potencial y abre grandes posibilidades en ciencias de materiales y química cuántica,
constituyendo uno de los principales objetivos de la computación cuántica. Luego del algoritmo de
Grover, se introdujeron también otros modelos de computación cuántica, entre ellos el DQC1, que a
diferencia de los algoritmos cuánticos anteriores, se basa expresamente en estados cuánticos no puros
(es decir, con ruido). Si bien no es universal, logra resolver eficientemente ciertos problemas para los
que no existe un algoritmo clásico polinomial. También fue introducido en 2012 el modelo de “boson
sampling” (muestreo bosónico), que permite determinar en forma eficiente una cierta distribución
que es clásicamente intratable (problema de categoría “sharp P” o #P en teoría de la complejidad),
requiriendo nuevamente menores recursos cuánticos. Estos modelos son en principio más fáciles de
implementar que una computadora cuántica universal. Finalmente, es importante destacar que el
desarrollo de la computación cuántica no se dio en forma aislada, sino en el marco de la nueva
revolución cuántica, surgida durante la última década del siglo XX, en la que se comenzó a develar el
potencial de la mecánica cuántica para nuevas formas de transmisión y procesamiento de la
información. En 1993 se introdujo la teleportación cuántica, la cual, a partir del entrelazamiento (una
característica fundamental de las correlaciones en sistemas cuánticos que no posee análogo clásico)
permite transferir el estado de un sistema cuántico a otro sistema remoto. Esto originó una nueva
forma de comunicación y convirtió al entrelazamiento, que hasta entonces era considerado como una
peculiaridad de la mecánica cuántica, en un recurso. La primera implementación física data ya de
1997, y en 2017 un equipo chino logró teletransportar el estado de polarización de fotones entre una
estación en el Tibet y un satélite en órbita, separados nada menos que por 1400 km, batiendo todos
los records anteriores. Asimismo, mientras que el algoritmo de Shor puede destruir la criptografía de
clave pública convencional basada en RSA, la mecánica cuántica posibilita al mismo tiempo una
criptografía cuántica, basada en lo que se denomina distribución cuántica de claves (QKD en inglés).
El primer protocolo QKD data ya de 1984, y en 1991 Artur Ekert desarrolla un protocolo QKD
basado en el entrelazamiento. Su característica principal puede resumirse (en forma simplificada) en
que no es posible “espiar” o “interceptar” la distribución sin destruirlas y sin que las partes lo
detecten. Existen varias compañías que ofrecen sistemas criptográficos cuánticos y también varias
redes de distribución cuántica de claves en uso. Al mismo tiempo, la creciente posibilidad de
existencia de una computadora cuántica generó ya la denominada criptografía post-cuántica,
enfocada en generar esquemas de criptografía clásica de clave pública que no pueden ser quebrados
por una computadora cuántica. Existen asimismo otros desarrollos cuánticos recientes radicalmente
nuevos que emplean el entrelazamiento y otras propiedades cuánticas como ingrediente esencial,
tales como metrología cuántica, radares cuánticos (que pueden detectar objetos invisibles para los
radares convencionales), quantum machine learning (aprendizaje automático cuántico), etc. Existen
varios grupos en el país, y también en el Depto. de Física de la UNLP, dedicados a la investigación
en información cuántica, computación cuántica y otros aspectos fundamentales de la mecánica
cuántica, tanto en forma teórica como experimental. Por otro lado, el apoyo que se le está dando a
estas investigaciones en otros países es actualmente enorme, habiéndose creado recientemente varios
institutos dedicados exclusivamente a las ciencias de la información cuántica
27
6. CONCLUSIONES:
28
REFERENTES BIBLIOGRAFICAS:
Levich, B. G., Vdovin, I. A., & Miamlin, V. A. (2022). Mecánica cuántica. Reverté.
de la Materia, C. INTRODUCCIÓN A LA MECÁNICA CUÁNTICA.
Segura, L. Z. (2017). De los bits a los qubits: computación cuántica. Investiga. TEC,
(30), 4-4.
Braña, J. P., Litterio, A., & Fernández, A. (2020). Inteligencia artificial y computación
cuántica en finanzas. In XXII Workshop de Investigadores en Ciencias de la
Computación (WICC 2020, El Calafate, Santa Cruz)..
29