MONOGRAFIA DE COMPUTACION CUANTICA Casiii

También podría gustarte

Está en la página 1de 29

wUNIVERSIDAD NACIONAL DEL CENTRO

DEL PERU
FACULTAD DE INGENERÍA ELÉCTRICA Y
ELECTRÓNICA

COMPUTACIÓN CUANTICA : FUNDAMENTOS


DESARROLOS Y PERSPECTIVAS
ALUMNO: Barrientos castillo Diego Fernando
DOCENTE: Mg. Ana H. León Ayala
MATERIA: Comprensión y redacción de textos

2023
INTRODUCCION:

2
INDICE:

Origen............................................................................................................................................................

Cronologia..........................................................................................................................................................

1. Fundamentos de la computacion cuantica..........................................................................................................

1.1. Principios de la mecanica cuantica.............................................................................................................

1.1.2. El principio de correspondencia ………………………………


1.2. Qubits y superposicion ..............................................................................................................................

1.3. Entrelazamiento cuantico ...........................................................................................................................


1.3.1.Entropia de entrelazamiento …………………………..
1.3.2.Entrelazamiento en QFT………………………………………………………..
1.3.3.Resultados de QFT……………………………………………………………

2. Algoritmos cuanticos..........................................................................................................................................

2.1. Algoritmo de Shor ......................................................................................................................................

2.2. Algoritmo de grover ...................................................................................................................................

3. Tecnologias cuanticas.........................................................................................................................................

3.1. Computadoras cuanticas actuales


3.1.1.Tipos de compuadoras..............................................................................................................................
3.1.1.1Analog Quantum……………………………………………………………………
3.1.1.2.Universal quantum

3.2. Criptografia cuantica...................................................................................................................................

4. Desafios y avances recientes .............................................................................................................................

4.1. Desafios Técnicos ......................................................................................................................................

4.2. Investigación y Aplicaciones emergentes ..................................................................................................


4.2.1. Lineas de investigación y desarrollo
4.2.2. Resultados obtenidos

5. Futuro de la Computación Cuantica...................................................................................................................

6. Conclusiones ................................................................................................................................................

7. Referencias Bibliograficas ...........................................................................................................................

3
ORIGEN:

A medida que evoluciona la tecnología , aumenta la escala de integración y caben más transistores en un espacio, así
se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza
el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar
correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben
circular. A esto se le llama efecto túnel. Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota.
Pero los electrones, que son partículas cuánticas y se comportan como ondas, una parte puede atravesar las paredes si
son demasiado finas y la señal pasa por canales donde no debería circular. Por ello, el chip deja de funcionar
correctamente.
En consecuencia, la computación digital tradicional, no tardaría en llegar a su límite, puesto que ya se han llegado a
escalas de cientos de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la
computación cuántica.
La idea de computación cuántica surge en 1981 cuando Paul Benioff expuso su teoría para aprovechar las leyes
cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto.
En la computación digital, un bit sólo puede tomar dos valores : 0 ó 1. En cambio, en la computación cuántica,
intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y
puede ser un 0 y un 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan
realizar varias operaciones a la vez, según el número de qubits.

El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si
teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En
cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la
superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas.
Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea
del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops
(billones de operaciones en punto flotantes por segundo) cuando actualmente las computadoras trabajan en el orden de
gigaflops (miles de millones de operaciones)

4
CRONOLOGIA:
Años 80
A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar
cálculos de naturaleza cuántica.

1981 – Paul Benioff


Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone
National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con
algunos principios de la mecánica cuántica .

1981-1982 Richard Feynman


El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio
Nobel en 1965 realizó una ponencia durante el "First Conference on the Physics of Computation" realizado en el
Instituto Tecnológico de Massachusets (EE.UU.) Su charla, bajo el título de "Simulating Physics With Computers"
proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza
algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico.

1985 – David Deutsch


Este físico israel í de la Universidad de Oxford, Inglaterra , describió el primer computador cuántico universal,
es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este
modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos.

Años 90
En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras
aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos.

1993 – Dan Simon


Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que
demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de
probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos
futuros (como el de Shor).

1993 – Charles Benett


Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una
nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.

5
1994-1995 Peter Shor
Este científico americano de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular
los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional.
Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo
sirvió para demostrar a una gran parte de la comunidad científica que observaba
científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de
investigación con un gran potencial. Además, un año más tarde, propuso
un sistema de corrección de errores en el cálculo cuántico.

1996 – Lov Grover


Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan
drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho
mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto
índice de acierto.

1997 – Primeros experimentos


En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos
aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces.
El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23
Km. Además se realiza el primer teletransporte cuántico de un fotón.

1998 – 1999 Primeros Qbit


Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través
de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante
ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California
(EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y
además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.

Año 2000 hasta ahora


2000 – Continúan los progresos
De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un
algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple
paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo años, científicos de Los
Álamos National Laboratory (EE.UU.) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un
resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits
de los computadores tradicionales.

2001 – El algoritmo de Shor ejecutado


IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador
cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el
resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos.

6
2005 – El primer Qbyte
El Instituto de "Quantum Optics and Quantum Information" en la universidad de Innsbruck (Austria) anunció que sus
científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.

2006 – Mejoras en el control del cuanto


Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar
un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de
Qbits empleados por los computadores.

2007 – D-Wave
La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit (Figura 4.2). Entre
las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y un algoritmo que
soluciona Sudokus. Todo ello a través de una interficie gráfica similar a la utilizada en los computadores actuales,
tratándose del primer acercamiento de la computación cuántica al mundo comercial y no tan científico.

2007 – Bus cuántico

En septiembre de este año, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de
Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de
superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado
como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser
transferido al siguiente dispositivo

7
CAPITULO 1 :

1) FUNDAMENTOS DE LA COMPUTACION CUANTICA:

1.1. Principios de la mecánica cuántica

8
1.1.2 Principios de la correspondencia
Es uno de los principios metodológicos fundamentales del desarrollo de la ciencia; su significado filosófico
estriba en expresar el proceso del movimiento del conocer que va de las verdades relativas a la verdad
absoluta, cada vez más plena. Fue formulado por primera vez durante el período del total desplome de los
conceptos de la física clásica (Bohr, 1913). Según el principio de correspondencia, cada vez que se produce
una quiebra de las concepciones científicas, las leyes fundamentales de la nueva teoría creada como
resultado de dicha quiebra, presentan siempre tales caracteres que en un caso extremo, si se da el adecuado
valor de cierto parámetro característico inserto en la nueva teoría, se transforman en leyes de la teoría vieja.
Por ejemplo, las leyes de la mecánica cuántica se transforman en leyes de la mecánica clásica cuando se
puede desdeñar la magnitud del cuanto de acción. La vigencia del principio de correspondencia puede
registrarse en la historia de la matemática, de la física y de otras ciencias. En ella se refleja la conexión,
sujeta a ley, entre las viejas teorías y las nuevas, derivadas de la unidad interna existente entre niveles de
materia cualitativamente distintos. Semejante unidad no sólo condiciona la integridad de la ciencia y de la
historia de la ciencia, sino, además, el inmenso papel heurístico del principio de correspondencia para
penetrar en una esfera de fenómenos cualitativamente nueva. La interpretación científica de dicho principio
permite descubrir la dialéctica del proceso de cognición, permite demostrar la inconsistencia
del relativismo.

1.2. Qubits y superposición cuántica:

Las computadoras que conocemos y utilizamos en nuestra vida diaria trabajan con unidades básicas
llamadas bits; cada una de estas puede tener el valor 0 o el valor 1 únicamente y dichos valores no pueden
ser representados simultáneamente, es decir, un bit en un momento dado solo puede representar

uno de los dos. Por su parte, las computadoras cuánticas trabajan con unidades llamadas qubits (bits
cuánticos), que pueden tomar el valor 0 o el valor 1, o cualquier combinación de esos valores de manera
simultánea; en otras palabras, pueden tener o representar más de un valor al mismo tiempo. Esto plan- tea
la posibilidad de procesar muchísima más información de la que sería posible con una computadora
convencional.

Los qubits, para retener información y así ser de utilidad, deben cumplir con dos propiedades muy
importantes llamadas superposición y entrelazado cuántico. La primera se refiere al hecho de que el qubit
puede tomar más de un valor al mismo tiempo, lo que ha- ría posible que con la misma cantidad de bits (o

9
de qubits en este caso) se almacene más información simultáneamente. Por ejemplo, en la actualidad una
computadora clásica con 3 bits puede representar ocho posibles estados o valores diferentes, pero solo uno
a la vez; mientras que la computadora cuántica podría representar los ocho estados o valores al mismo
tiempo, es decir, en lugar de tener solo uno de los posibles ocho valores, podría tener todos a la vez.

1.3. Entrelazamiento cuántico:


El entrelazado cuántico está relacionado con la propiedad cuántica según la cual una molécula (en este caso
un qubit) está íntima- mente entrelazada con otra, de tal forma que aún cuando estén separadas se pueden
afectar entre sí, sin importar la distancia que las se- pare. De esta manera es posible formar gru- pos de
qubits y manipularlos a la vez, como si fueran uno. Estas propiedades son precisa- mente las que le
permiten a una computado- ra cuántica manejar inmensas cantidades de información al mismo tiempo,
haciéndolas muy poderosas en lo que a procesamiento de información se refiere.

https://www.google.com/url?sa=i&url=https%3A%2F%2Fdimateria.com%2Ffisica%2Fentrelazamiento-cuantico&psig=AOvVaw1hRe

10
1.3.1.Entropia de entrelazamiento:

11
1.1.3. Resultados en QFT:

12
https://www.google.com/url?sa=i&url=https%3A%2F%2Fblogdetito.com%2F2014%2F02%2F10%2Ftermodin-mica-f-sica-cu-ntica-y-la-ley-de

13
CAPITULO 2 :

2) ALGORITMOS CUANTICOS:

14
2.1. Algoritmo de Shor

15
16
https://francis.naukas.com/files/2018/10/Dibujo20181031-shor-quantum-algorithm-with-five-qubits.pn

17
2.1. Algoritmo de Grover

CAPITULO 3:
3) TECNOLOGIAS CUÁNTICAS:

La tecnología cuántica es una clase de tecnología que funciona utilizando los principios de la
mecánica cuántica (la física de las partículas subatómicas), incluido el entrelazamiento cuántico y la
superposición cuántica.

Tal definición puede hacer que tu cabeza dé vueltas, pero la verdad es que no necesitas saber
exactamente qué es la tecnología cuántica para hacer uso de ella. Tu teléfono inteligente es un tipo de
tecnología cuántica: sus semiconductores utilizan la física cuántica para funcionar, pero ni tu ni el
https://learn.microsoft.com/es-es/azure/quantum/media/success-probability-grovers.png
ingeniero que lo diseñó necesitan conocer los entresijos de la mecánica cuántica.

La razón por la que estamos hablando de tecnología cuántica ahora, 50 años después de que se
convirtió en parte de nuestras vidas a través de la energía nuclear, es que las últimas proezas de la
ingeniería están aprovechando más el potencial de la mecánica cuántica. Ahora estamos empezando a
controlar el entrelazamiento cuántico y la superposición cuántica. Eso significa que la tecnología
cuántica promete mejoras para una amplia gama de dispositivos cotidianos, que incluyen:

 Sistemas de navegación y cronometraje más fiables


 Comunicaciones más seguras
 Imágenes de atención médica más precisas a través de la detección cuántica
 Informática más potente.

18
Todas estas aplicaciones podrían, hasta cierto punto, ser útiles dentro de uno o dos años. Pero es
difícil saber cuál será una evolución simple y cuál será verdaderamente disruptiva. Esa incertidumbre
brinda una oportunidad a las empresas proactivas, ya que la diferencia entre la evolución y la
revolución probablemente será la inversión temprana.

3.1.Compuradoras cuánticas en la actualidad:

En la actualidad, la computación cuántica aún se encuentra en desarrollo y, aunque hay varias


empresas que ya la están utilizando, aún se investiga cómo alcanzar un mayor nivel de estabilidad y
fiabilidad para que llegue a un estado pleno.
Aunque algunas empresas que desarrollan este tipo de tecnología presumen ya haber alcanzado la
supremacía cuántica (resolver problemas que una computadora clásica no podría o hacerlo en menos
tiempo),https://ichef.bbci.co.uk/news/640/cpsprodpb/4B99/production/_104335391_gettyimages-1012357142.jpg
se estima que su adopción a mayor escala sea visible en 5 o 10 años y buscan que esté
disponible a través de cloud computing

3.1.1. Tipos de computadoras cuánticas:

3.1.1.1. ● Quantum Annealer:


Este tipo de computadora puede simular interacciones cuánticas complejas. Su poder computacional
es alto, ya que contiene alrededor de 50 a 100 qubits.
Se aplica en las siguientes áreas: ciencia de materiales, problemas de optimización de alta
complejidad, química cuántica, entre otras.
3.1.1.2●Universal Quantum:
Contiene más de 100,000 qubits lo que hace que su poder computacional sea muy elevado y es hasta

ahora la computadora cuántica con mayor potencia.


Se puede usar para Machine Learning, criptografía, ciberseguridad, optimización de cadenas de
suministro, etcétera.
19
La aplicación de este tipo de computadoras en el ámbito empresarial puede generar un gran impacto.

3.2 Criptografía cuántica

Dos acontecimientos importantes cambiaron el curso de la criptografía, uno de ellos fue el estudio
que realizo Claude Shannon con la teoría de la información y la criptología, en esta define un marco
de trabajo y de matemáticas donde propone convertir las imágenes, los sonidos a dígitos binarios (0 y
1) y que sean transmitidas por cualquier medio de comunicación, reduciendo el ruido o corrigiéndolo,
de esta manera al llegar al destinatario se convertiría nuevamente los códigos binarios en la
información enviada, por estos y más contribuciones a Shanon se le considera el padre de las
comunicaciones digitales. En el campo de la criptografía, también realizo importantes aportes uno de
ellos es el documento “Communication Theory of Secrecy Systems en el año 1949, donde “establece
una base teórica para la Criptografía y para el criptoanálisis y define las estructuras matemáticas
básicas de los sistemas de seguridad”12. Con este nuevo documento de Shannon la criptología es
considerada como una de las ramas de las matemáticas y deja de estar rodeada de escepticismo y
misterio. El siguiente acontecimiento importante en la historia de la criptología fue la publicación de
un ensayo https://media.es.wired.com/photos/6324939aeca5c77cdd70ba05/16:9/w_2991,h_1682,c_limit/computadoras%20cuanticas-1241891416.jpg
realizado por Whitfield Diffie y Martin Hellman en el año 1976 que marca un antes y un
después de la clave pública, este ensayo lleva por nombre New Directions in Cryptography, en el que
proponen el cifrado asimétrico.
Este concepto de asimetría consiste básicamente en tener que el receptor tenía ahora dos claves, una
publica (Puede ser conocida por todo el mundo) y una privada, las dos claves son distintas, pero con
la ayuda de las matemáticas, el mensaje se cifra con la clave pública y solo se descifra con la clave
privada. La seguridad cambia radicalmente con el uso de estas dos claves, ya que, si se intentaba
descifrar el mensaje con la clave privada, el mensaje sería totalmente incomprensible. La distribución

de estas claves era segura ya que el emisor del mensaje difundía la clave pública y se la enviaba al

20
receptor. A continuación, un ejemplo del envió de un mensaje utilizando la criptografía simétrica

https://ethicalhackneox.wordpress.com/2015/09/29/criptografia-llaves-publicas-y-privadas-tarea-

Con estas bases realizadas por Diffie y Hellman, se desarrolló el sistema uno de los criptosistemas de
clave pública más utilizados en la actualidad el RSA, inventado en 1978 por Ronald Rivest, Adi
Shamir y Leonard Adleman, el criptosistema está basado en la factorización de enteros “Funciona de
la siguiente manera: se toman dos números primos grandes, p y q, y se calcula su producto n = pq; n
se denomina módulo. Elija un número e, menor que n y primo relativamente de (p-1) (q-1) y halle el
inverso de, modo (p-1) (q-1), que significa que de = 1 mod (p-1) (q-1); e y d se denominan el
exponente público y privado, respectivamente. La clave pública es el par (n, e) y la privada es d. Los

factores p y q deben mantenerse en secreto o ser destruidos.14 A continuación, un ejemplo del


funcionamiento del criptosistema RSA en la transmisión de un mensaje.

21
CAPITULO 4

4) DESAFIOS Y AVANCES RECIENTES

4.1. Desafíos técnicos:

Tomar las riendas del desafío cuántico Habida cuenta del crecimiento informático descripto y de su
capacidad de alterar varios campos de acción humana distintos, es de notar, que es muy probable que
resulten nuevas dificultades a resolver sobre viejos paradigmas de las ciencias jurídicas. Esto es,
encontrarse con situaciones conflictivas dignas de litigios, pero que nos encuentren con normas
anticuadas no pensadas para la naturaleza de dicho conflicto, mediante las cuales, las interpretaciones
que se puedan hacer podrían ser imprecisas o encontrarnos con zonas grises. Es por esto que
entiendo, es deber de un Estado incorporar a su agenda el seguimiento de dichos avances y reglar
conforme a los principios y garantías de su Constitución, los efectos jurídicos de innovaciones que
pudieran superar la imaginación -y por ende voluntad- del legislador al momento de sancionar las
distintas normas. Esta regulación, en principio sería un desafío ante una tecnología tan incipiente, de
la cual aún no tenemos claros todos los efectos que se pudieran producir. De todos modos, sería
posible -al menos en el corto plazo- ir delineando políticas de protección de datos acordes a los
estándares más exigentes de la actualidad, tales como El Reglamento General de Protección de Datos
de Europa8 (Reglamento (UE) 2016/679, 2016) o la Ley General de Protección de Datos de Brasil9
(Ley número 13.709/18). Teniendo en cuenta que nuestra normativa en esa materia data del año
2000, la ley numero 25.326 cuyo nombre es “Ley de Protección de Datos Personales”10 en base a su
antigüedad y los avances desarrollados en todo este tiempo en la materia, se puede inferir que muchas
de sus disposiciones no se encuentran a la orden del día y así mismo lo confirma la práctica, es por
ello que en el presente me encargo de tratar algunos de los supuestos que a mi entender urgen revisar,
porque en comparación con el Reglamento Europeo han quedado vetustos.

22
Es necesario entender que, con el paso del tiempo, surgen nuevos paradigmas de trabajo en el campo
de la computación e internet, que en un primer momento no se imaginaban o pensaban desarrollar- al
menos en el corto tiempo- y es por esto que conceptos claves como “datos genéticos” o” datos
biométricos” no supieron ser atendidos por nuestra ley. También es así con otros conceptos de
especial relevancia como “empresa”, “grupo empresarial”, “normas cooperativas vinculantes” o
“servicio de la sociedad de la información” que el Reglamento Europeo en 2018 se encargó
especialmente de tratar. Otra definición importante a atender es la de datos personales, en la cual la
ley argentina no hace ningún tipo de reflexión ni definición y hoy constituye un valor trascendente,
puesto que es muy grande la cantidad de datos que las personas suben tanto a sus redes sociales,
como a distintos blogs, o al registrarse en páginas de internet de todo tipo y es valioso definirlas e
identificarlas para poder tratarlas de un modo seguro y cuidarlas. Por su parte el Reglamento General
de Datos de Europa deja establecido que una persona se considerará identificable cuando su identidad
pueda “determinarse, directa o indirectamente, en particular mediante un identificador, como por
ejemplo un nombre, un número de identificación, datos de localización, un identificador en línea o
uno o varios elementos propios de la identidad física, fisiológica, genética, psíquica, económica,
cultural o social de dicha persona”. En relación al tratamiento de datos sensibles, también vale aclarar
que se encuentran incorporados los datos genéticos y los biométricos al Reglamento General de
Datos de Europa, y resultaría muy valioso tenerlo en cuenta para actualizar nuestra ley.
Puesto que a la hora de identificar a una persona física de manera univoca, resulta de inmenso valor,
por otra parte, el acceso a este tipo de innovaciones ya se encuentra de fácil acceso para el público
general, con lo cual las relaciones y usos que se le den requieren su reconocimiento jurídico para
poder velar desde el Estado por su buen uso. Es menester entender también las relaciones de sujetos
que se contemplan cuando hablamos de protección de datos, en ello la clasificación argentina es bien
simple los divide en:

• El titular de los datos


• El responsable de la base de datos
• El usuario de los datos

Simplemente se encarga de las personas cuyos datos son objeto de tratamiento, de quien los archiva
como responsable y de quien pueda realizar un tratamiento de dichos datos. En cambio, en el
Reglamento General de Datos de Europa nos encontramos con una clasificación más amplia, a saber:
• El interesado
• El responsable
• El Encargado
• El destinatario
• El tercero
• El representante

El interesado se trata simplemente de la figura que encontramos en nuestra Ley como “titular de
datos” y no ofrece ninguna distinción, así como también ocurre con “el responsable”. “El encargado”

23
debe decirse que es quien trate datos personales por cuenta del responsable de su tratamiento, en
tanto que “el destinatario” es aquel a quien se le comunican datos personales que pudieran ser o no de
un tercero, “el tercero” es aquella persona distinta del interesado, del responsable de tratarlos, de su
encargado y de las personas autorizadas para tratar los datos personales bajo autoridad del
responsable o encargado. Por último, el representante es quien representa al responsable o al
encargado en cuanto se trate de obligaciones impuestas por el Reglamento (ACD Por los derechos
civiles, res 6 julio 2020).11 Ante esto es inminente la necesidad de una reforma, mediante la cual se
pueda actualizar y por sobre todo preparar al sistema para transformaciones más profundas.
Reformas que ya se pueden prever que generaran nuevas figuras legales a contemplar, o en cuanto
menos profundizará esquemas de figuras que ya existen y se encuentran contempladas en la
normativa europea pero no en la nuestra, como muestran los casos vistos anteriormente. Sería de
esperar que, en cuanto antes se puedan preparar a nuestros cuerpos legales, más fácil ser interpretar o
encasillar las nuevas situaciones fácticas que se puedan suscitar, o mejor dicho existirá una mayor
facilidad para poder resolver los nuevos conflictos que de ellas se obtengan. Caso contrario, es muy
probable que se genere un vacío legal que ocasione en los operadores judiciales una incertidumbre
supina, ya que, lejos de referenciar y mostrar cómo debería resolver la autoridad, podría la ausencia
de especificidad aumentar el margen de discrecionalidad para resolver de los magistrados. Dicha
situación caería en la consecuencia de generar una nueva faz de inseguridad jurídica, lo cual sería
contraproducente para explorar y explotar el potencial de la tecnología cuántica en nuestro país. De
mas esta decir la importancia que posee que todo ciudadano tenga certezas, sobre los márgenes de
legalidad que poseen sus actos

4.2. Investigación y aplicaciones Emergentes

La conjunción de la Computación Cuántica (QC) y la Inteligencia Artificial (IA) ha abierto un nuevo


campo de investigación que resulta prometedor tanto en el ámbito académico como en la industria

24
[1], [2], [3], [11], [12]. Si bien gran parte de los trabajos al día de hoy se centran en estudiar
potenciales aplicaciones de la QC y se estima que su máxima capacidad se hará visible en los
próximos cinco años, ya se han realizado destacados avances en casos reales, en especial en el área
de Seguridad y en el tema que nos compete: Finanzas Cuantitativas, donde se han llevado a cabo
desarrollos vinculados con “Pricing de Derivados” y Optimización de 17 Portfolios (Simulaciones de
Monte Carlo) [4], [5], [6], [7], [8], [9], [10], [13]. En relación al híbrido propuesto en el presente
trabajo entre IA y QC ya se han logrado codificar circuitos cuánticos de algoritmos populares de
Machine Learning, como Vecinos Más Cercanos (KNN) y Redes Neuronales Artificiales (ANN),
aunque como mencionábamos este campo se encuentra actualmente en pleno desarrollo e
investigación académica. Por otro lado, el vínculo entre Procesamiento del Lenguaje Natural (NLP) y
QC es uno de los campos interdisciplinarios que más se está expandiendo, incluso, varios autores ya
han denominado a esta disciplina como “Quantum NLP”. Una de las aplicaciones más destacadas se
presenta en “Detección y Prevención de Fraudes”, como así también en el procesamiento de datos
alternativos [14], [15]. Finalmente, es importante mencionar, que la empresa IBM ha lanzado lo que
se denomina IBM Quantum Experience, un servicio en la nube y que brinda acceso libre a los
simuladores de computadoras cuánticas, lo cual sumado al framework open source Qiskit, el cual
permite programar computadoras cuánticas, brindan un entorno de trabajo eficiente e ideal para llevar
proyectos de investigación [9].

4.2.1. Lineas de investigación y desarrollo

El presente trabajo se enmarca en la investigación de aplicación de técnicas y algoritmos de minería


de datos y pretende dar un enfoque y soporte académico a toda la comunidad sea que esté relacionada
a la industria financiera o dentro del marco académico. En este estudio, en particular sentamos las
bases para codificar algoritmos de Machine Learning en computadoras cuánticas para la
administración de carteras de inversión y su relación con trading algorítmico.

4.2.2. Resultados obtenidos

Pregunta Problema:

La computación cuántica podría tener el potencial de acelerar y optimizar los algoritmos de Machine
Learning en general y aquellos relacionados con gestión de carteras de inversión y análisis de riesgo,
en particular.

Objetivo General:

Estudiar las posibles aplicaciones en el campo de las Finanzas y el Trading Algorítmico de la


Computación Cuántica en conjunto con la Inteligencia Artificial utilizando los simuladores de la

25
Plataforma Cloud de IBM-Q.
Objetivos Específicos:

a. Determinar los casos donde la aplicación de Computación Cuántica (QC) en la actualidad sea
eficiente y posible en el campo de las Finanzas.

b. Determinar los casos donde la aplicación de la Computación Cuántica (QC) no resulte posible o
eficiente en el campo de las Finanzas.

c. Estudiar y desarrollar algoritmos para Finanzas donde se utilizan circuitos cuánticos en conjunto
con algoritmos de Machine Learning.

d. Realizar un benchmark entre algoritmos de Machine Learning utilizando circuitos cuánticos y sin
utilizarlos.

e. Disponibilizar una interfaz escrita en Python y Qiskit donde diferentes usuarios puedan realizar
simulaciones dentro del entorno Cloud de IBM. f. Avanzar en la relación entre NLP y Computación
Cuántica (QC) utilizando los lexicones desarrollados en las etapas anteriores a este proyecto.

CAPITULO 5

5) FUTURO DE LA COMPUTACION CUÁNTICA:

Desde 2016 IBM ofrece la posibilidad de usar online una computadora cuántica, que primero
constaba de 5 qubits, y desde 2017 de 16 qubits. Y en diciembre de 2017 anuncia la disponibilidad de
un procesador cuántico de 20 qubits y un prototipo con 50 qubits. Notemos que la capacidad aumenta
exponencialmente con el número de qubits, duplicándose cada vez que se agrega un qubit. Por otro
lado, ya en 2007 la compañía canadiense D-Wave anunciaba un procesador cuántico con 28 qubits, y
en 2017 presentó uno con 2048 qubits. No obstante, a diferencia de los anteriores, estos son en
realidad “quantum annealers”, que sirven para ciertos problemas y simulaciones específicas, siendo
su eficiencia tema de controversias. En esta carrera, en marzo de 2018 Google también anunció un
procesador cuántico de 72 qubits. Más allá de sus limitaciones (deben funcionar a bajas temperaturas
y por el momento soportan tiempos de operación muy reducidos), estas primeras realizaciones
parecen indicar que una computadora cuántica eficiente con un número de qubits suficiente como
para alcanzar la denominada supremacía cuántica, puede ser una realidad en un futuro no muy lejano.
Cabe destacar además que una computadora cuántica resulta especialmente apta para simular
eficientemente otros sistemas cuánticos. Estos no admiten, en general, una simulación clásica
eficiente, ya que el número de parámetros necesarios para describirlos aumenta exponencialmente
26
con el número de componentes. Este uso, sugerido por el físico Richard Feynman ya en 1981, tiene
un gran potencial y abre grandes posibilidades en ciencias de materiales y química cuántica,
constituyendo uno de los principales objetivos de la computación cuántica. Luego del algoritmo de
Grover, se introdujeron también otros modelos de computación cuántica, entre ellos el DQC1, que a
diferencia de los algoritmos cuánticos anteriores, se basa expresamente en estados cuánticos no puros
(es decir, con ruido). Si bien no es universal, logra resolver eficientemente ciertos problemas para los
que no existe un algoritmo clásico polinomial. También fue introducido en 2012 el modelo de “boson
sampling” (muestreo bosónico), que permite determinar en forma eficiente una cierta distribución
que es clásicamente intratable (problema de categoría “sharp P” o #P en teoría de la complejidad),
requiriendo nuevamente menores recursos cuánticos. Estos modelos son en principio más fáciles de
implementar que una computadora cuántica universal. Finalmente, es importante destacar que el
desarrollo de la computación cuántica no se dio en forma aislada, sino en el marco de la nueva
revolución cuántica, surgida durante la última década del siglo XX, en la que se comenzó a develar el
potencial de la mecánica cuántica para nuevas formas de transmisión y procesamiento de la
información. En 1993 se introdujo la teleportación cuántica, la cual, a partir del entrelazamiento (una
característica fundamental de las correlaciones en sistemas cuánticos que no posee análogo clásico)
permite transferir el estado de un sistema cuántico a otro sistema remoto. Esto originó una nueva
forma de comunicación y convirtió al entrelazamiento, que hasta entonces era considerado como una
peculiaridad de la mecánica cuántica, en un recurso. La primera implementación física data ya de
1997, y en 2017 un equipo chino logró teletransportar el estado de polarización de fotones entre una
estación en el Tibet y un satélite en órbita, separados nada menos que por 1400 km, batiendo todos
los records anteriores. Asimismo, mientras que el algoritmo de Shor puede destruir la criptografía de
clave pública convencional basada en RSA, la mecánica cuántica posibilita al mismo tiempo una
criptografía cuántica, basada en lo que se denomina distribución cuántica de claves (QKD en inglés).
El primer protocolo QKD data ya de 1984, y en 1991 Artur Ekert desarrolla un protocolo QKD
basado en el entrelazamiento. Su característica principal puede resumirse (en forma simplificada) en
que no es posible “espiar” o “interceptar” la distribución sin destruirlas y sin que las partes lo
detecten. Existen varias compañías que ofrecen sistemas criptográficos cuánticos y también varias
redes de distribución cuántica de claves en uso. Al mismo tiempo, la creciente posibilidad de
existencia de una computadora cuántica generó ya la denominada criptografía post-cuántica,
enfocada en generar esquemas de criptografía clásica de clave pública que no pueden ser quebrados
por una computadora cuántica. Existen asimismo otros desarrollos cuánticos recientes radicalmente
nuevos que emplean el entrelazamiento y otras propiedades cuánticas como ingrediente esencial,
tales como metrología cuántica, radares cuánticos (que pueden detectar objetos invisibles para los
radares convencionales), quantum machine learning (aprendizaje automático cuántico), etc. Existen
varios grupos en el país, y también en el Depto. de Física de la UNLP, dedicados a la investigación
en información cuántica, computación cuántica y otros aspectos fundamentales de la mecánica
cuántica, tanto en forma teórica como experimental. Por otro lado, el apoyo que se le está dando a
estas investigaciones en otros países es actualmente enorme, habiéndose creado recientemente varios
institutos dedicados exclusivamente a las ciencias de la información cuántica

27
6. CONCLUSIONES:

28
REFERENTES BIBLIOGRAFICAS:

Levich, B. G., Vdovin, I. A., & Miamlin, V. A. (2022). Mecánica cuántica. Reverté.
de la Materia, C. INTRODUCCIÓN A LA MECÁNICA CUÁNTICA.

Segura, L. Z. (2017). De los bits a los qubits: computación cuántica. Investiga. TEC,
(30), 4-4.

Grau, M. A. P. Entrelazamiento cuántico y la paradoja de la información.

García de Andoin Bolaño, M. (2020). Algoritmos cuánticos y Quantum Ant Colony


Optimization.

Lara Perez, Martha Lucia (2019)Criptografia cuántica

Santiago Galán(2021),Nuevos desafíos para el sistema legal

Braña, J. P., Litterio, A., & Fernández, A. (2020). Inteligencia artificial y computación
cuántica en finanzas. In XXII Workshop de Investigadores en Ciencias de la
Computación (WICC 2020, El Calafate, Santa Cruz)..

Rossignoli, R. (2018). Computación Cuántica:¿ el futuro de los procesadores?. Bit &


Byte, 4.

29

También podría gustarte