Está en la página 1de 12

UNIVERSIDAD MAYOR, REAL Y PONTIFICIA

DE “SAN FRANCISCO XAVIER


DE CHUQUISACA”

FACULTAD DE TECNOLOGÍA

ARQUITECTURA DE COMPUTADORAS

TAREA Nª: 1
UNIVERSITARIA:
Porco Calizaya Neyda Anahy

CARRERA: Ingeniería Industrial

GRUPO: 3

FECHA DE ENTREGA: 28 / 04 / 2021

DOCENTE: Ing. Dávalos Caballero

Sucre – Bolivia
SIS 107

TAREA DE INVESTIGACIÓN
1. ¿QUÉ ES LA TETRALÉCTICA?
La Tetraléctica (o Cuadriléctica, Tetrametrológica, Cuadrimetrológica, Lógica
tetramétrica, Lógica cuadrimétrica) es una Lógica Especial Geométrica, mediante la cual
las ideas son expresadas multipartitivamente. Al estar esta rama de la filosofía
íntimamente vinculada al Espacio, depende de la Dimensionalidad de modo fundamental.
La tetraléctica monodimensional se confunde con la dialéctica, todo comienza a partir de
una Dualidad Contradictoria.
La tetraléctica planar o bidimensional es el Método lógico-geométrico que sirve para
expresar las ideas tetrapartivamente. Las Figuras Geométricas que sirven de armazón o
contención a cualquier idea tetrametrológica, adquieren automáticamente propiedades
elásticas (un Cuadrado se convierte en Rectángulo o en Circulo u otra forma intermedia)”
(Molina, 1992). En resumen, Molina establece que la tetralógica es una dialéctica basada
en una geometría poli-dimensional y céntrica, lo que implica que existe una relación
constante entre las estructuras complejas, y su interrelación permanente con la realidad.
Es decir, los individuos no son entes externos a los contextos socio-culturales sino todo
lo contrario; su existencia se basa en la contraposición y referenciación permanente con
los elementos culturales y sus hábitats.

2
SIS 107

Luego, a partir de este descubrimiento, el académico Javier Ruiz García pudo desarrollar
una concepción de las matemáticas en formato de tres dimensiones, que corresponde a
uno de los avances culturales más importantes de las últimas décadas, y el cual es muy
poco conocido:
- Este descubrimiento se constituyó en la clave para descifrar ‘El enigma de la
distribución de los números primos’, un problema que nuestra matemática
moderna no había podido resolver. Asimismo, un algoritmo basado en las formas
geométricas de La Puerta del Sol, diseñado por el Ingeniero Javier Ruiz García
fue perfectamente capaz de generar, distribuir y contar números primos,
encontrando así la solución a uno de los “siete problemas del milenio”, desafío
lanzado por el Instituto Matemático Clyde, de Estados Unidos. Este método
impuso además un récord mundial para contar y factorizar números primos al
mismo tiempo de 131.697 primos generados en 24 minutos, en un rango de
3’000,000 al 5’000,000 (es capaz de probar un primo de seis dígitos en 0,03
segundos). Fue además puesto a prueba hasta los 28 millones de primos sin
ningún inconveniente en la resolución, y demostrando que es capaz de probar y
organizar toda la secuencia de números primos hasta el infinito.”
Esta capacidad innovadora que realiza Javier Ruiz García en el ámbito matemático (una
operación hiper-dimensional del sistema matemático), en donde transforma la
matemática de una concepción lineal hacia una multidimensional, inspira el diseño y
metodología que propone esta propuesta, en donde la participación ciudadana, su
involucramiento y su deseo de “Hacer-Vivir” la ciudad se centra en un campo donde las
interrelaciones toman la forma de co-gobernanza en todos los planos de decisiones.
Entonces, ya no existen planos fijos o estáticos, sino que movibles y multidimensionales,
de acuerdo a lo que se quiera hacer y la realidad específica de cada contexto local.

1.1. TAWANTIN: De Ser Humanidad a Ser Tierra


Los Incas sintetizaron sus principios de vida en la palabra quechua TAWANTIN. Incluso
denominaron a su inmensa nación con el nombre de Tawantinsuyu, que significa Unión
(Ntin) de las Cuatro (Tawa) Partes o Regiones (Suyu). Vemos que el cuatro es el eje, lo
que nos lleva a preguntar: ¿es el cuatro un número casual o entraña algo fundamental?
La naturaleza está enmarcada dentro de una estructura en la que el cuatro es un punto
constitutivo referencial: los cuatro elementos, las cuatro direcciones, las cuatro
estaciones, los cuatro cuerpos (corporal, mental, emocional, espiritual), las cuatro
grandes masas (sol, luna, tierra, océano), las cuatro lunas (llena, menguante, nueva,
creciente), etc.

Los científicos modernos hablan de que el código de nuestro ADN está compuesto de
cuatro moléculas, llamadas bases: adenina (A), citosina (C), guanina (G) y timina (T).
Dicen que el 99% de nuestro cuerpo está compuesto de hidrógeno, oxígeno, carbono y
calcio. El cuerpo físico se va conformando a través de cuatro niveles: células, tejidos,
órganos, criaturas. Nuestros cerebros experimentan cuatro estados de conciencia: vigilia,
sueño, sueño sin sueño, y lucidez cuando estamos empezando a dormirnos o
despertarnos. Cuatro estados principales de conciencia ampliada: Alfa, Beta, Delta y
Teta. En el cosmos hay cuatro fuerzas fundamentales: el electromagnetismo, la energía
nuclear débil, la energía nuclear fuerte y la gravedad. Etc.

3
SIS 107

En la cruz de los opuestos (chakana) está simbolizada la naturaleza de la vida: arriba-


abajo, derecha-izquierda, lo que representa dos tipos de oposiciones en dos formas, lo
que da cuatro interrelaciones. La palabra "naturaleza" significa "aquello que nace", y todo
nacimiento en la naturaleza está configurado en la cruz complementaria, la que establece
nuestra existencia tanto en el tiempo como en el espacio.

2. ¿CUÁL ES LA INVESTIGACIÓN DE ALGORITMO DE GENERACIÓN EN


NÚMEROS PRIMOS BASADA EN LA TEREALECTICA ANDINA?
El enigma de la distribución de los números primos habría encontrado respuesta en un
sistema matemático denominado "Solución F6", basado en la teoría tetraléctica de la
ancestral cultura Tiwanaku, que data de los siglos VIII y XII d. de C.
Los científicos Xavier Amaru Ruiz, Jorge Emilio Molina y Jorge Miranda formularon la
resolución basados en la teoría tetraléctica, resultados de una investigación de 15 años
de duración acerca de la distribución de los números primos, un problema de la
matemática posmoderna que hasta ahora no había sido resuelto. que en su esencia, "es
la existencia de cuatro estados en nuestro entorno: lo cierto, lo falso, lo posiblemente
cierto y lo posiblemente falso".

Según Molina, el algoritmo diseñado es capaz de generar, distribuir y contar números


primos, trabajo que la más alta tecnología occidental no fue capaz de desarrollar.

4
SIS 107

Los números primos -según la aritmética básica- son aquellos divisibles entre sí mismos
y la unidad.
Comparados con los elementos de la tabla periódica de la química, los primos son
también bloques constructores. Unos "de todo número entero, porque podemos expresar
cualquier número entero en función de sus factores primos" y los otros, porque "son los
bloques constructores de toda materia física", dijo.
Los científicos basaron la resolución del enigma de la numerología prima en los diseños
de las ruinas de Tiwanaku (o Tiahuanaco), la milenaria cultura radicada a 71 kilómetros
de La Paz, en la formidable planicie andina.
Ruiz evocó que descubrió en 1993 un nuevo "cuadrado mágico" en la cara frontal del
icono central del monumento lítico denominado Puerta del Sol, y que años después
estableció, apoyado en la teoría tetraléctica, el algoritmo que permite la generación de los
números primos.
2.1. Solución F6
Desarrollada por estos científicos, es una matriz 7x7 (un cuadrado ajedrezal) en cuya
cruz central se encuentran los algoritmos.
La aplicación tetraléctica consiste, en tanto, en elevar un ápice desde el centro de este
cuadrado y convertirlo en una pirámide de cuatro lados. A partir de esto, y gracias al
algoritmo, se generan números primos por dos de las cuatro bandas
Los números primos son utilizados, por ejemplo, para la seguridad de giros de dinero, el
internet y toda acción que requiera una inscripción numérica.
La solución F6 para la distribución de los números primos es el nombre del texto
presentado ayer en el Museo Nacional de Arqueología y que fue desarrollado en el país
desde el año 1991.
El sistema permitiría solucionar uno de los problemas matemáticos más importantes del
milenio: la hipótesis de Riemann.
Según el equipo de investigadores, entre los que se encuentran Jorge Molina y Javier
Ruiz, la matemática andina demuestra ser un método más fácil que la convencional, ya
que su base está en la menor utilización de fórmulas y el uso de figuras geométricas.
Además, los profesionales presentaron un sistema numérico especial de los tiwanacotas,
basados en las formas geométricas. Con el sistema, los investigadores elaboraron un
contra-ejemplo a la famosa hipótesis de Riemann y la denominaron la prueba F6.
Los matemáticos bolivianos de La Paz Javier Ruiz García, Emilio Molina y Jorge Miranda
Luizaga se destacaron en un encuentro mundial de esta rama, tras haber presentado una
teoría científica con el titulo de "Solución F6 para números primos". Según el informe del
representante del Comité Pro La Paz, Windsor Rocha Herrera, la entidad cívica
congratuló a los representantes paceños que contribuyeron a la solución de la
problemática de los denominados "números primos". Explicó que conforme la teoría
matemática, sobre la organización, prueba y generación de los primos, éstos son
números que tienen la particularidad de ser únicamente divisibles entre el uno y por si
mismos (ejem. 7, 11, 13, 31, 101, 127, 1999, 8191, etc.) por lo que son considerados
"bloques constructores de todos los números N en general y se los emplea en códigos de
seguridad tanto en transacciones bancarias como en la Internet, criptografía, etc", según

5
SIS 107

indicó el matemático Javier Ruiz García. "A partir del 31 de marzo del presente, mediante
la función contadora de la solución F6 y el plano Tetraléctico, ya se puede organizar al
conjunto de los números primos, contarlos en dos grupos diferentes A y E, factorizarlos y
generarlos desde cualquier rango dado" explicó el experto.
2.2. Sus aplicaciones de la solución F6
Ya están siendo implementadas con el desarrollo del sistema operativo PUKINA el cual
será activado utilizando a los números primos generados secuencialmente por el sistema
génesis (aplicación F6 que genera los primos de forma automática) sistema que pretende
ser una inteligencia artificial de lógica tetralectica y de plataforma F6 un escaño superior
al sistema binario. Ruiz García explicó que el sistema PUKINA integrara los lenguajes
Aymará, Quechua, Guaraní y Español en una primera etapa y todos los lenguajes
originarios en una segunda etapa, conjuntamente con otros leguajes como el Ingles,
Alemán, Francés, Japonés, etc. Por lo tanto el sistema operativo de inteligencia artificial
PUKINA, será el primer sistema operativo latinoamericano que integre la lógica andina
Tetralectica con la matemática del sistema F6 y la secuenciación automática de los
números primos como su motor bioinformático
La aplicación práctica de este descubrimiento está orientada a la criptografía, y a la
seguridad en lo que se refiere a generación de códigos para transacciones a través de
Internet y tarjetas de crédito

3. INVESTIGAR SOBRE LA COMPUTACIÓN CUÁNTICA


3.1. Introducción
Hacia el inicio de la década de los 60, Rolf Landauer comenzó a preguntarse si las leyes
físicas imponían algunas limitaciones al proceso de cómputo. En concreto se interesó
sobre el origen del calor disipado por los ordenadores y se preguntó si este calor era algo
inherente a las leyes de la física o se debía a la falta de eficiencia de la tecnología
disponible.
El tema parece realmente interesante si recordamos que uno de los problemas de los
actuales ordenadores de alta velocidad es la eliminación del calor producido durante su
funcionamiento. Por otra parte, a medida que evoluciona la tecnología aumenta la escala
de integración y caben más transistores en el mismo espacio.
A lo largo de los años 90 la teoría empezó a plasmarse en la práctica, y aparecen los
primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras
máquinas capaces de realizar cálculos cuánticos. En 1993 Dan Simon demostraba la
ventaja que tendría un computador cuántico frente a uno tradicional al comparar el
modelo de probabilidad clásica con el modelo cuántico.
En 1998 nació la primera máquina de 2-qubits, que fue presentada en la Universidad de
Berkeley, California. Un año más tarde, en 1999, en los laboratorios de IBM se diseñó la
primera máquina de 3-qubits, que además fue capaz de ejecutar por primera vez el
algoritmo de búsqueda de Grover. En el año 2000, de nuevo en IBM, se diseña un
computador cuántico de 5- qubits capaz de ejecutar un algoritmo de búsqueda de orden
que forma parte del algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso
cuando en un computador tradicional requería numerosas iteraciones. Ese mismo año,

6
SIS 107

científicos de Los Álamos anunciaron el desarrollo de un computador cuántico de 7-


qubits.
En 2009 el equipo de investigadores estadounidense dirigido por Robert Schoelkopf, de
la Universidad de Yale, crea el primer procesador cuántico de estado sólido, mecanismo
que se asemeja y funciona de forma similar a un microprocesador convencional, aunque
con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones
aritméticas o búsquedas de datos. La comunicación en el dispositivo se realiza mediante
fotones que se desplazan sobre el bus cuántico.

Recreación de un posible procesador cuántico.


3.2 Origen de la computación cuántica
A principios del siglo XX, Planck y Einstein proponen que la luz no es una onda continua
(como las ondas de un estanque) sino que está dividida en pequeños paquetes o
cuantos. Esta idea, en apariencia simple, servía para resolver un problema llamado la
"catástrofe ultravioleta". Pero a lo largo de los años otros físicos fueron desarrollándola y
llegando a conclusiones sorprendentes sobre la materia, de las cuales a nosotros nos
interesarán dos: la superposición de estados y el entrelazamiento.
Para entender por qué nos interesan, hagamos un pequeño receso y pensemos en cómo
funciona un ordenador clásico. La unidad básica de información es el bit, que puede
tener dos estados posibles (1 ó 0) y con los que podemos realizar varias operaciones
lógicas (AND, NOT, OR). Juntando n bits podemos representar números y operar sobre
esos números, pero con limitaciones: sólo podemos representar hasta 2^n estados
distintos, y si queremos cambiar x bits tenemos que realizar al menos x operaciones
sobre ellos: no hay forma de cambiarlos mágicamente sin tocarlos.

Pues bien, la superposición y el entrelazamiento nos permiten reducir esas limitaciones:


con la superposición podemos almacenar muchos más que sólo 2^n estados con n bits
cuánticos (qubits), y el entrelazamiento mantiene fijas ciertas relaciones entre qubits de
tal forma que las operaciones en un qubit afectan forzostamente al resto.
La superposición, si bien parece una bendición a primera vista, también es un problema.
Tal y como demostraba Alexander Holevo en 1973, aunque tengamos muchos más
estados que podemos guardar en n qubits, en la práctica sólo podemos leer 2^n distintos.
El por qué lo veíamos en un artículo en Genbeta sobre las bases de la computación
cuántica: un qubit no vale sólo 1 ó 0 como un bit normal, sino que puede ser un 1 en un

7
SIS 107

80% y un 0 en un 20%. El problema es que cuando lo leemos sólo podemos obtener o 1


ó 0, y las probabilidades que tenía cada valor de salir se pierden porque al medirlo lo
hemos modificado.

Rendija Cuántica
Si tenemos una bola cuántica que oscila 100% en horizontal, siempre pasará por una
rendija horizontal. Si oscila en una superposición 50% horizontal y 50% en vertical, sólo
pasará algunas veces cuando justo entre con el ángulo adecuado y rebote con el interior
de la rendija, y al salir estará oscilando 100% horizontal.
Esa discrepancia entre la información que guardan los qubits y la que podemos leer
nosotros llevaba a Benioff y a Feynman a demostrar que un ordenador clásico no sería
capaz de simular un sistema cuántico sin una cantidad desproporcionada de recursos, y
a proponer modelos para un ordenador cuántico que sí fuese capaz de hacer esa
simulación.

Esos ordenadores cuánticos probablemente no serían más que una curiosidad científica
sin el segundo concepto, el entrelazamiento, que permite desarrollar dos algoritmos
bastante relevantes: el temple cuántico en 1989 y el algoritmo de Shor en 1994. El
primero permite encontrar valores mínimos de funciones, que así dicho no suena muy
interesante pero tiene aplicaciones en inteligencia artificial y aprendizaje automático, tal y
como comentamos en otro artículo. Por ejemplo, si conseguimos codificar la tasa de error
de una red neuronal como una función a la que podamos aplicar temple cuántico, ese
valor mínimo nos dirá cómo configurar la red neuronal para que sea lo más eficiente
posible.

El segundo algoritmo, el algoritmo de Shor, nos sirve para descomponer un número en


sus factores primos de manera mucho más eficiente que lo que podamos lograr en un
ordenador normal. Así dicho, de nuevo, no suena para nada interesante. Pero si os digo
que RSA, uno de los algoritmos más usados para proteger y cifrar datos en Internet, se
basa en que factorizar números es exponencialmente lento (añadir un bit a la clave
implica doblar el tiempo que se tarda en hacer un ataque por fuerza bruta), entonces la

8
SIS 107

cosa cambia. Un ordenador cuántico con suficientes qubits dejaría completamente


obsoletos muchos sistemas de cifrado.

3.3. Funcionamiento la computación cuántica

La transformación digital está generando cambios en el mundo más rápido que nunca.
Ya se ha señalado la alfabetización digital como un área donde el conocimiento abierto y
las oportunidades accesibles para aprender sobre la tecnología son urgentes para
abordar las brechas en el desarrollo social y económico. Aprender de los conceptos
claves de la era digital se volverá aún más crítico ante la inminente llegada de otra nueva
ola tecnológica capaz de transformar los modelos existentes con una velocidad y
potencia asombrosa: las tecnologías cuánticas.

3.4. ¿Qué son las tecnologías cuánticas?


A lo largo de la historia, el ser humano ha ido desarrollando tecnología a medida que ha
ido entendiendo el funcionamiento de la naturaleza a través de la ciencia. Entre los años
1900 y 1930, el estudio de algunos fenómenos físicos que aún no estaban bien
entendidos dio lugar a una nueva teoría física, la Mecánica Cuántica. Esta teoría describe
y explica el funcionamiento del mundo microscópico, hábitat natural de moléculas,
átomos o electrones. Gracias a ella no solo se ha conseguido explicar esos fenómenos,
sino que ha sido posible entender que la realidad subatómica funciona de forma
completamente contra intuitiva, casi mágica, y que en el mundo microscópico tienen lugar
sucesos que no ocurren en el mundo macroscópico.

Entre estas propiedades cuánticas se incluyen la superposición cuántica, el


entrelazamiento cuántico y el teletransporte cuántico.

La superposición cuántica describe cómo una partícula puede estar en diferentes estados
a la vez.
El entrelazamiento cuántico describe cómo dos partículas tan separadas como se desee
pueden estar correlacionadas de forma que, al interactuar con una, la otra se entera.
El teletransporte cuántico utiliza el entrelazamiento cuántico para enviar información de
un lugar a otro del espacio sin necesidad de viajar a través de él.
Las tecnologías cuánticas son basadas en estas propiedades cuánticas de la naturaleza
subatómica.

En este caso, hoy en día el entendimiento del mundo microscópico a través de la


Mecánica Cuántica nos permite inventar y diseñar tecnologías capaces de mejorar la vida
de las personas. Hay muchas y muy diferentes tecnologías que utilizan fenómenos
cuánticos y, algunas de ellas, como el láser o las imágenes por resonancia magnética

9
SIS 107

(IRM), llevan ya entre nosotros más de medio siglo. Sin embargo, actualmente estamos
presenciando una revolución tecnológica en áreas como la computación cuántica, la
información cuántica, la simulación cuántica, la óptica cuántica, la metrología cuántica,
los relojes cuánticos o los sensores cuánticos.
3.5. De los bits a qubits
La unidad fundamental de información en computación cuántica es el quantum bit o qubit.
Los qubits son, por definición, sistemas cuánticos de dos niveles -ahora veremos
ejemplos- que al igual que los bits pueden estar en el nivel bajo, que se corresponde con
un estado de baja excitación o energía definido como 0, o en el nivel alto, que se
corresponde con un estado de mayor excitación o definido como 1. Sin embargo, y aquí
radica la diferencia fundamental con la computación clásica, los qubits también pueden
estar en cualquiera de los infinitos estados intermedios entre el 0 y el 1, como por
ejemplo un estado que sea mitad 0 y mitad 1, o tres cuartos de 0 y un cuarto de 1. Este
fenómeno se conoce como superposición cuántica y es natural en sistemas cuánticos.

Algoritmos cuánticos, computación exponencialmente más poderosa y eficiente


El propósito de los computadores cuánticos es aprovechar estas propiedades cuánticas
de los qubits, como sistemas cuánticos que son, para poder correr algoritmos cuánticos
que utilizan la superposición y el entrelazamiento para ofrecer una capacidad de
procesamiento mucho mayor que los clásicos. Es importante indicar que el verdadero
cambio de paradigma no consiste en hacer lo mismo que hacen las computadoras
digitales o clásicas -las actuales-, pero más rápido, como de forma errónea se puede leer
en muchos artículos, sino que los algoritmos cuánticos permiten realizar ciertas
operaciones de una manera totalmente diferente que en muchos casos resulta ser más
eficiente -es decir, en mucho menos tiempo o utilizando muchos menos recursos
computacionales-.

Veamos un ejemplo concreto de lo que esto implica. Imaginemos que estamos en Bogotá
y queremos saber cuál es la mejor ruta para llegar a Lima de entre un millón de opciones
para llegar (N=1.000.000). De cara a poder utilizar computadoras para encontrar el
camino óptimo necesitamos digitalizar 1.000.000 opciones, lo que implica traducirlas a
lenguaje de bits para el computador clásico y a qubits para el computador cuántico.

10
SIS 107

Mientras que una computadora clásica necesitaría ir uno por uno analizando todos los
caminos hasta encontrar el deseado, una computadora cuántica se aprovecha del
proceso conocido como paralelismo cuántico que le permite considerar todos los caminos
a la vez. Esto implica que, si bien la computadora clásica necesita del orden de N/2
pasos o iteraciones, es decir, 500.000 intentos, la computadora cuántica encontrará la
ruta óptima tras solo √N operaciones sobre el registro, es decir, 1.000 intentos.

3.6. ¿Qué se ha conseguido hasta el momento con la computación cuántica?

Hasta ahora, la computación cuántica es un campo que no se ha aplicado mucho en el


mundo real. Para que nos hagamos una idea, con los veinte qubits del ordenador
cuántico comercial que anunciaba IBM, podríamos aplicar el algoritmo de factorización de
Shor sólo a números menores que 1048576, que como os podéis imaginar no es muy
impresionante.

Aun así, el campo tiene una evolución prometedora. En 1998 se presentó el primer
ordenador cuántico (sólo dos qubits, y necesitaba una máquina de resonancia magnética
nuclear para resolver un problema "de juguete" (el llamado problema de Deutsch-Jozsa).
En 2001 se ejecutó por primera vez el algorimo de Shor. Sólo 6 años más tarde, en 2007,
D-Wave presentaba su primer ordenador capaz de ejecutar el temple cuántico con 16
qubits. Este año, la misma compañía anunciaba un ordenador de temple cuántico de
2000 qubits. Por otra parte, los nuevos computadores de IBM, aunque con menos qubits,
son capaces de implementar algoritmos genéricos y no sólo el del temple cuántico. En
resumidas cuentas, parece que el empuje es fuerte y que la computación cuántica cada
vez será más aplicable a problemas reales.

¿Cuáles pueden ser esas aplicaciones? Como comentábamos antes, el algoritmo del
temple cuántico es muy apropiado para problemas de aprendizaje automático, lo cual

11
SIS 107

hace de los ordenadores que lo implementen sean extermadamente útiles, aunque lo


único que puedan hacer sea ejecutar ese único algoritmo. Si se pueden desarrollar
sistemas que, por ejemplo, sean capaces de transcribir conversaciones o identificar
objetos en imágenes y se puedan "traducir" para entrenarlos en ordenadores cuánticos,
los resultados podrían ser órdenes de magnitud mejores que los ya existentes. El mismo
algoritmo también se podría usar para encontrar soluciones a problemas en medicina o
química, como encontrar los métodos óptimos de tratamiento para un paciente o estudiar
las posibles estructuras de moléculas complejas.

Los ordenadores cuánticos genéricos, que aunque ahora mismo disponen de menos
qubits, sí podrían ejecutar más algoritmos. Por ejemplo, podrían usarse para romper gran
parte de de la criptografía usada ahora mismo como comentábamos antes (lo cual
explica por qué la NSA quería tener un ordenador cuántico). También servirían como
buscadores supperrápidos si se consigue implementar el algoritmo de búsqueda de
Grover, y para la física y química pueden ser muy útiles como simuladores eficientes de
sistemas cuánticos.

4. BIBLIOGRAFÍA

[1] https://atawallpa.webnode.es/l/tawantin-tetralectica-andina/ (Atawallpa Oviedo - Blog


Político; 11.09.2017)

[2] https://alcaldiaciudadana.wordpress.com/tetralectica/

[3] https://convergenciasposibles.blogspot.com/2011/09/senderos-en-el-territorio-de-la-
logica.html (Juan Carlos Casanovas; 17 de septiembre de 2011)

[4] https://enginyeriainformatica.cat/wp-content/uploads/2016/05/PRINCIPIOS-
FUNDAMENTALES-DE-COMPUTACI%C3%93N-CU%C3%81NTICA.pdf
(UNIVERSIDAD DE A CORUÑA 2O13 Texto de Apoyo. © Vicente Moret Bonillo
VICENTE MORET BONILLO Profesor Titular de Universidad. Senior Member, IEEE.
Departamento de Computación. Facultad de Informática.)

[5] https://blogs.iadb.org/conocimiento-abierto/es/como-funciona-la-computacion-
cuantica/ ( Marcos Allende López; May 31, 2019)

12

También podría gustarte