Está en la página 1de 28

EL BIT: | FACULTAD DE INGNIERIA

23-6-2015
EL BIT:
EL PRINCIPIO DE LA ERA DIGITAL

FACULTAD DE INGNIERIA
UPAO

 LEON REYES, BRAULIO


 MALDONADO CHUQUE, YOBERSON
 MELGAR DOMINGUEZ, DENNIS E.
 PILCON LAVADO, CARLOS J.
 TORRES CAMPOS, ESLEYTER

LENGUAJE I

 DRA. PAZ RAMOS, LILIANA

pág. 1
EL BIT: | FACULTAD DE INGNIERIA

EL BIT
EL PRINCIPIO DE LA ERA DIGITAL

pág. 2
EL BIT: | FACULTAD DE INGNIERIA

DEDICATORIA

Les dedicamos el presente trabajo a Dios, y a nuestros padres. A Dios quien

nos ha dado el conocimiento, las fuerzas, la salud física, el bienestar espiritual,

la guía e inspiración necesaria para poder esforzaros y continuar día a día;

luchando contra las adversidades y todas las dificultades que encontremos. A

nuestros padres por el apoyo moral y el económico, por brindarnos la

confianza y apoyo en cada momento, sin dudar ni un solo momento en nuestro

esfuerzo, ni en nuestra entrega, tampoco nuestra capacidad ni inteligencia; es

por ellos quienes somos las personas que nos mostramos ahora. Les

queremos mucho.

LOS AUTORES.

pág. 3
EL BIT: | FACULTAD DE INGNIERIA

AGRADECIMIENTO

El presente trabajo se logró gracias a Dios por darnos un día más de vida,

gracias a nuestros padres por su comprensión y ayuda en nuestra formación

personal, humana, espiritual y trascendente.

A la Dra. Liliana Paz Ramos por su valioso apoyo, orientación, comprensión y

paciencia en el desarrollo del presente trabajo. A nuestra querida universidad

privada Antenor Orrego, por el apoyo que nos brinda e incentiva a grandes

profesionales y personas de bien ante nuestra sociedad.

LOS AUTORES.

pág. 4
EL BIT: | FACULTAD DE INGNIERIA

PRESENTACION.

El presente trabajo se centra en el estudio de EL BIT, su definición,


estructura y su aplicación en la tecnología actual, conoceremos su historia y
como cambio al mundo; trayendo a la era digital consigo. En este sentido, es
relevante destacar dos cuestiones. Por un lado, la importancia de la investigación
de sistema binario. Por otro lado las perspectivas que tenemos sobre la evolución
del bit, aplicando la tecnología moderna y física cuántica, para generar súper
computadoras y así lograr un dominio absoluto sobre el procesamiento de
información. A lo largo de la electrónica e informática se puede encontrar una
gran variedad de trabajos que han aportado información acerca de las
aplicaciones y definiciones de este concepto. Sin embargo, no es posible
redactar este trabajo sin tener claro los conceptos básicos de electrónica e
informática. Por ello, el presente trabajo pretende contribuir en el conocimiento
de los conceptos que cambiaron al mundo y facilitaron la globalización,
revolucionando la era de la información, y comunicación, no es difícil entender
que la unidad mínima de información es la base del conocimiento y aplicación de
todos los dispositivos electrónicos que utilizamos ya se un celular, una
calculadora o el ordenador. Con el fin de conseguir este objetivo, el presente
trabajo se ha estructurado en cuatro capítulos además de los apéndices y la
bibliografía. En el capítulo I, se presenta, a modo de introducción general, un
breve recorrido referente e histórico sobre el tema. En el segundo apartado,
tenemos las generalidades, definición, historia y además hablaremos
ampliamente sobre el sistema binario. En el capítulo III nos centraremos en las
aplicaciones e importancia del bit en nuestras vidas y nos explayaremos
conociendo sobre las perspectivas de un futuro inmediato; conociendo al bit
cuántico y como cambiara aún más el mundo, haciendo parecer que la ciencia
ficción ya no tiene nada de ficción. Y finalmente el capítulo IV presentaremos
nuestras conclusiones sobre este trabajo, el cual hemos realizado con esmero
para su agrado.

pág. 5
EL BIT: | FACULTAD DE INGNIERIA

INDICE DE TABLA.

pág. 6
EL BIT: | FACULTAD DE INGNIERIA

CAPITULO I
1. INTRODUCCIÓN

La humanidad ha evolucionado a través de la historia, las revoluciones


tecnológicas e industriales han desempeñado un papel crucial influyendo en
el desarrollo de la sociedad y de sus individuos. En el siglo XIX, la Revolución
Industrial marcó el devenir del hombre entendido como entidad social y
cultural. En el siglo XX la llegada de la era digital y, con ella, las nuevas
tecnologías, ha generado un crecimiento tecnológico sin precedentes,
motivando que en determinados ámbitos se hable de una nueva revolución
Industrial. Esta era tecnológica no sólo ha favorecido una mejora en la calidad
de los servicios, sino un aumento espectacular en la diversidad de los
mismos. Así, la implementación de estas nuevas tecnologías se está
manifestando sobre lo que se ha llamado sociedad industrial, dando lugar a
lo que actualmente conocemos como sociedad de la información o del
conocimiento.

Lev Manovich va más allá otorgando a esta revolución mediática una mayor
intensidad y envergadura, capaz de desplazar el universo cultural de una
sociedad hacia formas de producción, distribución y comunicación
mediatizadas por el ordenador. Esta migración al digital que Negroponte
considera como “un proceso irrevocable e imparable” otorga a las tecnologías
un papel transformador y revolucionario en todos los niveles, permitiendo la
multiplicación de las posibilidades comunicativas con flujos de datos hasta
ahora inimaginables. Se logra transmitir más información en los mismos
canales, permitiendo la especialización de contenidos y, por tanto, la
fragmentación de la audiencia y la definición de un perfil de usuario/receptor
más activo, demandante de contenidos adecuados a sus necesidades.
(Jódar, 2014)

Es decir se puede hablar incluso de una evolución en cada uno de los


aspectos de la sociedad que vivimos actualmente, teniendo mayor notoriedad
la percepción de las relaciones interpersonales, no solo eso pues también a
esta revolución le atribuimos el cambio en la percepción de nuestro alredor
como espacio, mundo y comunidad, es así como de esta premisa nos damos
cuenta de la percepción de proximidad y limites que tenía el ser humano una
década atrás no es la misma en estos días, puesto que ahora todo está
mucho más cerca de cada persona de lo que se habría pensado en aquellas
épocas, esto gracias a los grandes avances en cada proceso en el que el ser
humano se desenvuelve y que interactúa con las nuevas tecnologías y
avances informáticos.

Es tanta esta extensión que parece algo irreal pensar que todo partió de la
premisa de todo principio digital que se conoce, “El sistema binario” y siendo
aún más explícitos “El bit”.

pág. 7
EL BIT: | FACULTAD DE INGNIERIA

CAPITULO II
GENERALIDADES.
2. DEFINICIÓN.
El Bit es una de las connotaciones más importantes en la electrónica digital
es por eso que debemos definirlo precisamente. Según TOOCY, WIDMER Y
MOOS (2007:12) “En el sistema binario es muy común que el termino dígito
binario se abrevie con el termino bit” los autores nos muestran el bit solo como
la abreviación de dos palabras. Mientras, ZAMBRANO (2014:1) “Un bit (binary
digit: - dígito binario) es la unidad de información más pequeña. Un bit sólo puede
tener uno de dos valores: encendido o apagado. También se pueden considerar
estos valores como sí o no, cero o uno, blanco o negro, o casi cualquier otra cosa
que se le ocurra, que sea dicotómica por supuesto”.
Nosotros definimos el bit como una abreviación del digito binario,
considerando que un digito binario solo puede tener dos valores 1 o 0. Además
como es una unidad mínima de información la cual se puede procesar y
acumular, así podemos controlar tantos bits como sea posible y después
aplicarlo, generando toda la tecnología digital de nuestra era.
3. HISTORIA.
En 1936 John Atanasoff invento una calculadora analógica para el análisis de
la geometría de superficies, la tolerancia mecánica requerida para conseguir una
buena exactitud le llevo a considerar un diseño digital.
La atanasoff Berry Computer (ABC) fue concedida por el profesor partiendo de
una idea feliz durante el invierno 1937–1938.
La idea le surgió en una taberna donde apunto los principios de su computado.
Estos principios eran cuatro: uso de la electrónica y la electricidad empleo de
números binarios, uso de condensadores como elementos de memoria y calculo
directo de operaciones lógicas. Para el desarrollo del ingenio.
Atanasoff pensó en contar con la ayuda de un alumno graduado. Pregunto a su
colega Harold Anderson, y este le recomendó a Clifford Berry con una beca de
650 dólares en septiembre de 1939, el ABC conto con un prototipo, era el mejor
que se había hecho hasta el momento. En noviembre de ese mismo año este
primer prototipo sumaba o restaba dos registros de 25 bits usando un bit de
acarreo y es el primer computador electrónico digital conocido.
Los puntos claves que definían el ABC eran un sistema numérico binario y el uso
de la lógica boolena para resolver sistemas de hasta 29 ecuaciones lineales. El
ABC carecía de unidad central de proceso CPU, pero estaba diseñado como una
maquina electrónica y usaba válvulas de vacío para conseguir una rápida
velocidad de proceso. También utilizaba una memoria regenerativa a base de
condensadores diferenciada del resto de la arquitectura, un sistema aun usado
hoy en las memorias DRAM.

pág. 8
EL BIT: | FACULTAD DE INGNIERIA

3.1 GENERACIÓN BIT: “UNA HISTORIA DE LA INFORMACIÓN”

Expresa: Claude Shannon


“los mensajes no siempre tienen sentido, y que lo tengan o no son aspectos
semánticos de la comunicación... irrelevantes para el problema de ingeniería.
Al desligar el mensaje del sentido, Shannon sugería que lo importante de la
información era el hecho de cómo se reproducía en un punto un mensaje
enviado desde otro punto; daba lo mismo que la información fuera "una
secuencia de números al azar o una señal de televisión”
Según: Gleick
“La teoría de la información nació a mediados del siglo XX de la unión de la
ingeniería eléctrica con las matemáticas y la computación, pero hoy hasta la
biología se ha convertido en una ciencia de la información, un tema de
mensajes, instrucciones y códigos... Genes encapsulan información y permiten
procedimientos para leerla y escribirla. El cuerpo mismo es un procesador de
información"
Según: Charles Babbage y Ada Byron
“dieron los primeros pasos para la invención de la computadora. También sabe
cómo dar relevancia y contexto a datos no muy conocidos: aprendemos, por
ejemplo, que el primer diccionario es de 1604 y lo hizo Robert Cawdrey su
Tabla Alfabética es descrita como un hito en la historia de la información”

En 1948, Bell Laboratorios anunció la creación del bit, una unidad para medir la
información. Su inventor tenía 32 años y se llamaba Claude Shannon. En "A
Mathematical Theory of Communication", un ensayo de ochenta páginas
publicado en las páginas de la revista de Bell, Shannon desarrolló los principios
de una teoría de la información que va adquiriendo cada vez más importancia.
El nombre de Shannon no es el de un inventor icónico; sin embargo, The
Information: A History, a Theory, a Flood, el nuevo libro de James Gleick, lo
convertirá en uno.

Una de las mayores virtudes de Gleick consiste en unir conceptos


aparentemente dispares para mostrar cuán interconectados están. Su libro es
una ambiciosa y brillante historia de la información que se atreve a tocar todas
las ramas del conocimiento; la información, después de todo, es "el principio
vital" de nuestro mundo. La teoría de la información nació a mediados del siglo
XX de la unión de la ingeniería eléctrica con las matemáticas y la computación,
pero hoy hasta la biología se ha convertido en una "ciencia de la información,
un tema de mensajes, instrucciones y códigos... Genes encapsulan información
y permiten procedimientos para leerla y escribirla. El cuerpo mismo es un
procesador de información". Así, Gleick se permite una conclusión audaz: "a la
larga, la historia es la historia de la información tomando conciencia de sí
misma".

pág. 9
EL BIT: | FACULTAD DE INGNIERIA

El subtítulo del libro menciona tres temas. En las secciones de historia, leemos
acerca de las diversas tecnologías de la información desarrolladas por los
seres humanos, desde los tambores africanos hasta el alfabeto, las
matemáticas y el código morse. Gleick, autor de biografías clásicas de Newton
y Feynman, es un maestro a la hora de anclar datos en torno a un personaje:
aquí brillan Charles Babbage y Ada Byron, que dieron los primeros pasos para
la invención de la computadora. También sabe cómo dar relevancia y contexto
a datos no muy conocidos: aprendemos, por ejemplo, que el primer diccionario
es de 1604 y lo hizo Robert Cawdrey (su Tabla Alfabética es descrita como "un
hito en la historia de la información").

En las secciones de teoría aparece el personaje central del libro, Claude


Shannon. Cuando todos pensaban que el problema clave de la comunicación
tenía que ver con hacerse entender, dar sentido a lo que se comunicaba,
Shannon tuvo una idea brillante y contraria a la intuición: según él, los
mensajes no siempre tienen sentido, y que lo tengan o no son "aspectos
semánticos de la comunicación... irrelevantes para el problema de ingeniería".
Al desligar el mensaje del sentido, Shannon sugería que lo importante de la
información era el hecho de cómo se reproducía en un punto un mensaje
enviado desde otro punto; daba lo mismo que la información fuera "una
secuencia de números al azar o una señal de televisión o información para un
misil guiado", el hecho era que el proceso era estadístico, podían ocurrir
errores gracias a procesos entrópicos, los "mensajes se generaban con una
variedad de probabilidades".

Aunque científicos importantes como Norberto Wiener no estaban a gusto con la


idea de una información desprovista de sentido, las ideas de Shannon fueron
tomando las diferentes ciencias en la segunda mitad del siglo XX. Gracias a su
uso del error y la entropía, la teoría de la información de Shannon cambió el
curso de la física teórica, la psicología y la biología.

Hoy vivimos en el tiempo de la Inundación. Gleick convierte en padrino de estas


secciones a Borges y su Biblioteca de Babel. Todos nosotros nos hemos vuelto
bibliotecarios de esta gran Babel de información muchas veces desprovista de
sentido. Eliot hablaba de la sabiduría perdida con el conocimiento, y del
conocimiento perdido con la información. Gleick sabe que el principal desafío del
siglo XXI es hacer que el sentido vuelva a conectarse a la información, y piensa
que nosotros, "criaturas de la información", sabremos encontrar el sentido entre
tanta "cacofonía e incoherencia". Este optimismo suena raro en un libro que tiene
como personaje central precisamente a alguien que descubrió que lo importante
de la información no era el sentido.

pág. 10
EL BIT: | FACULTAD DE INGNIERIA

4. SISTEMA BINARIO

4.1. DEFINICION:
SEGÚN MARTÍN, TOLEDO Y CERVERON (1995:139) “En el sistema binario
de numeración “b” es 2, y se necesita tan solo un alfabeto de dos elementos
para representar cualquier número:{0; 1}.”
Los elementos de este alfabeto se denominan cifras binarias o bits. En la
tabla se muestra los números binarios que se pueden tomar con 3 bits, que
corresponde a los decimales de 0 al7.
Tabla: Números binarios de 0 al 7
Binarios 000 001 010 011 100 101 110 111
Decimal 0 1 2 3 4 5 6 7

SEGÚN “(TOCCI. WIDMER, MOSS (2007:10) “El sistema binario


desafortunadamente, el sistema numérico decimal no se presta para una
implementación conveniente en los sistemas digitales. Por ejemplo, es muy
difícil diseñar equipo electrónico de manera que pueda trabajar con 10 niveles
de voltaje distintos (cada uno representando un carácter decimal, del 0 al 9).
Por otro lado, es muy sencillo diseñar circuitos electrónicos simples y precisos
que operen solo con 2 niveles de voltaje. Por esta razón casi cualquier
sistema digital utiliza el sistema binario (base 2) como el sistema numérico
básico de sus operaciones”.
Frecuentemente se utiliza otros sistemas numéricos para interpretar o
representar cantidades binarias, para ayudar a las personas que trabajan con
estos sistemas digitales y los utilizan. En el sistema binario solo hay dos
símbolos o posibles valores de dígitos: 0 y1. Aun así este sistema de base 2
puede usarse para representar en decimal o en otro sistema numérico. Sin
embargo, se requería de un mayor número de dígitos binarios para expresar
una determinada cantidad.
4.2 TRANSFORMACION BASE BINARIO Y DECIMAL:
Para transformar un número binario a decimal, basta tener en cuenta las
expresiones (3, 2) y (3, 3), en las que b = 2
Ejemplos1:
Transformar a decimal lo siguientes números binarios:
110100; 0.10100; 10100.00
5 4 2 5 4 2
110100)2 = (1 * 2 ) + (1*2 ) + (1*2 ) = 2 + 2 + 2 = 32 + 16 +4 = 52)10
-1 -3
0.10100)2 = 2 + 2 = (1/2) + (1/8) = 0.625)10

pág. 11
EL BIT: | FACULTAD DE INGNIERIA

4 2 -3
10100.001)2 = 2 + 2 + 2 = 16+4+ (1/8) = 20125)10

Observar el Ejemplo 1 se deduce que se puede transformar de binario a


decimal sencillamente sumando los pesos de las posiciones en las que hay
un 1, como se pone de manifiesto en Ejemplo 2.
1001.001 1 0 0 1 0 0 1 = 8 + 1 + 1/8 = 9125 )10
)pesos
2 -> 8 4 2 1 1/2 1/4 1/8
1001101 1 0 0 1 1 0 1 = 64 + 8 + 4 + 1 = 77 )
)pesos
2 -> 64 32 16 8 4 2 1 10

Ejemplos 2:
Transformar a decimal los números: 1001.001)2 y 1001101)2
La parte entera del nuevo número (binario) se obtiene dividiendo la parte
entera del número decimal por la base, 2, (sin obtener decimales en el
cociente) de partida, y de los cocientes que sucesivamente se vayan
obteniendo. Los residuos de estas divisiones y el último cociente (que serán
siempre menores que la base, esto es, 1 o 0), en orden inverso al que han
sido obtenidos, son las cifras binarias.

Ejemplo 3: Pasar a binario el decimal 26:


26 2 26)10 = 11010)2
0 13 2
1 6 2
0 3 2
1 1
La parte fraccionaria del número binario se obtiene multiplicando por 2
sucesivamente la parte fraccionaria del número decimal de partida y las
partes fraccionarias que se van obteniendo en los productos sucesivos. El
número binario se forma con las partes enteras (que serán ceros o unos) de
los productos obtenidos, como se hace en el siguiente ejemplo.

Ejemplo 4:
Para pasar a binario el decimal 26.1875 separamos la parte fraccionaria
0.1875 y la parte entera: 26 (ya transformada en el Ejemplo 3).

pág. 12
EL BIT: | FACULTAD DE INGNIERIA

0.1875 0.3750 0.7500 0.5000


*2 *2 *2 *2
0.3750 0.7500 1.5000 1.0000

Por tanto, habiéndonos detenido cuando la parte decimal es nula, el número


decimal 26.1875 en binario es:
26.1875)10 = 11010.0011)2
NOTA: un número real no entero presentará siempre cifras después del punto
decimal, pudiendo ser necesario un número finito o infinito de éstas,
dependiendo de la base en que se represente; por ejemplo el número 1.6)10
representado en binario sería 1.100110011001...)2, requiriendo infinitas cifras
para ser exacto, como por otra parte ocurre con muchos números representados
en decimal.

4.3 CODIGOS INTERMEDIOS:


Como acabamos de comprobar, el código binario produce números con
muchas cifras, y para evitarlo utilizamos códigos intermedios que son bases
mayores, que no se alejen de la binaria. Estos se fundamentan en la facilidad
de transformar un número en base 2, a otra base que sea una potencia de 2
(22=4; 23=8; 24=16, etc.), y viceversa. Usualmente se utilizan como códigos
intermedios los sistemas de numeración en base 8 (u octal) y en base 16 (o
hexadecimal).
4.3.1 BASE OCTAL:
Un número octal puede pasarse a binario aplicando los algoritmos ya
vistos en
No obstante, al ser b=8=23, el proceso es más simple puesto que, como
puede verse

n525 + n424 + n323 + n222 + n121 + n020 + n-12-1 + n-22-2 + n-32-3 =


(n522 + n421 + n320)*23 + (n222 + n121 + n020)*20 + (n-122 + n-221 + n-320)* 2-3 =
(m1)*81 + (m0)* 80 + (m-1)*8-1

Cada 3 símbolos binarios (3 bits) se agrupan para formar una cifra de la


representación en octal, por tanto en general puede hacerse la
conversión fácilmente, de la forma siguiente:
Para transformar un número binario a octal se forman grupos de tres cifras
binarias a partir del punto decimal hacia la izquierda y hacia la derecha
(añadiendo ceros no significativos cuando sea necesario para completar
grupos de 3). Posteriormente se efectúa directamente la conversión a
octal de cada grupo individual de 3 cifras, y basta con memorizar la Tabla
4.1 para poder realizar rápidamente la conversión.

pág. 13
EL BIT: | FACULTAD DE INGNIERIA

Así por ejemplo:

10001101100.1101)2 = 010 100 101 100 . 110 100

2 1 5 4 . 6 4 = 2154.64)8
De octal a binario se pasa sin más que convertir individualmente a binario
(tres bits) cada cifr5a octal, manteniendo el orden del número original:
Por ejemplo:

537.24)8 = 5 3 7 . 2 4

101 011 111 . 010 100 = 101011111.0101)2

Para transformar un número de octal a decimal se aplica la expresión (3.3)


con b=8.
Para transformar un número decimal a octal se produce de forma análoga
a como se hizo para pasar e decimal a binario dividiendo o multiplicando
por 8 en un lugar de por 2.
Así se puede comprobar que:

1367.25)8 =759.328125)10 o que 760.33)10 = 1370.2507)8

4.3.2 BASE HEXADECIMAL:


Para representar un numero en base hexadecimal (esto es, b = 16) es necesario
disponer de un alfabeto de 16 símbolos.

{0; 1; 2; 3; 4; 5; 6; 7; 8; 9; A, B; C; D; E; F}

HEXADECIMAL 0 1 2 3 4 5 6 7 8 9 A B C D E F

DECIMAL 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

BINARIO 0000 0001 0010 0011 0100 0101 0110 0111 100 1001 1010 1011 1100 1101 1110 111

Al ser b = 16 = 24, de mismo modo similar al caso octal, cada símbolo


hexadecimal se corresponde con 4 símbolos binarios (4 bits) y las conversiones
a binario se realizan: agrupando o expandiendo en grupos de 4 bits. Se pueden
comprobar las transformaciones siguientes:

10111011111.1011011)2 = 0101 1101 1111 . 1011 0110

5 D F . B 6 pág. 14 H
5DF.B6)
EL BIT: | FACULTAD DE INGNIERIA

1A7.C4) H = 1 A 7 . C 4

0001 1010 0111 . 1100 0100 = 110100111.110001) 2

De la mima forma que manualmente es muy fácil convertir números binarios a


hexadecimal, y viceversa, también resulta sencillo efectuar esta operación o por
programa, por lo que a veces la computadora utiliza este tipo notación
intermedias como código interno o de entrada / salida, y también para visualizar
el contenido de la memoria o de los registro.
Para transformar:
Un numero de hexadecimal a decimal se aplica la expresión (2.3) con b = 16.
Para pasar un número.
Para usar un número de decimal a hexadecimal se hace de forma análoga a los
casos binarios y octal:
La parte entera se divide por 16, así como los cocientes enteros sucesivos.
La parte fraccionaria se multiplica por 16, así como las partes fraccionarias de
los productos sucesivos.

Así se puede comprobar que:

12A5.7C) H = 4773.484375)10 o que 16237.25)10 = 3F6D.4) H

4.4 OPERACIONES ARITMÉTICAS Y LOGICAS:


El procesamiento la información incluye realizar una serie de operaciones y las
particularidades de las mismas en su realización por el computador son de los
próximos aparatos.
4.5 OPERACIONES ARITMÉTICAS CON NÚMEROS BINARIOS:
Las operaciones aritméticas básicas (suma, resta, multiplicación, división) en el
sistemas binario se realizan en forma análoga ala decimal aunque. Por la
sencillez de su sistema de representación, las tablas son realmente simples.

pág. 15
EL BIT: | FACULTAD DE INGNIERIA
Tabla: operaciones básicas en binario

Suma aritmética Resta aritmética Producto


0+0=0 0–0=0 0*0=0
0+1=1 0 – 1 = 1 y debo 1 (*) 0*1=0
1+0=1 1–0=1 1*0=0
1 + 1 = 0 y se llevó 1 (*) 1–1=0 1*1=1

(*) Llamado normalmente acarreo:


En binario 1 + 1 = 10 (es 0 y me llevo 1).
Igual que el decimal 6 + 6 =12 (es 2 y me llevo 1).
4.6 VALORES BOLÉANOS Y OPERACIONES LÓGICAS:
Un digito binario, además de representar una cifra en base 2, también puede
interpretarse como un valor booleano o dato lógico (en honor a George Boole),
entendiendo como tal una cantidad que solamente puede tener dos estados
(verdadero / falso, SI / NO, 1 / 0, etc…) y por tanto con capacidad para modelar
el comportamiento de un computador. Así, además de las operaciones
aritméticas con valores binarios, se puede llevar a cabo operaciones booleanas
o lógicas en las que estos valores se consideran señales generadas por
conmutadores. Las operaciones booleanas más importantes son:
OR lógico (también denominado unión, suma lógica (+) o función O).
AND lógico (también llamado intersección, producto lógico (* ) o función Y.
La complementación (-) (o inversión, negación, o función NOT o NO)
Nótese que las dos primeras son operaciones de dos operandos o binarios
mientras que la complementación es unaria. Estas operaciones se rigen según
las tablas.

Tabla: Operaciones Lógicas

OR AND NOT
0+0=0 0*0=0 0 = 1-
0+1=1 0*1=0 1 = 0-
1+0=1 1 * 0 =0
1 +1 = 1 1*1=1

Como puede observarse, el AND y OR lógicos se corresponden parcialmente


con el producto y suma binarios, y lo más significativo, es la posibilidad
de implementar estas operaciones lógicas, y por tanto las aritméticas binarias,
en forma de circuitos.

pág. 16
EL BIT: | FACULTAD DE INGNIERIA

4.6.1 PUERTS LÓGICAS:


Necesitamos examinar la realización en hardware de algunas de las
operaciones máquina básica. Para poder hacer esto, vamos a diseñar y
“construir” algunos de esos circuitos. A lo largo de este recorrido se irá poniendo
de manifiesto la importancia de la lógica, en el proceso de diseño de
componentes hardware.
Tenemos tendencia a considerar a los números y a la aritmética como las
entidades básicas de la informática. Después de todo, los números y las
operaciones aritméticas es lo primero que se estudia en los cursos elementales.
Sin embargo, tanto la suma como el resto de las operaciones de la máquina se
tienen en términos de la lógica. Las computadoras trabajan con la lógica.
Sabemos que el sistema binario se utiliza para representar números (o, de
hecho, también otro tipo de información) en la computadora. Sin embargo,
utilizar la codificación binaria es equivalente a definir los números en términos
de las entidades lógicas básicas verdadero y falso. Por ejemplo 5)10 es 101)2.
Pero esto es lo mismo que decir verdadero falso verdadero si asimilamos
1=verdadero y 0=falso. Parece, pues, apropiado comenzar nuestro proyecto de
construcción con las operaciones lógicas AND, NOT y OR.
Para ello, necesitamos entender la operación y conocer qué circuitos
podemos construir. Las operaciones AND y OR son binarias: tiene dos entradas
u operandos, y de ellos se obtiene una salida. Para poder determinar qué
componentes pueden ser de utilidad en la construcción de estos circuitos AND
y OR, conviene recordar que representamos la información como una secuencia
de dos estados (verdadero/falso, 0/1). Por tanto, el elemento básico tiene que
ser algún tipo de conmutador, es decir, algún dispositivo que pueda representar
los dos estados, un simple interruptor1 puede hacerlo. Trabajaremos ahora con
electricidad para simular la lógica, por lo que utilizaremos hilos en lugar de
variables lógicas, cada hilo tiene voltaje o no lo tiene (1/0).
En la Figura. Pueden verse los circuitos buscados a los que denominaremos
PUERTAS LÓGICAS (en general, dispositivos físicos que realizan operaciones
lógicas).

pág. 17
EL BIT: | FACULTAD DE INGNIERIA

Figura Circuitos eléctricos cuyo comportamiento puede describirse mediante las


funciones OR y AND.
Obsérvese que existen dos operandos de entrada y uno de salida. En el caso
del circuito and, solo si los dos conmutadores están cerrados, (las entradas son
verdadero) existirá voltaje a la salida, lo que se interpreta como verdadero (o 1).
Análogamente, se reproduce con este circuito, el resto de filas de la tabla de
verdad de la operación and.
Otra operación muy utilizada es el llamado or-exclusivo, simbolizada por xor, se
definido mediante la ecuación
a xor b = (a or b) and not (a and b)
Informalmente significa “a o b, pero no ambos”. Obsérvese que no es necesario
construir un circuito diferente para ella, ya que un circuito que realice esta
función puede conseguirse enlazando puertas elementales not, and y or,
combinándolas como se hace en el lado derecho de la ecuación que la define.
4.6.2 ARITMETICA CONPUERTAS LOGICAS:
Las operaciones lógicas básicas, raramente se usan de forma aislada. Se puede
imaginar las combinaciones de estas operaciones como conexiones de una
puerta lógica a la entrada de otra de tal manera que al atravesar el circuito una
corriente eléctrica, se van abriendo o cerrando hasta obtener la operación
deseada. Algunos de los circuitos lógicos, incluso en los computadores más
sencillos, son extremadamente complejos y no es objeto de este curso entrar en
este tema, propia de arquitectura de computadores, sin embargo es importante
retener la idea de que los elementos lógicos pueden combinarse para realizar
operaciones más complejas y que la tabla de verdad de una combinación de ellas
puede determinarse a partir de las tablas de las puertas elementales.

Esquema de un semisumador La puerta de arriba representa la puerta lógica


XOR y la de abajo la puerta lógica AND
Sin embargo, todavía no hemos terminado. Volviendo a la suma anterior,
recordemos que debemos continuar con el proceso de suma, procediendo
de derecha a izquierda a través de una serie de bits. El problema es que

pág. 18
EL BIT: | FACULTAD DE INGNIERIA

algunas de esas sumas producen un arrastre que debe incluirse en la siguiente


suma de la izquierda. En la tabla., esto ocurre en la primera suma, es decir, la
suma de los dígitos de más a la derecha, puesto que 1+1=0 mas un arrastre de
1. Este bit arrastrado debe considerarse en la suma siguiente. ¡Parece que
sólo hemos realizado la mitad del trabajo!. Si queremos extender nuestro
semisumador a un sumador, el problema que nos encontramos es que
necesitamos poder sumar a la vez tres bits, en lugar de dos. Necesitamos una
circuiteria con tres entradas (el arrastre y los dos operandos) y dos salidas (el
arrastre de salida y el bit suma). Esto puede hacerse con dos semisumadores y
una puerta or, como se muestra en la Figura 4.3.

Esquema de un sumador completo, construido a partir de dos semisumadores.


La puerta que proporciona el resultado del acarreo es una puerta lógica OR
Es fácil ver cómo el sumador produce el bit suma. El primer semisumador
produce el dígito resultante de la suma de los operandos y el segundo
semisumador suma a este resultado el bit de arrastre proveniente del sumador
anterior. Que el sumador produce el bit de arrastre correcto es un poco más
difícil de ver. Básicamente, el sumador debe producir un bit de arrastre 1, bien
si la suma de los operando es mayor que 1, bien cuando el resultado que se
produce al sumar el arrastre anterior es mayor que 1. En términos del diagrama
de la Figura 4.3, significa que siempre que cualquier semisumador produzca un
arrastre de 1, se debe producir una salida 1 del bit de arrastre. Este es
exactamente el efecto que produce la puerta or. Esta explicación no constituye
una demostración de que el sumador trabaje correctamente, ya que para
demostrar que el circuito es correcto, necesitaríamos aplicarle cada uno de las
ocho posibles combinaciones para los valores de los operandos y del bit de
arrastre de entrada.
Nuestro objetivo de diseñar una unidad operativa para sumar enteros, no
está aún alcanzado, puesto que nuestro sumador todavía solo suma
correctamente una posición de un número binario. Sin embargo, puesto que
sabemos que el proceso de suma es idéntico para todas las posiciones, es fácil
construir la unidad operativa, pues basta encadenar juntos un número apropiado
de sumadores. Por ejemplo, si nuestros números binarios tuvieran 4 bits,
podemos construir un sumador de números de 4 bits utilizando cuatro
sumadores en cascada. Este sumador puede verse en la Figura 4.4. En este
diagrama, las tres entradas para cada bit se encuentran en la parte de arriba de

pág. 19
EL BIT: | FACULTAD DE INGNIERIA

la caja negra correspondiente, y las dos salidas se encuentran en la parte de


abajo. Obsérvese que los sumadores se han conectado de manera que simulan
la forma en que realizamos la suma binaria; el bit de arrastre de cada sumador
se conecta al bit de entrada de arrastre del sumador de su izquierda. Este diseño
se conoce como sumador helicoidal, debido a la forma en que se produce la
propagación hacia la izquierda del bit de arrastre. De forma análoga, es posible
construir sumadores para enteros con mayor número de bits.

Esquema de un sumador en paralelo para cuatro bits.


Nótese que existe un retraso asociado al paso de los datos a través de cada
puerta lógica de un circuito. Aunque los circuitos de la figura operan en paralelo,
puede ser necesario pasar un acarreo a través de todos los sumadores del
circuito. Lo que supone un retraso considerable y la suma deja de ser “en
paralelo”. Afortunadamente existen procedimientos para resolver estos
problemas.
CAPITULO III
5. APLICACIONES.
Los sistemas digitales son desagregados de lo que se llama sistema binario el
cual se basa fundamentalmente en lo que conocemos como el bit, es por esto
que podemos decir que el complejo sistema formado por esta célula inicial o
primaria a la que llamamos bit es un sinfín de adelantos tecnológicos que se
aplican a través de cada aspecto cotidiano y especifico en la existencia del ser
humano desde su aplicación.
Siguiendo con la premisa anterior tenemos un gran campo de aplicaciones de
estos sistemas digitales, y tratando de abarcar y de hacer conocer a la audiencia
sobre esto es que les hablaremos a continuación de algunos considerados como
los más importantes.
pág. 20
EL BIT: | FACULTAD DE INGNIERIA

Computadoras digitales.
Según, las técnicas digitales han trazado su camino en innumerables áreas de
la tecnología, pero el área de las computadoras digitales automáticas es por
mucho la más notable y extensa. Aunque las computadoras digitales afectan
alguna parte de nuestras vidas, es muy dudoso que muchos de nosotros
sepamos con exactitud lo que una computadora hace. En términos más simples,
una computadora es un sistema de circuitería que realiza operaciones
aritméticas, manipula información (generalmente en forma binaria) y toma
decisiones.
En su mayoría los seres humanos puedes hacer cualquier cosa que haga una
computadora, solo que las computadoras lo hacen con mucha mayor velocidad
y exactitud, Esto se debe al hecho de que las computadoras realizan todas sus
operaciones de cálculo paso a paso. Por ejemplo, un ser humano puede tomar
una lista de 10 números y determinar su suma en una sola operación, listando
los números uno sobre el otro y sumándolos columna por columna. Una
computadora, por otro lado, solo puede sumar dos números a la vez; así que la
suma de esa misma lista de números necesitara nueves etapas reales de
adición. Desde luego, el hecho de que la computadora requiere solo de un
microsegundo o menos por etapa contribuye a superar esta aparente
ineficiencia.
Es por esto que las computadoras digitales están presentes en la mayoría de
sistemas con el que el hombre trabaja desde el uso doméstico hasta el uso
militar.
Almacenamiento de datos
Según, por mucho el uso más común de los sistemas digitales y su partículas el
flip flop, es para el almacenamiento de datos e información. Los datos pueden
representar valores numéricos (por ejemplo, números binarios decimales
codificados en BCD). Estos datos generalmente se almacenan en grupos de FF
llamados registros.
Ya que en la actualidad el ser humano maneja grandes cantidades de
información y de datos, los cuales muchas veces excederían físicamente la
capacidad de espacio de las grandes bibliotecas que se conocen actualmente,
este uso para los sistemas digitales es de gran ayuda siendo fundamental en
cuanto a lo que refiere avance tecnológico, debido a que el hombre ya maneja
con mayor facilidad las grandes cantidades de información y su alcance es
prácticamente infinito. Ayudando así en las largas tareas de investigación y
mejora de todos los proyectos tecnológicos, y no solo eso hay una cantidad
indeterminada de uso benéfico que se le puede dar.

pág. 21
EL BIT: | FACULTAD DE INGNIERIA

En las Telecomunicaciones
Ya que el tema que venimos a presentar es bastante amplio haremos una breve
reseña de lo que a nuestro criterio son los puntos mas importantes en esta rama
que se propagaron gracias al uso de sistemas digitales:
Comunicación comercial vía-satélite 1965: El primer satélite comercial en órbita
geoestacionaria fue el INTELSAT I, también llamado Early Bird. Fue lanzado el
6 de Abril de 1965 y estuvo en operación hasta 1969. Las comunicaciones se
iniciaron de forma operativo el 28 de Junio de 1965. El satélite tenía dos
transpondedores de 25 MHz de ancho de banda. Los enlaces ascendentes
estaban a 6301 MHz para Europa y 6390 MHz para Estados Unidos. Los enlaces
descendentes estaban a las frecuencias de 4.081 MHz y 4161 MHz. Con dicho
satélite se inicia la actual época de telecomunicación espacial. La organización
INTELSAT inició sus actividades en 1964, con 11 países miembros, en la
actualidad tiene 109 miembros y da servicio a 600 estaciones terrenas en 149
países. Las series de satélites van desde los INTELSAT I a INTELSAT VII. El
INTELSAT I podía transmitir 240 canales vocales o un canal de TV. 1968: Los
satélites de la serie INTELSAT III se empezaron a lanzar en 1968, podían
transmitir 1200 circuitos telefónicos y 2 canales de TV. 1971: Los de la serie IV
se empezaron a lanzar en 1971, con 4000 canales y 2 de TV . 1966 El científico
Charles Kao de USA fue el primero en usar la luz a través de un conductor de
fibra de vidrio para transmitir llamadas telefónicas 1968-FAX- La firma electrónica
alemana Grundig introduce el concepto de Fototelegrafía al permitir la
transmisión de imágenes a través de líneas telefónicas. 1969 Nacimiento de
Internet, gracias al desarrollo de la red de computadores ARPANET por VP
Algore. 1970 Se usó oficialmente el método de Múltiplexación por división de
tiempo (TDM) para intercambio telefónico 1971 Rank Xerox colocan la primera
tele-copiadora en el mercado. Desarrollo del micro-procesador 1972 primeras
2839 conexiones de TV cable construidas en EEUU. 1974 Primera calculadora
programable de bolsillo lanzada por Hewlett-Packard 1975 La compañía IBM
desarrolla la primera impresora láser tipo IBM 3800, SONY saca al mercado el
"Betamax", se inaugura en Toronto/Canadá el TV más grande del momento
(553.33 m). 1976 SIEMENS desarrolla el teletipo, Motorola introduce la
tecnología TTL para desarrollos de nuevos microprocesadores. 1977 Fue el año
con mayor número de lanzamientos de satélites de comunicación (SIRIO I, CS ,
INTELSAT4), Siemens empezó la producción en masa de las centrales
telefónicas EWS. 1978 Se logró tener información acerca de la atmósfera de
Venus. Primera fibra óptica puesta en operación en Berlín. 1979 Se introduce el
servicio de Telefax en Frankfurt. SONY desarrolla el primer radio cassette. El 16
de julio se funda INMARSAT. Japanese Matsushita Inc. patenta la pantalla de
televisión de cristal líquido. 1991 Dockent 91-228 introduce los identificadores de
llamada. 1992 Nace Internet comercialmente 1992: Empieza a funcionar el GSM
1994 Después de 25 años desde Arpanet, EEUU privatiza el manejo de Internet.
1996 Terry Wynne da la idea del más grande proyecto en cuanto a redes a nivel
mundial el WWW; Se desarrolla el software para transmitir voz telefónica y
música de alta calidad a través de Internet; Es privatizada parcialmente
pág. 22
EL BIT: | FACULTAD DE INGNIERIA

Telefónica de España, lo que ha resultado de los mayores éxitos en la


privatización de operadores públicos de telecomunicaciones. 1998: Sistemas de
redes Ópticas pueden transmitir 3.2 Terabits por Segundo (equivale a 90.000
volúmenes de una enciclopedia). Crean el Chip DSL (Suscriptor de Línea Digital)
que puede bajar datos a 1.5 megabits por segundo, 30 veces más rápido que los
módems análogos.
1999 Se declara en quiebra IRIDIUM el Primer sistema de comunicaciones
Móviles de Tercera Generación, que iba a implantarse en el mundo. 2001 La
compañía DoCoMo lanza comercialmente la telefonía UMTS o de tercera
generación en Europa. (Estepa, 2004) y asi hasta nuestra época donde tenemos
al alcance de un click o simplemente desde nuestros televisores y
decodificadores un almacén de programas e información así como noticas y
otros aspectos fundamentales que están al alcance de nosotros muy raídamente

6. IMPORTANCIA.

Con el bit se empezó la revolución digital, gracias a bit y sus aplicaciones hoy
en día podemos hablar de un mundo globalizado e integrado, todos
conocemos como la era digital cambio al mundo el bit es la base de la
electrónica digital. Aunque técnicamente la electrónica es un campo de la
ciencia física, que estudia los movimientos de electrones y las variaciones
electromagnéticas, a buen seguro que en la vida diaria entendemos por
electrónica algo mucho menos abstracto. Para la mayor parte de la gente la
electrónica se refiere a la tecnología en que se basan los aparatos
electrónicos, pero desconocen el término bit, y que desde luego, ha cambiado
nuestra forma de vida en los últimos cien años.

La electrónica se basa en emplear las fuerzas electromagnéticas para


transmitir y usar información. Podríamos decir que su descubrimiento es
similar al de la polea, la rueda y otros aparatos mecánicos que facilitaron tanto
la vida a la gente. Pero si estos están encaminados a ahorrar esfuerzos
físicos, la electrónica se basa en el manejo, transferencia y uso de la
información. Sin electrónica no habría ordenadores, móviles, televisores,
ciertos aparatos médicos, autómatas, internet... Y es que mediante el uso de
aparatos electrónicos se puede transmitir y usar fácilmente la información
desde un dispositivo de entrada, para procesarla y mostrarla en otro
dispositivo de salida. (Pongamos el ejemplo práctico de una calculadora:
introducimos los datos con el teclado, señales binarias, la calculadora los
procesa en cálculos binarios y muestra el resultado en pantalla digital como
en un sistema decimal que entendemos). Y es que la importancia del bit es
tal que es imposible desplegar a la electrónica e informática ya que la
información los entrelaza y todo en el sistema binario.

pág. 23
EL BIT: | FACULTAD DE INGNIERIA

6.1 EL BIT CUANTICO.

6.1.2 DIFERENCIAS FISICA CLASICA Y FISICA MODERNA

La física es la ciencia que se dedica al estudio de los fenómenos


naturales, en la física, hay dos ramas claramente separadas y sus leyes se
oponen entre sí. Por un lado tenemos a la física clásica que se encarga del
estudio de los cuerpos grandes, como los planetas, estrellas, galaxias, y el
comportamiento del nuestro planeta.

Gracias a ella entendemos la gravedad y como funciona pero además una


física clásica estudia la electricidad y el magnetismo. Según WILSON, BUFFA
Y LAO (2007: 504) “Sabemos ahora que la electricidad y el magnetismo están
relacionados en conjunto, se les llama “fuerza electromagnética”, la cual
constituye una de las cuatro fuerzas fundamentales en la naturaleza. (La
gravedad y dos tipos de fuerzas nucleares [fuerte y débil] son las otras tres.)”.

La física clásica se encarga de estudiar los fenómenos electromagnéticos,


siempre y cuando cumplan sus leyes. Leyes que rigen comportamientos de
manera armónica, impuestas desde Isaac Newton con la ley de la gravedad
y el movimiento de los cuerpos, hasta Albert Einstein y su teoría relativista.

Un Bit era parte del estudio de la física clásica, como el principio de la


electrónica digital y el procesamiento de datos el bit solo tiene dos
comportamientos “1” o “0”, entonces trabaja de manera armónica.

Sin embargo el electromagnetismo también trabaja a nivel sub atómico,


en ese nivel encontramos a la otra rama la física cuántica; según GRATTON
(2003:1) “Procura describir y explicar las propiedades de las molé- culas, los
átomos y sus constituyentes: electrones, protones, neutrones, y otras
partículas más esotéricas como los quarks y los gluones. Esas propiedades
incluyen las interacciones de las partículas entre sí y con la radiación
electromagnética”.

Entonces la física cuántica es la encargada del estudio del


comportamiento de las partículas sub atómicas y debido a que su
comportamiento no cumplen las leyes de Newton ni la ley de la relatividad
(espacio, tiempo) no se comportan de manera armónica, entonces podemos
decir que la fuerza electromagnética forma parte de la física cuántica, además
la física cuántica estudia la radiación fuerte y la radiación débil; en cuanto en
un mundo cuántico (sub atómico) una partícula sub atómica se comporta de
manera irregular, por ejemplo:

Un planeta está en órbita a su estrella por lo cual podemos predecir su


posición con referencia a su estrella en algún momento, pero una partícula
sub atómica puede estar en dos lugares a la vez, puede estar en un lugar sin

pág. 24
EL BIT: | FACULTAD DE INGNIERIA

haber estado nunca, las dimensiones de espacio y tiempo que entendemos


no se pueden aplicar en el mundo cuántico, entonces no podemos predecir
su posición con exactitud ni su comportamiento mediante las leyes de
Newton. Por lo cual podemos afirmamos que las dos ramas de la física
estudian el comportamiento de la materia y su interacción con el universo.

6.1.2 EL QUBIT FIN DE LA ERA DIGITAL, PRINCIPIO DE LA ERA


CUANTICA.

El BIT cuántico o el QUBIT por sus siglas en ingles quantum bit. El QuBit
el mínima unida de información cuántica, a diferencia de un bit clásico donde
el bit tiene solo dos estados “1” o “0” un bit cuántico puede tener muchos más
estados, según VELA (2008:4) “Un qubit se puede ver como un sistema con
dos estados posibles tal cómo el spin de un electrón, que puede ser ‘α’ o ‘β’
o como un fotón polarizado ‘horizontal’ o ‘verticalmente’. De esta forma, un
sistema de n qubits tendrá disponibles 2n estados cuánticos mutuamente
ortogonales”.

El número de qubits indica la cantidad de bits que pueden estar en


superposición. Con los bits convencionales, si teníamos un registro de tres
bits, había ocho valores posibles y el registro sólo podía tomar uno de esos
valores. En cambio, si tenemos un vector de tres qubits, la partícula puede
tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así,
un vector de tres qubits permitiría un total de ocho operaciones paralelas.
Como cabe esperar, el número de operaciones es exponencial con respecto
al número de qubits.

La idea de poder tener el control de los qubits nos da la perspectiva de


que en un futuro no lejano tendremos ordenadores más potentes,
ordenadores con los cuales podamos hacer cálculos que no se pueden
realizar con los ordenadores actuales llevando a otro limite la tecnología, nos
ayudara a dominar el espacio y tiempo de todo lo que nos rodea, por ejemplo:
podremos determinar la edad exacta del universo y además podremos darle
un avance más a la inteligencia artificial; con ella podremos encontrarle cura
a las enfermedades.

En un ordenador cuántico podremos hacer simulaciones complejas, antes


de experimentar y poner en peligro la vida en nuestro planeta, supongamos
que deseamos saber cómo se comportarían dos partículas si las sometemos
intensas radiaciones y descomponemos sus formas de tal manera que según
el cálculo se puede generar un agujero negro y según otro calculo podemos
encontrar un agujero de gusano permitiéndonos quebrar la estructura espacio
tiempo, según conocemos los agujeros negros son partículas con una
gravedad infinita que ni la luz escapa de ella y eso destruiría nuestro sistema
solar, y los agujeros de gusano nos permitirán realizar viajes a los confines
del universo en un tiempo muy corto.

pág. 25
EL BIT: | FACULTAD DE INGNIERIA

Con los ordenadores cuánticos podremos hacer simulaciones con tal


precisión que no pondríamos en peligro nuestro planeta además el proceso
de información es mucho más rápido que con los ordenadores actuales
tenemos, la era de la computación no lleva ni un siglo con nosotros, recién
se está en sus primeros pasos, el qubit es el eje de la nueva era, no es un
secreto que los qubits ya son parte de la computación en 1998 - 1999
Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets
consiguen propagar el primer Qubit a través de una solución de aminoácidos.
Supuso el primer paso para analizar la información que transporta un Qbit.
Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue
presentada en la Universidad de Berkeley, California (EE. UU.) Un año más
tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera
máquina de 3-Qubit y además fue capaz de ejecutar por primera vez el
algoritmo de búsqueda de Grover.

IBM creó un computador cuántico de 5-Qbit capaz de ejecutar un


algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este
algoritmo se ejecutaba en un simple paso cuando en un computador
tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos
de Los Álamos National Laboratory (EE. UU.) Anunciaron el desarrollo de un
computador cuántico de 7-Qbit. Utilizando un resonador magnético
nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la
codificación en bits de los computadores tradicionales.

2001 - El algoritmo de Shor ejecutado IBM y la Universidad de Stanford,


consiguen ejecutar por primera vez el algoritmo de Shor en el primer
computador cuántico de 7-Qubit desarrollado en Los Álamos. En el
experimento se calcularon los factores primos de 15, dando el resultado
correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con
7 átomos.

2005 - El primer Qubyte El Instituto de “Quantum Optics and Quantum


Information” en la Universidad de Innsbruck (Austria) anunció que sus
científicos habían creado el primer Qbyte, una serie de 8 Qubits utilizando
trampas de iones. Desde entonces se viene trabajando en ordenadores más
potentes, su comercialización masiva aún no tiene fecha de lanzamiento pero
se prevé que para el 2025 estarán disponibles en los hogares de todo el
mundo.

pág. 26
EL BIT: | FACULTAD DE INGNIERIA

CAPITULO IV
CONCLUSIONES.

 La electrónica digital, que se ha impuesto frente a la antigua electrónica


analógica. En la electrónica digital los sistemas emplean y toman
variables conocidas (el más conocido es el sistema binario, con dos
posibles variables, empleado en la casi totalidad de los sistemas
informáticos. El Bit es la base de esta tecnología), y eso hace que sean
mucho más exactos y fiables en la transmisión de información.

 La electrónica y sus avances están sin duda transformando nuestra


sociedad, cambiando nuestros hábitos y la personalidad de los individuos.
No son sólo avances tecnológicos, sino sociales y personales los que ha
promovido la electrónica. Es por ello que hoy en día podemos aseverar
de modo diáfano y meridiano que los aparatos electrónicos son un pilar
indiscutible en la nueva sociedad del siglo XXI, la sociedad de la
información.

 Como base y principio del sistema binario y la electrónica digital el bit


(digito binario) también es la base de nuestro mundo globalizado y cada
vez más integrado, esperaremos con ansías los ordenadores cuánticos y
la nueva era de la información cuántica pero nos quedamos satisfechos
de haber disfrutado la era digital, con la televisión digital, películas en hd,
3D, la música electrónica y los archivos compactos.

pág. 27
EL BIT: | FACULTAD DE INGNIERIA

REFERENCIAS BIBLIOGRÁFICAS

 Tocci, R. J., Widmer, N. S., & Moss, G. L. (2007). Sistemas digitales:


Principios y aplicaciones. México. Editorial Pearson Educación. Cantidad
de Pág. 939
 ZAMBRANO, A (2014). Bits, bytes y datos y tipos de datos (On-line).
Venezuela: Universidad de los Andes. Disponible en:
http://webdelprofesor.ula.ve/economia/angelz/archivos/los_bits.pdf
(Consultado 11-06-15)
 Generación Bit: una historia de la información (On-line). Disponible en:
http://www.elboomeran.com (Publicado el 14/3/2011 a las 17:47),
(Consultado 17-06-15 a las 16:32)
 Martín, Q. G., Toledo, L. F., Cerverón, L. V., (1995) Fundamentos de
Informática y Programación. España. Editorial Universidad de Valencia.
Pág. 317
 Vela s. Computación cuántica (2008) (On-Line) España. Universidad de
Barcelona disponible en http://www4.ub.edu/structdyn/wp-
content/uploads/2009/06/quantum-computing.pdf (consultado 17-06-15)
 Wilson, Jerry; Anthony J. Bufa; Bo Lou. FISICA GENERAL, (2007)
México. Editorial Pearson educación. PÁG. 912

pág. 28

También podría gustarte