Está en la página 1de 20

PROCESO DE DESARROLLO Y CAMBIO DE LAS

COMPUTADORAS
DESARROLLO DE LAS COMPUTADORAS
Desarrollo de las computadoras, es importante porque actualmente se ha hecho un instrumento básico
en todas las áreas de desarrollo de la humanidad (laboral, entretenimiento, educación, etc.) Tener el
conocimiento de su origen, saber el motivo por el cual fue construida, además de tener una noción del
alcance que tendrá a futuro el desarrollo de la tecnología computacional.

Básicamente “Generación de computadoras” es un término relacionado con la evolución y


adaptación de la tecnología y de la informática. Es decir que cada avance importante, como
la reducción del tamaño de los elementos tales como procesadores y memorias, así también
como el aumento de su capacidad y velocidad, se produce un salto generacional. Con cada
uno de estos saltos, los equipos informáticos y dispositivos electrónicos, son cada vez
más pequeños y económicos, garantizando de este modo que sea cada vez mayor la
cantidad de consumidores que los compran.

Al respecto de este punto, a principios de la década de los 80, era prácticamente imposible
encontrar un hogar que tuviera una computadora. Este panorama ha cambiado radicalmente,
al punto que es prácticamente imposible encontrar un lugar en el mundo en donde una
computadora no se encuentre realizando una tarea.
Todo se inició en los albores de la década del 40 con ENIAC, y la última etapa de la quinta
generación de computadoras fue anunciada como la de las «computadoras
inteligentes» basadas en Inteligencia Artificial, iniciada por un famoso proyecto en Japón, y
que finalizó en un estrepitoso fracaso; a partir de ahí, la cuenta de las generaciones de
computadoras es un poco confusa.

Generaciones de la computadora
En este post estudiaremos como se han ido sucediendo las generaciones de la
computadora. Partiendo de 1943 hasta nuestros días.

La Primera Generación de Computadoras


Primera generación de computadoras: Colossus

En 1943, un proyecto británico, bajo el liderazgo del matemático Alan Turing, puso en
operación una serie de máquinas más ambiciosas, las Colossus, pues en vez de relés
electromecánicos, cada nueva máquina usaba 2.000 válvulas electrónicas.

Colossus trabajaba con símbolos perforados en una argolla de cinta de papel, que era
insertada en la máquina que tenía lectura fotoeléctrica, comparando el mensaje cifrado
con los códigos conocidos hasta encontrar una coincidencia. Procesaba 25.000
caracteres por segundo.

Primera generación de computadoras: ENIAC


El 14 de febrero de 1946, nació la ENIAC (Eletronic Numerical Interpreter and
Calculator), también conocida por su traducción al castellano como “Computadora e
Integrador Numérico Electrónico”, proyectada para fines militares por el Departamento de
Material de Guerra del Ejército de los EUA, en la Universidad de Pensilvania.

Era la primera computadora digital electrónica en gran escala y fue proyectada por John
W. Mauchly y J. Presper Eckert. El ENIAC era mil veces más rápido que cualquier
máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50
divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100
mil componentes, incluyendo 17.468 válvulas electrónicas.

Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus
incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados.
Observando este inconveniente, Eckert, modificó el funcionamiento de ENIAC haciendo que
las válvulas funcionaran a una tensión menor que la necesaria, reduciendo así las fallas
debido al sobrecalentamiento del ambiente.

Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un
conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000
válvulas sustituidas por año. ENIAC contaba con 500.000 conexiones soldadas, y como
podremos observar por las innumerables válvulas de vacío que la componían, el consumo
eléctrico era en extremo elevado.

Primera generación de computadoras: EDVAC, EDSAC y LEO


La sucesora de la ENIAC fue la EDVAC (Electronic Discrete Variable Computer) o
“Computadora Electrónica de Variables Discretas”, traducido al español. La EDVAC fue
planeada para acelerar el trabajo almacenando programas y datos en su expansión de
memoria interna.

Los datos eran almacenados electrónicamente en un medio material compuesto de un


tubo lleno de mercurio, conocido como línea de retardo, donde los cristales dentro del tubo
generaban pulsos electrónicos que se reflejaban hacia delante y atrás, tan lentamente como
podían, semejante a un desfiladero que retiene un eco, que Eckert descubrió por casualidad
al trabajar con los radares.

Otra gran característica de la EDVAC era poder codificar la información en forma


binaria en vez de la forma decimal, reduciendo bastante el número de válvulas.

En 1947, John Bardeen, William Shockley y Walter Brattain inventan el transistor, que en
pocos años cambiaría por completo el panorama de las computadoras.

En 1949, surge la EDSAC (Eletronic Delay Storage Automatic Calculator) o “Calculadora


Automática con Almacenamiento por Retardo Electrónico” en español, la cual marcó el último
gran paso en la serie de avances decisivos inspirados por la guerra. En 1951, surge la
primera computadora comercial, la LEO.

Primera generación de computadoras: UNIVAC


La primera computadora comercial de gran escala fue UNIVAC, (Universal Automatic
Computer), que en español significa “Computadora Automática Universal”, diseñado en
EEUU en el año 1951, el cual era programado tocando cerca de 6.000 llaves y conectando
cables a un panel.

La entrada y salida de información era realizada por una cinta metálica de 1/2 pulgada de
ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran
normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que,
consumía 14.000 W.

Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del
UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits,
ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine,
el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer.

Entre 1945 y 1951, el sistema Whirlwind, del MIT, fue la primera computadora que
procesaba información en tiempo real, con entrada de datos a partir de cintas perforadas
y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir.

La Segunda generación de Computadoras


En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester
construye una memoria magnética. Las computadoras con transistores surgen en los
años 50, pesando 150 kg, con consumo inferior a los 1.500 W y mayor capacidad de
proceso, velocidad y muchas otras ventajas con respecto a sus antecesores valvulares.

Ejemplos de las primeras computadoras a transistores son el IBM 1401 y el Burroughs B


200. En 1954 IBM comercializa el 650, de tamaño medio. La primera computadora
totalmente transistorizada fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958,
tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseía
dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por
Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto,
a través de un joystick y un lápiz óptico, a modo de ratón
Segunda generación de computadoras: Burroughs

En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador


avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser
Numerator Integrator and Computer. En enero de 1959 Texas Instruments anuncia al
mundo una creación de Jack Kilby: el circuito integrado.

Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar
dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos
milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de
segundo, y, una máquina de tercera generación en menos tiempo aún.

La Tercera generación de Computadoras


Esta generación es de la década del 60, con la introducción de los circuitos
integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía
almacenar veinte números de diez dígitos, estos podían almacenar millones de
números. Surgen conceptos como memoria virtual, multiprogramación y sistemas
operacionales complejos. Ejemplos de esta época son el IBM 360 y el Burroughs B-3500.
Tercera generación de computadoras: IBM 360

En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término
software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital
de 100 dólares, se transformó en la primera compañía de software con acciones negociadas
en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la
americana DEC, Digital Equipament Corporation.

Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio


de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras
compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca
de 100.000 ordenadores esparcidos por el mundo.

En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito


integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el
8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los
microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de
integración a muy larga escala.
Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell
lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador,
el ALTAIR 8800 en 1974/5.

En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para
microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la
Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y
Wozniak crean el microcomputador Apple, a RadioShack el TRS-80 y la Commodore el
PET. La plantilla Visicalc de 1978/9, primer programa comercial, de Software Arts.

En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el


Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA,
Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor,
que alcanzó la lista de los más vendidos en 1982.

El Sinclair ZX81/ZX Spectrum fue un ordenador minúsculo concebido por John


Sinclair, profesor en la Universidad de Cambridge en U.K. Inicialmente concebido para la
utilización de los estudiantes de la Universidad de Cambridge. La CPU tenía un procesador
Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una
ULA.

La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc.
necesarios para el funcionamiento del sistema y un traductor para el lenguaje de
programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K
pero, era expandible hasta 16K.

En la caja de plástico se alojaba también un subsistema de comunicaciones para


conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad
para entrada y salida de sonido y un codificador de imágenes para TV. En la parte trasera de
la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que
usaba un rollo de papel especial.

El ordenador era suministrado con un cable para la conexión al televisor y otro para la
conexión con un grabador de «cassettes» musical (norma Philips). El transformador de
corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran
grabados en un cassette magnético y eran también leídos desde uno. El teclado no tenía
teclas. Los caracteres ASCII eran impresos en una membrana.

Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las


causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy
popular debido a su bajo precio de venta.

Tercera generación de computadoras: Osborne 1

Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de
64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta
attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5″ 1/4 con 204 KB
o con opción a 408 KB de capacidad, un monitor de 5″ (24 líneas por 54 columnas) en
blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de
teclas, uno alfanumérico con los caracteres ASCII y otro numérico.

Disponía de conectores para un monitor externo, puertos serie RS-232C y paralelo IEEE-
488 o Centronics. El sistema era alimentado por una batería propia recargable con una
autonomía de 5 horas, por una batería externa de automóvil o por un transformador de
corriente eléctrica alterna a continua.

El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software


suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un
Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC
(derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser
programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA,
ASSEMBLER y CROSS-ASSEMBLER.

La Cuarta Generación de Computadoras (1981-1990)


Cuarta generación de computadoras: 1980-PC XT

Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le
siguió una versión PC-AT. IBM PC-XT En la década de 80, fue creado el IC LSI (Integratede
Circuit Large Scale Integration), que en español significa, “Circuito Integrado en Ancha
Escala de Integración”, donde fueron desarrolladas técnicas para aumentarse cada vez más
el número de componentes en el mismo circuito integrado. Algunos tipos de IC LSI
incorporaban hasta 300.000 componentes en un único chip.

El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible
hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de
4,77 MHZ. Era construido con tres módulos separados: CPU, monitor y teclado. El monitor
era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor
con 16 colores.
La CPU además del procesador albergaba una unidad de disquete de 5″ 1/4 con una
capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con
10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas,
10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres
acentuados. Poseía una salida para impresora y el PC-XT disponía de un interfaz para
comunicaciones asíncronas.

El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft
para IBM. El lenguaje de programación que utilizada era el BASIC. Sólo cerca de dos años
después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados
con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando
para el efecto la penetración en las empresas donde tenía instalado grandes mainframes y
“pequeños ordenadores”.

Surgieron en el transcurso del uso de la técnica de los circuitos LSI (Large Scale
Integration) y VLSI (Very Large Scale Integration). En ese periodo surgió también el
procesamiento distribuido, el disco óptico y la gran difusión del microcomputador, que pasó a
ser utilizado para procesamiento de texto, cálculos auxiliados, etc.

Cuarta generación de computadoras: 1982- Surge el 286

Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache,
para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros
modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.

Cuarta generación de computadoras: 1985- El 386


Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era
posible correr softwares gráficos más avanzados como era el caso del Windows
3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores
CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el
monitor soportara esa configuración.

Cuarta generación de computadoras: 1989- El 486 DX

A partir de este momento el coprocessador matemático junto con el propio


procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la
memoria de 72 pines, mucho más rápida que su antepasada de 30 pines y de las placas PCI
de 32 bits dos veces más veloces que las placas ISA.

Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar
hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante
con la aparición del Windows 95.

La Quinta Generación de Computadoras (desde 1991)


Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y
almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de
textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo
algunos ejemplos de esas necesidades.
Una de las principales características de esta generación es la simplificación y
miniaturización del ordenador, además de mejor desempeño y mayor capacidad de
almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI
fue sustituida por la ULSI (Ultra Large Scale Integration).

El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la


ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de
los costos de producción y del volumen de los componentes permitió la aplicación de estos
ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones,
automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de
ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL.

Quinta generación de computadoras: 1993- Nace el Pentium

Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a
la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando
aún más su performance. Este avance en la velocidad y capacidad de procesamiento están
ligados firmemente a la aparición en el mercado de los procesadores de Intel Pentium, el
primero de ellos, el Pentium I en el año 1997, el Pentium II en 1999 y finalmente el Pentium
IV, en el año 2001.

Actualidad
Hoy en día sólo han quedado dos combatientes en el terreno de los procesadores para
computadoras, Intel y AMD. Entre ambos fabricantes cubren casi la totalidad de
las necesidades de proceso de cómputo en ámbitos como el hogar, la oficina y la
industria, y han puesto en el mercado CPUs con velocidades y rendimientos imposibles de
imaginar tan sólo una década atrás.

Entre los más destacados productos de estas firmas podemos mencionar los procesadores
Intel Core, en sus variantes i3, i5 e i7 de dos o cuatro núcleos y velocidades de reloj que
superan ampliamente los 3.4 Ghz. En cuanto a AMD, su modelo Fusion es uno de los
diseños más avanzados, ya que logra combinar en la misma cápsula de la CPU al chip
gráfico. Otro acierto de la firma es el Phenom II, el cual puede llegar a montar en su
interior hasta 6 núcleos corriendo a 3.6 Ghz.

La sexta generación de computadoras


La sexta generación se podría llamar a la era de las computadoras
inteligentes basadas en redes neuronales artificiales o «cerebros artificiales». Serían
computadoras que utilizarían superconductores como materia prima para sus procesadores,
lo cual permitirían no malgastar electricidad en calor debido a su nula resistencia, ganando
performance y economizando energía. La ganancia de performance sería de
aproximadamente 30 veces la de un procesador de misma frecuencia que utilice
metales comunes.

Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido el uso
de procesadores en paralelo, o sea, la división de tareas en múltiples unidades de
procesamiento operando simultáneamente. Otra novedad es la incorporación de chips de
procesadores especializados en las tareas de vídeo y sonido.
Esta manía de enumerar las generaciones de computadoras parece que se ha perdido. Ya
no suceden, como ocurrió en las cuatro primeras generaciones, la sustitución de una
generación de computadoras por las siguientes. Muchas tecnologías van a sobrevivir
juntas, cada una en su sector de mercado.

Es una realidad que los chips son cada vez más chicos, rápidos y eficientes. ¿Esta será la
característica de la séptima generación de computadoras?

Séptima Generación de computadoras


La llegada de la séptima generación de computadoras podemos situarla a partir de 1999,
que es el momento aproximado en el cual comienzan a popularizarse las pantallas planas
de tipo LCD, y los viejos monitores de rayos catódicos empiezan a ser reemplazados por
esta nueva tecnología.

Además de incluir un notable avance en los componentes de hardware, permitiendo que


los usuarios podamos disponer de mayor potencia y velocidad de procesamiento, en
la séptima generación de computadoras también se amplía la capacidad de almacenamiento
de los dispositivos creados para ese fin. En este caso, el almacenamiento de datos de alta
densidad alcanza una capacidad de almacenamiento de más de 400 GB en un total de 16
capas.

Por otra parte, con la inclusión de nuevos conceptos y elementos, con la séptima generación
de computadoras los hogares han ido reemplazando los equipos para la reproducción de
música y los televisores convencionales por computadoras, gracias a las nuevas
prestaciones que las mismas comenzaron a ofrecer a partir de finales de la década de los
noventa.

Esto ha sido posible debido a que en la séptima generación de computadoras, las mismas
han logrado un importante avance en el ámbito digital, gracias a la expansión de la
capacidad de los discos duros, por lo que a partir de allí, la computadora hogareña se
convirtió en un verdadero centro de entretenimiento.

Entre las principales características que pueden mencionarse que han sido incorporadas
con la llegada de la séptima generación de computadoras, podemos mencionar la
expansión de la mensajería instantánea y el comercio electrónico, la realidad virtual, el uso
de redes inalámbricas tales como WiFi y Bluetooth, el reconocimiento y comandos por
voz, el uso de memorias compactas como los discos duros externos USB.

Asimismo, con la séptima generación de computadoras se popularizaron los equipos


más pequeños y portátiles, incluyendo laptops, PDA, los smartphone, las tablets y demás
dispositivos móviles inalámbricos.
Octava generación de computadoras
De acuerdo a lo establecido a través de la cronología del desarrollo y la evolución de las
computadoras, se precisa el comienzo de la etapa de la octava generación de
computadoras a partir de principios del año 2011, cuando se produzco el lanzamiento de
la Nintendo 3DS, y poco después la llegada al mercado de la PlayStation Vita de Sony.

No obstante, los expertos en el tema consideran que el inicio de la octava generación de


computadoras no tuvo lugar hasta finales de 2012, cuando la empresa Nintendo lanzó al
mercado su Wii U, ya que esta es precisamente considerada como la primera consola de
sobremesa de la octava generación.

Con el comienzo de la octava generación de computadoras se producen algunos cambios


importantes, como por ejemplo la casi total desaparición de los dispositivos físicos y
mecánicos, como el disco duro y las motherboard, entre otros.

Esto se debe fundamentalmente a que en la octava generación de computadoras


comienza a explorarse y expandirse la nanotecnología, y elementos como el disco duro
poseen una velocidad significativamente superior, ya que funcionan de forma independiente
y orgánica, a base de impulsos electromagnéticos.
Claro está que la octava generación de computadoras, si bien muchos la sitúan a partir
del 2012, lo cierto es que aún no ha llegado a masificarse, ya que por sus características, los
elementos que la componen poseen un valor demasiado alto para el común de los hogares.
Para ello deberemos esperar que la nanotecnología se convierta en un elemento
accesible y habitual en el mercado.

El Futuro – Aquí viene el ordenador cuántico


IBM anunció la construcción del más avanzado ordenador cuántico del mundo. La novedad
representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de
acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre
10 y 20 años.

El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un


dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para
contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales.
Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento
procesar ecuaciones mucho más rápido.

Este tipo de computación beneficiará, con el paso de los años, a muchos ámbitos, no sólo al de la
investigación o el desarrollo, sino que también será una parte más que importante de nuestra vida,
ya que permitirá desarrollar tareas que al día de hoy son imposibles de llevar a cabo debido a la
relativa poca potencia de cálculo de las computadoras modernas.
Los beneficios de la computación cuántica
Este mayor poder de cómputo permitirá, entre otras cosas, una transformación total de cómo
hacemos las cosas los seres humanos, y no cabe ninguna duda que con el paso de los años en
buena medida dependeremos de su funcionamiento para poder llevar adelante nuestras actividades.
En este punto, sólo el tiempo dirá si es una buena idea o no.

Esta transformación por supuesto implica que cada vez más se magnifique el uso de nuestros datos
para poder brindarnos servicios más puntuales, así como también para ofrecernos beneficios para
nuestro trabajo o actividad diaria. Un ejemplo de ello es la llamada “Analítica aumentada”, la cual
intenta encontrar una nueva mirada sobre la forma en que los datos recolectados sean procesados y
ordenados, aun lo más simples y mundanos, de una manera en que puedan ser más útiles.

Si estos datos son usados con precisión, pueden mejorar en mucho el rendimiento de la mayoría de
los servicios que utilizamos en la actualidad, desde YouTube hasta el Home Banking. Se considera
que hasta el momento, el proceso de la incontable cantidad de datos de todos los habitantes
que usan servicios digitales a diario es algo que excede a la informática moderna, y por este
motivo se busca en la computación cuántica un modo de encontrar la solución a esta problemática.

Otro punto en donde la computación cuántica puede ser el futuro de la informática es en el ámbito
de la Inteligencia artificial, ya que la tecnología cuántica podrá trabajar con miles de millones de
datos con mucha mayor facilidad que en la actualidad, lo que facilitará mucho el análisis de los
mismos sean mucho más directos y que las respuestas de los diferentes mecanismos que utilicen
la inteligencia artificial puedan ser mucho más rápidos y precisos.

Asimismo, la relación entre la inteligencia artificial y la computación cuántica podrá ofrecernos


escenarios que hoy en día son considerados de ciencia ficción, como por ejemplo, la aparición de
humanoides, robots con formas humanas diseñadas para brindarnos su ayuda donde sea que las
personas la necesiten. No es de extrañar que con el paso del tiempo, los humanoides sean
considerados como parte de un hogar, así como hoy consideramos a la tecnología de Internet de
las cosas (IOT) una asistencia que cada vez se está volviendo más irremplazable.

La tecnología cuántica y la realidad aumentada


Como sabemos, la tecnología de la realidad aumentada es una de las formas más modernas de
poder interactuar con el mundo que nos rodea. Desde la simple aplicación en el entretenimiento
hasta la incorporación en muchas industrias para el desarrollo, la realidad aumentada es una
tecnología que llegó para quedarse, y es capaz de brindarnos resultados increíbles, en términos de
velocidad y comodidad.

Si a la realidad aumentada le sumamos la potencia de cómputo cuántica, podremos obtener


desarrollos impensados hasta hace unos pocos años atrás, como por ejemplo el diseño de espacios
inteligentes, como las llamadas “Smart Cities”, ciudades por completo automatizadas, y que sería
bastante improbable de poner en práctica sin la ayuda de una tecnología de computación adecuada
en términos de velocidad y potencia.

También podría gustarte