Está en la página 1de 10

TENDENCIAS Y ARQUITECTURAS DE COMPUTADORES ACTUALES Y FUTURAS

ESTUDIANTE, EDISON ANDRES GUZMAN CUELLO

Corporación Universitaria Antonio José de Sucre

Ingeniería de Sistemas

Arquitectura de Computadores Grupo: AA

Ing. Walter Rivera Banquet

24/09/2020
TENDENCIAS Y ARQUITECTURAS DE COMPUTADORES ACTUALES Y

FUTURAS

Las computadoras son dispositivos electrónicos la cual son diseñadas para aceptar datos

que son las entradas y así realizar operaciones o cálculos matemáticos, proporcionando así

resultados que se puedan obtener como las salidas, la computadoras están organizadas en una

secuencia lógica, estas están compuestas por varios componentes que son los dispositivos físicos

que le permiten llevar a cabo una función.

La arquitectura básica de cualquier computador está formada por componentes básicos

como, un procesador, memorias RAM, discos duros, un sistema operativo, dispositivos de

entrada y salida.

Esos componentes están relacionados entre sí gracias a un diseño conceptual y una

estructura operacional, la cual se creó en la época de 1945 y es donde nace la arquitectura de

Von Neumann, cada computadora se basa en el modelo de Von Neumann. Ese modelo define

la computadora como un sistema compuestas por subsistemas tales como: una memoria, una

unidad aritmética lógica, una unidad de control, las entradas y las salidas. El modelo de Von

Neumann establece una estructura de todos los componentes esenciales que debe tener una

computadora y como esos componentes se relacionan entre sí. Una computadora debe incluir los

componentes físicos, a eso se le hace referencia como hardware, y componentes lógicos el cual

se hace referencia como a software. ( JUAN BERNARDO VAZQUEZ GOMEZ, 2012)

En los últimos años las tecnologías en el desarrollo de las computadoras han aumentado y

mejorado su capacidad de procesar los datos, donde estás han evolucionado en comparación a

las arquitecturas de muchos años atrás. La constante mejora de esas tecnologías que estas
implementan han sido sin duda uno de los principales motores de la evolución de los

procesadores, en lo cual el dato más significativo sea el constante aumento de la densidad de los

componentes de un mismo chip, vemos que grandes empresas como INTEL y AMD que se

dedican a la construcción de procesadores, estas han ido evolucionado y mejorando sus

procesadores actuales implementando nuevas arquitecturas, aumentando el número de

transistores en cada chip, lo cual implica hacer mucho más reducidos o más pequeños lo

transistores. Entre más pequeños son los transistores que se utilizan, mayor número de

transistores caben en un mismo Chip. Así que si en un procesador se le introducen millones de

transistores de tamaño diminuto este pueda realizar millones de cálculos u operaciones mucho

más rápidos cada ciclo reloj, que es lo mismo a la velocidad que tiene un procesador.

Existe una tendencia que se ha bautizado como el nombre de Ley de Moore creada por

(MOORE) ex cofundador de INTEL en 1975, que él dice que el número de transistores por

centímetro cuadrado en un circuito integrado se duplicaba en un periodo aproximado de 18

meses. ( JUAN CARLOS CHEANG WONG, 2005)

Hace algunos años, cuando iniciaron la época de las computadoras no era fácil adquirir

una como lo es hoy en día ya que anteriormente se crearon para usos militares, hoy en día resulta

más sencillo adquirir una computadora para uso personal y nos sirve para facilitarnos la vida. La

requerimos para cualquier tipo de tareas, casi para cualquier cosa, desde redactar un texto como

para realizar cálculos matemáticos o procedimientos lógicos, navegar por el internet y para crear

nuevas tecnologías como el desarrollo de aplicaciones.

Las computadoras han pasado por muchos procesos de invocación como la

implementación de nuevas arquitecturas. Estas nuevas arquitecturas implementan una mejorara


tanto en velocidad como en presentación, las computadoras actuales constan con más

velocidades en las de memorias RAM, mas velocidad de lectura y escritura de datos en los

discos duros, y procesadores con mucho mas núcleos e hilos y mejores velocidades de ciclo de

reloj, capaces de realizar diferentes tipos de tareas. En gran parte estas innovaciones en las

computadoras como ya lo había mencionado antes, nos han facilitado la vida y eso es debido a

los avances de las tecnologías implementadas para la construcción de dichas arquitecturas.

Las innovaciones actuales de la arquitectura de los computadores han dependido de las

tecnologías de los circuitos integrados. Los circuitos integrados han ayudado a la fabricación de

los computadores personales, hasta el día de hoy todavía contribuyen en el desarrollo de

procesadores y de otras tecnologías.

La complejidad de los circuitos integrados se ha duplicado aproximadamente cada año

desde su inicio, aunque estos han mejorado en el rendimiento y la confiabilidad de los sistemas.

Muchos aspectos del procesamiento de datos y las tecnologías del diseño han contribuido a que

la fabricación microprocesadores o chip, memorias y otros tipos de tecnología que mejoran el

rendimiento de las computadoras. (MOORE, GORDON E., 2006)

(HENNESSY, JOHN; PATTERSON, DAVID, 1993) En su libro Arquitectura de

Computadores, Un Enfoque Cuantitativo, dice que “Los avances en la tecnología de los

circuitos integrados, las mejoras en la tecnología de compiladores y las nuevas ideas

arquitectónicas, han hecho que los diseñadores hayan podido crear una serie de máquinas donde

se mejoran el rendimiento, en un factor de casi 2, cada año.” Esta ides están ahora

proporcionando una de las mejoras en rendimiento más significativamente sostenidas en estos


últimos años, vemos compañías como INTEL en el diseño de procesadores ha implementado

tecnología de circuitos integrados

(Nature Electronic, 2018) En un artículo destaca lo lejos que ha llegado la compañía de

INTEL en el diseño de los circuitos integrados. Donde informa sobre la tecnología de 10

nanómetros de la compañía, ha mejorado la densidad y el rendimiento de los transistores,

aplicando una técnica para reducir el espacio entre las celdas y un método para agregar contactos

de compuerta directamente sobre el área activa. Entregando como resultado alrededor de 100

millones de transistores por milímetro cuadrado, una densidad de transistores que es 2, 7 veces

más alta que la de su tecnología anterior de 14 nm, que se introdujo en el año 2014.

Con respecto a las nuevas tendencias y tecnologías que se tienen en cuenta para el

desarrollo de las nuevas computadoras están las mejoras de sus componentes internos. A medida

que avanza el hardware de las computadoras, están se han vuelto rápidas y capaces de ejecutar

programas que requieren mucha memoria y de reproducir gráficos de alta definición. Al buscar

mejorar la velocidad de la computadora, se debe de tener en cuenta que haya un equilibrio en

todos sus componentes que evitar cuellos de botellas. Una de las grandes dificultades en la

construcción de las computadoras está en esquivar los cuellos de botella que pueden darse en los

componentes de las Pc, un cuello de botella se da cuando uno de los componentes de un pc

funciona tan rápido que otro no es capaz de ‘seguir su ritmo’, desaprovechando capacidades de

rendimiento y ocasionando ralentizaciones en la pc.

No existe ninguna fórmula capaz de solucionar el problema de los cuellos de botella, pero

lo más recomendable es adquirir componentes que tengan un equilibrio para mejorar el

rendimiento de las computadoras.


Dentro de estas tendencias y tecnologías de los elementos que conforman un computador

están, las tecnologías de las DRAM las cuales han mejorado constantemente en latencias,

presentación, capacidad y velocidad, también la tecnología de los discos duros, apareciendo los

SSD como M.2 con mejores capacidades de lectura y escritura, otros avances importantes están

desarrollo de nuevos procesadores con muchos más núcleos e hilos y mejores velocidades en

frecuencia reloj por parte de las empresas como INTEL y AMD, placas de video con más

capacidad para procesar los datos provenientes del CPU, aumentando para nosotros los usuarios

consumo de contenidos en 4K a muchos más FPS.

Toda esa capacidad de procesar datos nos ha brindado una iteración directa de persona a

máquina, y eso lo vemos reflejado en los asistentes inteligentes, como por ejemplo el asistente

virtual de Google o Alexa de Amazon, los cuales son asistentes virtuales que ayuda a los

usuarios a realizar tareas.

La tecnología se ha venido desarrollando a tal punto que las maquinas tengan

comportamientos autónomos, en la actualidad se le llama inteligencia artificial. La noción de la

inteligencia artificial fue desarrollada en referencia a ciertos sistemas creados por personas que

tienen rasgos racionales pero no son seres vivos, con cualidades autónomas pero hay que aclarar

que las maquinas con este tipo de tecnología no piensen por sí mismas. Los dispositivos que

cuentan con tecnología de la inteligencia artificial pueden ejecutar distintos procesos parecidos

al comportamiento humano.

Hablando de las tecnologías actuales y futuras en cuanto al desarrollo de nuevas

arquitecturas y en la construcción de nuevos procesadores para las computadoras, reina la

competencia constante en la que se mantienen todas las compañías desarrolladoras de estas


tecnologías por ejemplo INTEL vs AMD, esa competencia hace que haya un crecimiento en

nuevas y mejoras en las arquitecturas de los computadores, lo cual es novedoso para nosotros los

usuarios.

Pienso que para el futuro esas tecnologías como el reconocimiento facial por parte de la

inteligencia artificial, computadoras personales creadas para cumplir cualquier tipo de tarea,

computación Cuántica, superordenadores creadas por compañías como Google, y las redes 5G,

en un futuro esas tecnologías nos sorprenderán mucho más de lo que ya nos han sorprendido con

sus nuevas tecnologías, y me resulta una de las tendencias más innovadoras en el mundo de las

nuevas tecnologías ya que el mundo digital no se va acabar, todo lo contrario seguirá creciendo.

Resumen de los videos

En el primero video claramente pude ver la evolución de micro procesador y como ha

sido su crecimiento en el procesamiento de instrucciones, donde mostraban que la primera CPU

comercial fue la INTEL 4004. A mediados del año 1960 fue una revolución en la que ocurrió una

idea de empaquetar transistores en un solo chip creado con silicio.

En 1971 Se lanzó la unidad central de procesamiento INTEL 4004 o CPU, En

comparación, ENIAC, la primera computadora electrónica, solo podía ejecutar 5,000

instrucciones por segundo. Pero lo que hizo que el 4004 fuera tan poderoso no fue solo su

aumento de potencia de procesamiento si no que solo consumió 1 vatio de electricidad.

Mostraban que para poder comprender cómo una CPU obtiene su potencia de

procesamiento, se puede pensar en una CPU como una máquina de procesamiento de

instrucciones que operan recorriendo tres pasos básicos: buscar, decodificar y ejecutar

instrucciones. A medida que los diseños de CPU evolucionaban, estos tres pasos se vuelven
dramáticamente más complicados y se implementan tecnologías que amplían este modelo central

de operación.

La CPU ejecuta todos los programas que se encuentran en la memoria principal. Los

programas están formados por un conjunto de instrucciones y en cada una de ellas se distinguen

dos fases principales, la fase de búsqueda y ejecución de la instrucción

En el segundo video puede ver como la arquitectura X86 llego a dominar el mundo de las

Computadoras de INTEL, IBM, MICROSOFT.

El producto INTEL fue el 8080, primero en la línea de productos INTEL en utilizar un

controlador de bus externo, este chip de soporte es el responsable de la interfaz con la memoria

RAM. El 8080 fue considerado por muchos el primer microprocesador realmente utilizable, sin

embargo, estaban surgiendo arquitecturas de procesadores competidores. Durante los años

siguientes, el auge de la computación de escritorio estuvo dominado por la CPU ZILOG Z80 de

la competencia, que, irónicamente, era una extensión mejorada del 8080 de Intel y fue diseñada

por el ex ingeniero de Intel Federico Faggin. Intel contra eso hizo el lanzamiento del 8086.

Manteniéndose en línea con el espíritu centrado en el software, el soporte de CPU de lenguajes

de programación de alto nivel y se mejoró mediante la adición de instrucciones de pila más

sólidas. En el diseño de software, los fragmentos de código de uso común se estructuran en

bloques llamados subrutina.

En 1960 hasta la de 1970, el paradigma de la multitarea estaba ganando terreno en el

mundo del mainframe, La multiprogramación se logró procesando programas en lotes, saltando

entre ellos durante las regiones de código que esperan la entrada del hardware. En la multitarea,

el enfoque de la CPU se baraja entre los procesos que se ejecutan simultáneamente. La multitarea
cooperativa fue utilizada por muchos de los primeros sistemas operativos multitarea. Siempre

que el sistema operativo le da un enfoque de CPU a un proceso, se basa en el proceso mismo

para devolver el control. A fines de 1984, IBM dio su siguiente paso adelante con el lanzamiento

de su segunda generación de computadora personal, la IBM PC AT. Entre algunos de los nuevos

programas desarrollados para la AT se encontraba un proyecto de Microsoft llamado Windows.

Con el desarrollo inicial a partir de 1981, Windows 1.0 hizo su primer debut público el 10 de

noviembre de 1983.

El 80286 fue pionero en ese momento, ya que fue el primer procesador producido en

masa que admitió directamente sistemas multiusuario con multitarea. El 80286 era capaz de

direccionar 24 bits de memoria o 16 MB de RAM, lo que hacía que el modelo de memoria 8086

fuera insuficiente. Para hacer uso de los 16 MB completos y facilitar la multitarea.


Bibliografía

JUAN BERNARDO VAZQUEZ GOMEZ. (2012). Arquitectura de Computadores.


http://www.aliat.org.mx/BibliotecasDigitales/sistemas/Arquitectura_computadoras_I.pdf.

JUAN CARLOS CHEANG WONG. (2005). Ley de Moore, nanotecnología y nanociencias:


síntesis y modificación de nanopartículas mediante la implantación de iones. Universidad
Nacional Autónoma de México. Dirección General de Cómputo.

HENNESSY, JOHN; PATTERSON, DAVID. (1993). Arquitectura de Computadores, Un


Enfoque Cuantitativo.

MOORE, G. E. (s.f.). Cramming more components onto integrated circuits. Proceedings of the
IEEE.

MOORE, GORDON E. (2006). Progress in digital integrated electronics [Technical literaiture,


Copyright 1975 IEEE. Reprinted, with permission. Technical Digest. International
Electron Devices Meeting. IEEE Solid-State Circuits Society Newsletter,
https://ieeexplore.ieee.org/document/4804410.

Nature Electronic. (2018). 60 years of integrated circuit .

https://hardzone.es/reportajes/que-es/transistor-procesador-gpu/

https://ieeexplore.ieee.org/document/4804410

https://slideplayer.es/slide/5497489/

https://www.welivesecurity.com/la-es/2019/08/16/ignorancia-alrededor-inteligencia-artificial/

https://www.thenewnow.es/negocio/10-tendencias-tecnologicas-que-marcaran-2020/