Está en la página 1de 18

arquitectura de los

computadores
Angely Daniela Calvache
Juan Vicente Guzmán
Jhoan Sebastian Pantoja
1
ARQUITECTURA DE LOS COMPUTADORES

Es el diseño conceptual y la estructura operacional


fundamental de un sistema de computadora. Es
decir, es un modelo y una descripción funcional de
los requerimientos y las implementaciones de
diseño para varias partes de una computadora, con
especial interés en la forma en que la unidad central
de proceso (CPU) trabaja internamente y accede a
las direcciones de memoria.

2
3
La computadora se conforma por dos elementos
principales: hardware y software.

 El hardware: se refiere a la parte física de la


computadora: teclado, gabinete, circuitos, cables,
discos duros, impresoras, monitores, etc. El
funcionamiento del hardware depende del software
(programas).

Está compuesto por dispositivos de entrada y de salida.

4
 El software: se define como el conjunto de instrucciones que dirigen al hardware. Asimismo,
dice que es un conjunto de instrucciones que realizan una tarea específica denominada
programa.

5
MODELO VON NEUMANN

En nuestros días cada computadora se basa en el


modelo de Von Neumann. El modelo trata la
computadora como una caja negra, y define cómo
se realiza el procesamiento

Este modelo define la computadora como cuatro


subsistemas: memoria, unidad lógica aritmética,
unidad de control y entrada/salida

6
 La Unidad Lógica Aritmética (ALU: arithmetic logic unit): es donde el cálculo aritmético y
las operaciones lógicas toman lugar.

 La Unidad de Control: determina las operaciones de la memoria, de la ALU y del


subsistema de entrada/salida.

 El subsistema de entrada: acepta datos de entrada y el programa desde el exterior de la


computadora

 El subsistema de salida: envía el resultado del procesamiento al exterior.

Menciona además que la definición del subsistema de entrada/salida es muy amplia; también
incluye los dispositivos de almacenamiento secundarios como un disco o cinta que almacena
datos y programas para procesamiento.

7
 El disco: es considerado como un dispositivo de salida cuando almacena los datos que se
obtienen como resultado del procesamiento y se considera un dispositivo de entrada cuando se
leen datos del mismo

Otro elemento importante del modelo de Von Neumann establece que el programa debe almacenarse
en la memoria.

8
Según en modelo de Von Neumann un programa se conforma de un número finito de
instrucciones. La unidad de control trae una instrucción de la memoria, la interpreta y luego la
ejecuta. Una instrucción puede requerir que la unidad de control salte a algunas instrucciones
previas o anteriores.

9
INTERPRETACIÓN DE LA COMPUTADORA

La computadora como un procesador de información necesita manipular la información, es por ello


que la información se encuentra en forma binaria, es decir, en lenguaje de máquina en donde los
símbolos que la conforman son el 0 y 1, respectivamente representan encendido y apagado. Es por
medio de estos símbolos que se rige el funcionamiento interno del equipo de cómputo.

El sistema binario se integra por dos valores de dígitos el 0 y el 1, en algunos casos el 0 equivale al
apagado en un circuito y el 1 al encendido.

Las computadoras y calculadoras digitales emplean tanto números negativos como positivos, esto
origina a que se requiera de algún medio para representar el signo (+ o -). Esto por lo general se
logra agregando al número otro bit llamado el bit de signo.

10
● Los computadores sólo pueden digerir
información que ha sido dividida en bits.

● Un bit es la unidad más pequeña de


información.

CONSTRUCCIÓN DE UN BITS

 Los bits como números.


 Los bits como códigos.
 Los bits como instrucciones en
los programas.

11
12
CÓDIFICACIÓN DE CARACTERES

 Al principio de la historia de la computación, los


programadores se dieron cuenta de que necesitaban
un código estándar, un sistema en el que todos
pudieran estar de acuerdo con respecto a qué
números representarían las letras del alfabeto, los
signos de puntuación y otros símbolos.

 EBCDIC, ASCII y Unicode son tres de los


sistemas más populares que fueron inventados.

13
CÓDIGO DECIMAL BINARIO (BCD-EBCDIC)
 Creado por IBM (International Business
Machines).

 El BCD fue uno de los primeros sistemas


completos para representar símbolos con
bits.
 Los códigos BCD constan de 6 bits, los
cuales permiten 64 símbolos posibles.

 Los códigos EBCDIC (Extented Binary


Coded Decimal Interchange Code).

 Ya este código trabaja con 8 bits, lo que


pemitía trabajar con 256 símbolos.
14
ASCII
HISTORIA:

ASCII (American Standard Code for Information


Interchange): actualmente es el más común. Creado por
1963 por Comité Estadounidense de estándares (ASA).
Que en 1969 fue llamado Instituto estadounidense de
estándares nacionales (ANSI).

Este código nació de reordenar y expandir el conjunto


de símbolos y caracteres utilizados en esa época.
Inicialmente solo incluía letras mayúsculas y algunos
símbolos.

15
En 1967 se agregaron las letras
minúsculas y algunos caracteres
de control. Por tanto iban desde
el 0 al 127.

 Del 0 al 31 son caracteres de


control, del 32 al 64 son
caracteres especiales y números,
del 65 al 96 son letras
mayúsculas y del 97 al 127 letras
mayúsculas. (Código de 7 bits.)

 En 1981, IBM desarrolló una


extensión del código ASCII
llamada página de código 437.

16
UNICODE
Unicode es el estándar de codificación de caracteres universal utilizado para la representación de
texto para procesamiento del equipo. Unicode proporciona una manera consistente de codificación
de texto multilingüe y facilita el intercambio de archivos de texto internacionales. Cada símbolo
trabaja con dos bytes (16 bits).

17
 Unicode proporciona un solo juego de caracteres que cubre los idiomas del mundo y un
pequeño número de formatos y esquemas de codificación que las máquinas soportan para
ajustarse a las necesidades de las aplicaciones y los protocolos existentes.

 Los formatos UNICODE que más se utilizan son:


1. UTF-32
2. UTF-16
3. UTF-8

 El formato UTF-8:
Es capaz de representar cualquier carácter UNICODE.
Usa símbolos de longitud variable (de 1 a 4 bytes por carácter UNICODE)
Incluye la especificación US-ASCII de 7 bits, por lo que cualquier mensaje ASCII se
representa sin cambios.

18

También podría gustarte