Documentos de Académico
Documentos de Profesional
Documentos de Cultura
computadores
Angely Daniela Calvache
Juan Vicente Guzmán
Jhoan Sebastian Pantoja
1
ARQUITECTURA DE LOS COMPUTADORES
2
3
La computadora se conforma por dos elementos
principales: hardware y software.
4
El software: se define como el conjunto de instrucciones que dirigen al hardware. Asimismo,
dice que es un conjunto de instrucciones que realizan una tarea específica denominada
programa.
5
MODELO VON NEUMANN
6
La Unidad Lógica Aritmética (ALU: arithmetic logic unit): es donde el cálculo aritmético y
las operaciones lógicas toman lugar.
Menciona además que la definición del subsistema de entrada/salida es muy amplia; también
incluye los dispositivos de almacenamiento secundarios como un disco o cinta que almacena
datos y programas para procesamiento.
7
El disco: es considerado como un dispositivo de salida cuando almacena los datos que se
obtienen como resultado del procesamiento y se considera un dispositivo de entrada cuando se
leen datos del mismo
Otro elemento importante del modelo de Von Neumann establece que el programa debe almacenarse
en la memoria.
8
Según en modelo de Von Neumann un programa se conforma de un número finito de
instrucciones. La unidad de control trae una instrucción de la memoria, la interpreta y luego la
ejecuta. Una instrucción puede requerir que la unidad de control salte a algunas instrucciones
previas o anteriores.
9
INTERPRETACIÓN DE LA COMPUTADORA
El sistema binario se integra por dos valores de dígitos el 0 y el 1, en algunos casos el 0 equivale al
apagado en un circuito y el 1 al encendido.
Las computadoras y calculadoras digitales emplean tanto números negativos como positivos, esto
origina a que se requiera de algún medio para representar el signo (+ o -). Esto por lo general se
logra agregando al número otro bit llamado el bit de signo.
10
● Los computadores sólo pueden digerir
información que ha sido dividida en bits.
CONSTRUCCIÓN DE UN BITS
11
12
CÓDIFICACIÓN DE CARACTERES
13
CÓDIGO DECIMAL BINARIO (BCD-EBCDIC)
Creado por IBM (International Business
Machines).
15
En 1967 se agregaron las letras
minúsculas y algunos caracteres
de control. Por tanto iban desde
el 0 al 127.
16
UNICODE
Unicode es el estándar de codificación de caracteres universal utilizado para la representación de
texto para procesamiento del equipo. Unicode proporciona una manera consistente de codificación
de texto multilingüe y facilita el intercambio de archivos de texto internacionales. Cada símbolo
trabaja con dos bytes (16 bits).
17
Unicode proporciona un solo juego de caracteres que cubre los idiomas del mundo y un
pequeño número de formatos y esquemas de codificación que las máquinas soportan para
ajustarse a las necesidades de las aplicaciones y los protocolos existentes.
El formato UTF-8:
Es capaz de representar cualquier carácter UNICODE.
Usa símbolos de longitud variable (de 1 a 4 bytes por carácter UNICODE)
Incluye la especificación US-ASCII de 7 bits, por lo que cualquier mensaje ASCII se
representa sin cambios.
18