Está en la página 1de 29

Módulo 1 - Lectura 1

Sistema Decimal: Es un sistema posicional en potencias de diez, donde la primera posición


corresponde a 10^0, la segunda con 10^1 y así sucesivamente.

Sistema Binario: Al recibir las computadoras solo 2 señales Corriente (1) y no corriente (0) este
sistema se basa en potencias de dos, por lo que la primera posición corresponde a 2^0, la
segunda con 2^1 y así.

Sistema Hexadecimal: Tiene 16 carácteres distintos que van del 0 al 9 y de la A a la F y se basa


en potencias de 16

Mientras más complejo es el sistema usaré menos carácteres pero tendré mayor cantidad de
carácteres distintos Ej: 8A5F2 = 10001010010111110010

Codificación: Transformar nuestro lenguaje al lenguaje de una computadora. Es la relación entre


la información a procesar y el sistema numérico de la pc, asignando una combinación a cada
carácter que se represente.

Bit (binary digit): Mínima unidad de información que viaja y se almacena en un computador.
Byte (binary term): Grupo de 8 bits. Con este se pueden representar hasta 256 símbolos (2^8)

Representaciones alfanuméricas: Son necesarias para codificar números y letras, de ahí el


nombre de carácteres alfanuméricos. Ej: El código ASCII utiliza 7 bits para representar 128
carácteres distintos, luego está el ASCII extendido que agrega 1 bit, permitiendo 256 carácteres.
Unicode: Código que se utiliza actualmente, es una tabla que asigna un código de 32 bits a cada
uno de los símbolos de todos los alfabetos. Tiene 3 variantes UTF-8, UTF-16 y UTF-32

Representaciones decimales: El medio byte (nibble= 4 bits) es una medida menos conocida pero
es muy usada porque abarca a los decimales, los sistemas que utilizan esta medida se los
denomina CÓDIGOS PONDERADOS. Por ejemplo:
BCD código decimal codificado a binario y sus variantes, BCD puro o natural, BCD
exceso tres: Debe sumarse un 3 binario a cada cifra.

Lectura 2

Transistor: Clave para el funcionamiento de productos de electrónica, sustituyó a la válvula de


vacío. Para los ordenadores cada vez más complejos se necesitaba gran cantidad por lo que fue
prioridad reducir su tamaño. Pero aunque su tamaño fuera muy pequeño se necesitaban
muchos cables de interconexión por lo que fue inviable.

Circuito Integrado (CI): Fue la solución que encontraron a los transistores. El circuito integrado
es una única pieza de semiconductor con todos los elementos del circuito en él. Esta idea la
tuvieron dos científicos de empresas rivales Jack Kilby (Texas Instrument) y Robert Noyce
(Fairchild Semiconductors). Kilby presentó su patente primero y lo denominó circuito sólido, pero
la oficina de patentes de EEUU concedió la primera patente a la invención de Noyce quien lo
denominó circuitos unitarios y había solicitado la patente un año después. Se los reconoce a
ambos la autoría de los circuitos integrados, CI y Kilby recibió el Premio Nobel de física en el
año 2000.

En 1961 Fairchild comercializó su primer CI, se instaló en las calculadoras del ejército de EEUU
y un año después Texas Instrument comercializó el suyo en aviones de la fuerza aérea y en el
sistema de guía de los misiles Minuteman.

Los primeros CI integraban unas pocas decenas de transistores y hoy en día hay CI con
millones de transistores. El aumento del número de transistores por CI sigue una tendencia
conocida como Ley de Moore, quien anunció en 1965 que el número de transistores de un CI se
duplica cada dos años.

Una de las funciones principales de los microprocesadores es realizar cálculos matemáticos.

Compuertas lógicas: Para cambiar el estado en un conmutador electrónico se utiliza una señal
binaria que se denomina señal de control o de entrada. Esta regula el flujo de un voltaje por
medio del conmutador obteniendo otra señal binaria que se denomina señal de dato o de salida
del conmutador.

Circuito de conmutación: Agrupación de varios conmutadores relacionados entre sí. Para


diseñarlos se utiliza el Álgebra de Boole. Los primeros circuitos se diseñaron con contactos
donde el 0 representa un contacto abierto y el 1 un contacto cerrado, por esto se les dicen
compuertas. Así es posible realizar operaciones matemáticas básicas que son:

//Cuadro comparativo con gráficos incluidos

Compuerta IF o buffer:
Mantiene una salida igual al valor que tiene en la entrada.

Compuerta NOT:
Invierte a la salida el valor que tiene en la entrada.

Compuerta AND:
Multiplica a la salida los valores binarios que tiene en la entrada. (se multiplican los
valores de dos entradas)

Compuerta OR:
Suma a la salida los valores binarios que tiene la entrada.

Compuerta XOR
Es verdadera sólo si, una y solo una de las entradas es verdadera, si las dos son falsas o
las dos son verdaderas resulta en una salida falsa.

//

Circuitos combinacionales: Permiten que las salidas obtengan valores binarios transformados
por la operación de las compuertas vinculadas en él y cuyo valor depende únicamente de los
valores establecidos en las entradas.
Circuitos secuenciales: Estos no solo dependen de las entradas, también dependen de la
evolución anterior de este. Hay dos tipos de circuitos secuenciales según las señales de tiempo.

Circuito secuencial sincrónico: Utiliza flip-flops (elementos de almacenamiento). Se


permite que cambien sus valores binarios solamente en instantes discretos de tiempo. La
sincronización se logra por un generador de pulsos de reloj. Estos pulsos solo afectan a los flip-
flops con la llegada del pulso de sincronización

Circuito secuencial asincrónico: Sus salidas dependen del orden en el que sus variables
de entrada cambian y pueden afectarse en cualquier instante de tiempo. Tienden a ser
inestables.

Flip-Flop RS NAND o NOR:


R= reset y S = set. En ambos cuando la entrada r=1 significa reset por lo tanto la salida Q va a
ser 0 y cuando la entrada s=1 significa set por lo que la salida Q va a ser 1
En los NAND cuando ambos sean 1 (r y s) significa memoria por lo que va a devolver la
salida que estaba antes (va a quedar igual el valor de Q) y cuando ambos sean 0 (r y s) el valor
es indefinido
En las compuertas NOR cuando ambos sean 1 (r y s) el valor de salida es indefinido y
cuando ambos son 0 (r y s) significa memoria por lo que el valor de Q va a ser el mismo.

Registros: Función digital que permite retener información de forma temporal. Están compuestos
por uno o más biestables. Son los tipos de memoria más rápida.
Tipos de registro:

Registros paralelo-paralelo: Transfieren información.


Registros contadores: Cuentan eventos
Registros de desplazamiento: Realizan operaciones aritméticas mediante
desplazamientos

La construcción interna de una memoria de acceso aleatorio de “m” palabras con “n” bits por
palabra consta de “m*n”celdas de almacenamiento binario. La celda de almacenamiento binario
es el bloque de construcción básico de una unidad de memoria.

Lectura 3

La arquitectura Von Neumann

Su fundamento principal era que no fuera necesario tocar el hardware para realizar otro trabajo y
que lo único que se tuviera que modificar fuera el programa guardado en la máquina.

Esta arquitectura cuenta con: Memoria, Unidad aritmético-lógica (ALU), Unidad de control (UC) y
Dispositivos de entrada/salida
La secuencia básica de operaciones para procesar datos sería:

1) Encender el ordenador, 2) obtener la instrucción y los datos desde la memoria, 3)


aumentar el contador de programa de la instrucción, 4) decodificar la instrucción
mediante la unidad de control, 5) ejecutar la instrucción utilizando los datos y 6) volver al
paso n°2.

Organización y estructura de un computador


Buses de interconexión: Transfieren datos, instrucciones y resultados.

La CPU (Unidad de Procesamiento Central) se divide en tres unidades: Ejecución,


decodificación y prebúsqueda. Un microprocesador es una CPU compleja capaz de realizar gran
cantidad de operaciones, estos tienen una longitud de palabra de 64 bits.

● La unidad de prebúsqueda se conecta con la memoria principal para recolectar datos e


instrucciones, almacena las instrucciones en una cola hasta que son enviadas a la
unidad de decodificación.
● La unidad de decodificación se encarga de convertir las instrucciones a un microcódigo
(lenguaje de menor nivel).
● La unidad de ejecución son los registros del CPU y la ALU quien ejecuta la instrucción.
La ALU está compuesta por circuitos que realizan operaciones aritméticas y lógicas.

Dispositivos de entrada/salida:
Son los encargados de transferir los datos para que la CPU los procese o guardarlos y
mostrarlos cuando ya fueron procesados. Por ejemplo: Teclado y mouse (entrada), monitor
(salida) y pantalla táctil (entrada/salida).
Dispositivos de entrada: Permiten el ingreso de los programas y los datos de entrada a la
memoria principal. Dispositivos de salida: Permiten el egreso de los resultados. Dispositivos de
Entrada/Salida: Almacenan datos, instrucciones y resultados.

Memorias
Almacena datos de entrada, todas las instrucciones del programa y resultados. Guarda
información transitoria para el procesamiento en curso. La CPU está asociada a la memoria
principal para obtener las instrucciones, los datos y almacenar los resultados.

Buses
Interconexión que se realiza por medio de líneas de comunicación físicamente presentes en la placa
electrónica que contiene la CPU que permite la conducción de señales binarias. Conecta a todas las
unidades funcionales. Se clasifican según el tipo de agrupaciones de bits que transfieren:
Buses de control, buses de datos y buses de direcciones.

Lectura 4

Capacidad
Trabajamos sobre un sistema de base 2 y longitud de 8 (byte), tenemos 2^8 posibles combinaciones.
Los múltiplos de byte son estos:
B Byte 1 Byte

KB Kilobyte 1 024 bytes

MB Megabyte 1 048 576 bytes

GB Gigabyte 1 073 741 824 bytes

TB Terabyte 1 099 511 627 776 bytes

En los inicios las unidades se mostraban como múltiplos de 1000 pero en 1960 se empezó a confundir
1000 con 1024.

En 1998 la Comisión Electrotécnica Internacional (IEC) propuso otros prefijos un kilobyte debería ser
denominado kibibyte (KiB) “Kilobyte binario”.

Velocidad
Las memorias y los microprocesadores son circuitos secuenciales sincrónicos, trabajan con base en
los pulsos de un reloj interno. La mínima unidad de trabajo es la llamada frecuencia de reloj, no es una
velocidad, es una frecuencia (medida inversa del tiempo). Esta frecuencia se mide en Hertz, es decir, la
cantidad de veces que sucede algo durante un período de un segundo.
Un procesador o memoria que trabaje con un reloj de mayor frecuencia trabajará más rápido.

Hercio/Hertz (Hz) Unidad de medida. 1 Hz es un evento que tiene lugar una vez por segundo. Esta
unidad de frecuencia también tiene múltiplos:

Hz Hercio 1 Hercio

KHz Kilohercio 1000 hercios

MHz Megahercio 1 000 000 hercios

GHz Gigahercio 1 000 000 000 hercios

Un reloj con una frecuencia de 1 GHz tiene capacidad de hacer 1.000.000.000 de veces “tic” en un
segundo.

Jerarquías de memoria
La primera clasificación está basada en tres factores clave para su distinción: La permanencia
de datos, La velocidad de acceso y El costo.

Distintas clases de memorias con estas características:

ROM: (Read-Only Memory) Solo lectura, forma parte de los dispositivos lógicos programables (PLD).
Esta memoria constituye firmware, que sería, software metido físicamente en hardware. Proveen el
medio físico para almacenar esta información. Antes los ordenadores venían con todo su sistema
operativo en ROM, hoy en día solo conserva programas críticos como la BIOS.

EEPROM (Electrically Erasable Programmable Read-Only Memory): Memoria de solo lectura


eléctricamente programable y borrable, es un tipo especial de PROM. Inventada en 1983 de gran
flexibilidad pero con una celda de memoria más compleja. Se puede encontrar en receptores de
televisión. Las palabras almacenadas en memoria se pueden reprogramar y borrar eléctricamente de
forma individual, no necesitan una alta tensión para el grabado.

FLASH: Memoria inventada en 1984 por Toshiba, deriva de la EEPROM y permite eliminar y
reprogramar el contenido de esta a velocidades superiores sin sufrir ningún daño. Menor costo de
fabricación y más sencillo. Solo permiten un número limitado de escrituras y borrados, dependiendo de
la celda

RAM (Random Access Memory): Típica memoria para almacenar datos. Es volátil pero barata y rápida.
Sus tiempos de acceso y ancho de banda son mucho más rápidos que el disco duro. Existen varios
tipos de memorias RAM:
Estáticas:
● SRAM: Static Random Access Memory, a base de transistores, no necesita electricidad
constantemente. Muy rápidas pero costosas.
Dinámicas
● DRAM: Dinamic Random Access Memory, a base de capacitores, necesita electricidad
constantemente. Baratar pero más lentas. Asíncronas.
Dinámicas Sincrónicas
● SDRAM: Synchronous Dinamic Random Access Memory, mismas características que
las dinámicas, sólo que síncronas. Mayor consumo de energía.
Dinámicas de doble tasa de transferencia
● DDRAM: Double Data Rate (DDR-SDRAM) del mismo tamaño que la SDRAM
pero con más conectores. DDR: con 184 pines a 2,5V DDR2: con 240 pines a
1,8V y DDR3: con 240 pines a 1,5V
Estas son las más usadas por las computadoras actualmente y tienen infinidad de
versiones.

Caché de disco: Memoria caché, su propósito es mantener allí datos que se consultan a menudo, esto
ocurre tanto en procesadores como en discos duros. Los tamaños habituales son: 16 MB, 32 MB y
64MB.

MÓDULO 2 - Lectura 1 - Funciones y componentes básicos de la motherboard


Historia:
Antes existían las ranuras (slots) ISA que permitían la incorporación de componentes, como las placas
multifunción. Estas ranuras hoy en día no fueron cambiadas pero se insertaron otras ranuras más
pequeñas y con mayor velocidad. Por ejemplo la ranura PCI donde se conectan las placas de video,
red, modem y sonido (en los tiempos de los primeros PENTIUM 1993) luego se incorpora la ranura
AGP dirigida solamente a tarjetas de video que requieren mayor velocidad y tambíen aparece el puerto
USB para conectar cualquier dispositivo.
Estos cambios también se dieron en las ranuras de memoria, donde se da paso a grandes
capacidades de memoria RAM, creando ranuras más grandes como las DIMM.
Otro componente que ha evolucionado es el chipset que se encarga de crear toda la interacción entre
los componentes internos. Son de vital importancia y de este elemento depende la velocidad interna
del computador.
La primera placa base (MYCRO 1) surgió en 1975 de la empresa Norsk Data Industri. La
segunda placa base (KIM - 1) surgió en 1976 por la empresa MOS Technology. La tercera (XT) surgió
en 1981 por la empresa IBM. La cuarta (AT) se basa en el estándar IBM PC-AT que fue estándar
absoluto durante años. El último formato de placa base (ATX) promovido por INTEL se introdujo en
1996.
COMPONENTES:
La placa madre es un hardware fundamental de la computadora, se encarga de la
interconexión de los demás componentes: Procesador, memoria RAM e interfaces de E/S. Todos los
componentes están soldados a la placa madre o sujetos mediante zócalos.
Es una placa electrónica del tipo PCB (printed circuit board), poseen más de una capa que se
separan mediante materiales aislantes. Cada capa dispone de interconexiones o buses.

Componentes principales:
Chipset: Se divide en dos
Northbridge (puente norte) y
Southbridge (puente sur). Ambos
controlan la circulación de
información entre los diferentes
dispositivos de una computadora.
El Northbridge se comunica
directamente con el CPU, la
memoria, la interfaz gráfica y el
southbridge. Realiza una gran
cantidad de cálculos, por lo que está
acompañado de sistemas de
disipación de calor. (Puede que
algunos procesadores incluyan
estas funciones directamente)
El southbridge interconecta los diferentes buses y controla la función de acceso directo
a memoria (DMA).
Clock o reloj: Los dispositivos que componen una computadora deben trabajar coordinados el clock es
el que marca el paso para todos los componentes que trabajan de forma síncrona. Cuando hablamos
de velocidad de la PC se habla de la mayor frecuencia de trabajo de este reloj. En una PC de 3 GHz
puede oscilar a una frecuencia de 3 mil millones de veces por segundo. El generador de clock utiliza
un cristal de cuarzo que vibra a frecuencia constante.

BIOS: (Basic Input/Output System) es un firmware y es lo primero que se ejecuta cuando se enciende
una computadora. El programa almacenado en la BIOS se encarga de realizar pruebas sobre el
hardware para luego dar lugar a un programa que se encarga de iniciar el sistema operativo.
Actualmente es accesible y configurable, y se guardan en una memoria tipo CMOS.
Sus tareas fundamentales son: Realizar una auto-revisión para conocer en detalle datos de la
BIOS y el procesador instalado en la PC. Revisar la memoria RAM instalada en el sistema. Realizar la
detección de componentes de hardware. Efectuar la activación de otras BIOS específicas como la de
la tarjeta de video y controlar su funcionamiento. Buscar y cargar configuraciones almacenadas (fecha
y hora). Definir qué unidad es la adecuada para arrancar la computadora y buscar en ella el sistema
operativo.

Zócalos o slots: Es un puerto de conexión de dispositivos que evita que los componentes vengan
soldados, permite que modelos de procesador puedan ser instalados según el criterio del usuario.
Además permite expandir la funcionalidad de la computadora al agregar dispositivos de expansión.
Dispositivos on-board: Dispositivos soldados directamente sobre la placa base, ahorrando costos y
aumentando la velocidad. Estas mothers se denominan on-board.

Diseños
Existen diversos modelos de motherboards dependiendo de la función de la PC, están las
diseñadas para multiprocesamiento y masivas cantidades de memoria RAM, o motherboards utilizadas
en un smartphone.

LECTURA 2 - CONEXIÓN CON EL EXTERIOR

Desde 1878 implementaron el conector de 6.3 mm llamado conector TS (tip/sleeve) usado


inicialmente por los operadores de telefonía para intercambios de líneas. La mayoría conoce la versión
miniaturizada de 3.5 mm el conector Jack o TRS (tip/ring/sleeve) que puede ser monoaural, estéreo,
con micrófono integrado o salida de video compuesto.

Interfaces
Para conectar los dispositivos externos a una motherboard se necesita una interfaz o puerto de
comunicación. Sirve para mediar entre dos dispositivos de distintas velocidades y configuraciones.
Existen dos estrategias de implementación dependiendo del modo en que se van a comunicar los
datos.

Interfaz paralela: Realiza la transmisión/recepción entre un dispositivo de E/S y la motherboard


con varias líneas de transmisión de datos de forma sincrónica.
Estas son:
● Interfaz IDE o ATA: Desarrollada para conectar dispositivos de almacenamiento
masivos, como discos duros (HDD). IDE (integrated drive electronics) dejaba en manos
del disco el control, la conexión con la mother era directa a través del cable “plano”.
Soportaba una velocidad de transferencia de 4 Mbps que quedó obsoleta pero fue
evolucionando para soportar mayores velocidades. En la interfaz ATA se permite
conectar como máximo dos dispositivos por bus. El orden de los dispositivos sería
“maestro, esclavo”, el maestro sería el dispositivo que reciba los datos y el esclavo el
que envíe.
● Interfaz SCSI (small computer system interface): Desarrollada para la conexión de HDD,
define un bus específico de conexión, las líneas de interconexión y un protocolo para
interconectar los diferentes dispositivos. Actualmente es popular en estaciones de
trabajo de alto rendimiento y servidores.
● Interfaz Centronics: Permite la transferencia a nivel de bytes, ya que posee 8 líneas
para datos y su conector es DB-25 con 25 pines. Usualmente utilizada para conectar
impresoras y llegó a contar con 4 versiones. Luego de la aparición y masificación del
puerto USB, esta interfaz cayó en desuso. De las 25 líneas, 8 eran para transferir datos,
8 para tierra y el resto para control y estado.
Interfaces serie: Estas poseen solo un canal para la transmisión de datos. Algunas son:
● Interfaz RS-232 (EIA-232): Fue diseñada para interconectar computadoras y periféricos
o computadoras entre sí durante la década de 1960. Fue muy utilizada para
intercambiar datos a largas distancias. Cada línea se usa específicamente para
transmisión o recepción. Designa una norma para el intercambio de datos binarios serie
entre un DTE (Data Terminal Equipment) como una pc y un DCE (Data communication
equipment) como un módem. Esta interfaz está diseñada para imprimir documentos
para distancias cortas, de hasta 15 metros y velocidades de comunicación bajas. Esta
interfaz está en desuso por su baja performance pero es muy útil por ser simple y
confiable.
● Interfaz SATA (serial advanced technology attachment): Es una interfaz de bus de
computadoras para la transferencia de datos entre la placa base y algunos dispositivos
de almacenamiento. SATA proporciona mayores velocidades, optimiza cuando hay
varias unidades, mayor longitud del cable de transmisión de datos y capacidad para
conectar unidades al instante. Simplifica los cables y conectores (en lugar de cables de
80 hilos paralelo, un cable serie). Las 3 versiones de SATA I, SATA II y SATA III son
compatibles y cada una duplica el ancho de banda de la anterior (SATA I frecuencia de
1500 MHz y transferencias de 1,5 Gbps). Esta es una arquitectura “punto a punto” (La
conexión entre puerto y dispositivo es directa) y los pines de energía están separados
de los de datos.
● Interfaz SAS (serial attached SCSI (small computer system interface)): Sigue utilizando
comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y
permite la conexión y desconexión de forma rápida. Aumenta la velocidad de
transferencia al aumentar el número de dispositivos conectados, puede gestionar una
tasa de transferencia constante para cada dispositivo conectado. El conector es el
mismo que utiliza la interfaz SATA, por lo tanto, los discos SATA pueden ser utilizados
por controladoras SAS pero no a la inversa.
● Interfaz USB (universal serial bus): Bus de comunicaciones que define los cables,
conectores y protocolos usados en un bus para conectar, comunicar y proveer
alimentación eléctrica entre pc, periféricos y dispositivos electrónicos. Al crear esta
interfaz se buscaba unificar la forma de conectar periféricos a sus equipos. En 1998 se
comenzó a usar de forma masiva. Se clasifican en 4 tipos según su velocidad de
transferencia de datos:
■ Baja velocidad (1.0): Tasa de transferencia de hasta 1,5 Mbit/s (188
kB/s). Utilizado mayormente por dispositivos de interfaz humana
(teclados, mouse y cámaras web).
■ Velocidad completa (1.1): Tasa de hasta 12 Mbit/s (1,5 MB/s). Dividen el
ancho de banda de la conexión USB entre ellos, basados en un algoritmo
LIFO.
■ Alta velocidad (2.0): Tasa de hasta 480 Mbit/s (60 MB/s) pero real de 280
Mbit/s (35 MB/s). Este cable dispone de cuatro líneas, un par para datos
y otro para alimentación.
■ Velocidad superalta(3.0): Tasa de hasta 4,8 Gbit/s (600 MB/s). Velocidad
10 veces más rápida que USB 2.0 porque incluyeron 5 contactos
adicionales. 2009 se lanzó la primera placa base que incluía este puerto.
■ Velocidad superalta + (3.1): Tasa de 10 Gbit/s (1.25 GB/s).
■ Velocidad superalta + (3.2): Tasa de 20 Gbit/s.
■ USB 4: Permite hasta 40 Gbit/s, la convergencia del ecosistema USB-C y
minimizar la confusión. Es compatible con USB 3.2 y USB 2.0
Las señales del USB se transmiten en un cable de par trenzado con impedancia
de 90 Ω + 15% y sus hilos se denominan D+ y D-10, utilizan señal diferencian en
half duplex (los 2 cables se utilizan tanto para transmitir y recibir pero no al
mismo tiempo). El USB 3.0 utiliza un segundo par de hilos también con señal
diferencial para realizar una comunicación full duplex que permite transmitir y
recibir al mismo tiempo. El USB es un bus en serie de alta velocidad que utiliza
una topología estrella extendida (el límite de HUB externos es de 5 y el de
dispositivos 127)
El USB es capaz de alimentar a los dispositivos que se conectan al bus.

LECTURA 3 (M2) - CONEXIÓN INTERNA (buses).

Historia: El bus S-100 uno de los primeros buses de datos (1974), fue el primer bus estándar de la
industria para los fabricantes de microordenadores. La placa base se dividió en cuatro tarjetas
separadas, con la CPU en la cuarta. Necesitaban entonces un suministro barato de conectores y por
ello eligieron un conector tipo bornera de 100 pines.

El procesador se comunica con la memoria para obtener datos e instrucciones; luego de


procesarlos, los vuelve a colocar en la memoria. El procesador también puede obtener datos de un
dispositivo de E/S, procesarlos y devolverlos.
El bus es un sistema digital que transfiere datos entre los componentes de una computadora.
Está formado por cables o pistas en un circuito impreso, resistores y condensadores (además de
circuitos integrados). Existen 2 tipos de transferencia en los buses: En serie y paralelo. En paralelo
aunque parece más eficiente, presenta inconvenientes: La frecuencia de reloj tiene que ser más
reducida que en serie, la longitud de los cables que forman el bus está limitada, además de que los
buses serie modernos están formados por varios canales y transmiten por varios buses serie
simultáneamente. La tendencia últimamente es reemplazar los buses paralelos por buses serie que
son más difíciles de implementar pero dejan velocidades de transferencia más elevadas y permiten
longitudes de cable mayores.
Otra característica de los buses es la interconexión, es decir, que el mismo bus es compartido
por más de un dispositivo (todos conectados con todos), se habilita un solo dispositivo para que utilice
el bus en un determinado momento. Según el tipo de información que transportan los buses se
clasifican en 3:
● Bus de direcciones: Bus unidireccional de la CPU a la memoria o a los elementos de entrada y
salida.
● Buses de datos: Bus bidireccional, los datos pueden fluir hacia o desde la CPU, pueden ser
entradas o salidas según la operación que se esté realizando. El “ancho” de este bus es una
medida de la rapidez de procesamiento y comunicación entre los distintos componentes. Antes
de utilizar el bus de datos se debe usar el bus de dirección para indicarle al dispositivo dónde
debe buscar los datos.
● Bus de control: Se usa para sincronizar las actividades y transacciones con los periféricos del
sistema. Estas son señales que la CPU envía para indicar qué tipo de operación se espera en
ese momento.
Para todos los buses su ancho es la cantidad de líneas paralelas que lo componen. Un bus de 32 bits
tiene 32 líneas paralelas capaces de intercambiar información. Mientras más ancho sea el bus, más
bits se podrán intercambiar de forma paralela.
Físicamente los buses son líneas conductoras grabadas en la motherboard. Los componentes tienen
zócalos para integrarse a dichos buses.

Jerarquía de buses

Este tipo de clasificación de buses está basada en la tasa de uso de los dispositivos de la motherboard
y en su facilidad/velocidad de acceso.
● Bus local que conecte el procesador a una memoria caché y al que pueden conectarse
dispositivos locales de alto uso que respondan a la velocidad de procesamiento. Este
bus abarca el 80% de las transacciones del procesador.
● Bus del sistema: El controlador de memoria caché conecta la caché al bus local y al bus
de sistema, donde se conectan todos los módulos de la memoria principal. Este bus
abarca el 15% de las operaciones del procesador.
● Bus de expansión: El 5% restante de las operaciones se realiza como una operación de
entrada/salida, utilizando puertos o interfaces los cuales son más lentos que la
velocidad de procesamiento.
Una solución más eficiente es utilizar varios buses de expansión (ya que la interfaz del bus de
expansión regula las transferencias de datos entre el bus de sistema y los controladores conectados al
bus de expansión).
Otro diseño utiliza un bus adicional, denominado bus de alta velocidad para las necesidades de ciertos
dispositivos como placas de video o redes de alta velocidad.

Arbitraje de bus

Determina qué dispositivo puede utilizarlo en un determinado momento para evitar


solapamiento de datos. Existen dos métodos de arbitraje:
● Centralizado: Existe un dispositivo encargado de controlar a todos los demás.
● Distribuido: Todos los dispositivos conectados a un bus deben controlar su acceso.
En cualquiera de los dos métodos el dispositivo puede hacer uso del bus para escribir o leer datos. El
disp. que origina la petición se denomina maestro y el que recibe, esclavo.

Buses comerciales: Se trata de la conexión externa de dispositivos. Hay puertos de E/S


definidos para manejar estas comunicaciones, también existen conexiones director a los buses para
agilizar las transferencias de datos entre dispositivos y el procesador o la memoria. Estos son: PCI-
Express x16, PCI-Express x1, AGP y PCI.
Los buses externos han evolucionado, el bus ISA (industry standard architecture) fue muy popular en
los 80 su ancho era de 8 o 16 bits y soportaba una velocidad de 6Mbps. El bus PCI, popular en los 90,
con un ancho de 32 o 64 bits y logró velocidades de hasta 4,3 Gbps. En esa misma década el bus
AGP fue concebido para interconexión de placas de video, con un ancho de 32 bits y transferencias de
hasta 17 Gbps. Actualmente son muy populares PCI Express (Ancho de 1 a 32 bits y velocidad de
hasta 31,5 Gbps) e Infiniband (hasta 96 Gbps.)
PCI-E a diferencia de PCI utiliza enlaces serie. Las x hacen referencia a la cantidad de carriles serie
disponibles.
El chipset es la raíz de la arquitectura e interconecta al procesador, la memoria y un switch de
interconexión. Este switch maneja los diferentes flujos provenientes de diversos dispositivos PCI-E.
PCI Express permite que dispositivos PCI puedan ser utilizados y así brinda compatibilidad.

Las interacciones PCI-E se dan utilizando protocolos y diferentes niveles o capas. Se definen 3
niveles o capas.
● Capa física: Cables y circuitos
● Capa de enlace de datos: Control de flujo y confiabilidad en las transferencias.
● Capa de transacción: Implementa el uso de paquetes.
Infiniband usa un bus serie bidireccional. En principio se diseñó como una red para conectar
procesadores y proporcionar funciones de entrada/salida de alta velocidad para las aplicaciones de
bajo nivel. Sin embargo su uso ha sido menor, hoy en día se utiliza para clústeres de alto rendimiento.

LECTURA 4 (M2) INTERCONEXIÓN CON PERIFÉRICOS DE E/S

Los módulos de entrada/salida son tan importantes como la memoria o el procesador. Sin ellos
no se podría interactuar con las computadoras y la información no podría almacenarse o copiarse de
un lugar a otro. No utilizan el bus del sistema, utilizan un módulo de E/S o puertos de interconexión
para conectar estos dispositivos llamados periféricos.
Periféricos externos: Permiten el intercambio de datos entre la computadora y el exterior. Se
clasifican en:
● De interacción con humanos. Pantallas, parlantes, teclados, impresoras o mouse.
● De interacción con otras máquinas. Discos externos y sensores.
● De comunicación. Permiten ambos tipos de interacciones, como enviar información de
un monitor remoto que es observado por una persona.
El puerto donde se conecta el dispositivo se utiliza para intercambiar señales de control, estado y
datos entre el módulo de E/S y el dispositivo externo. Existe una lógica de control que se conecta con
el módulo de E/S de la computadora y determina qué operación debe realizar. Los datos que llegan
desde el módulo de E/S pasan por un buffer, y el transductor convierte las señales eléctricas en el tipo
de señales que el periférico utiliza.

Módulos de E/S: Estos deben realizar las siguientes funciones:


● Identificar la dirección de la CPU que requirió el dispositivo externo
● Efectuar la transferencia de datos entre la CPU y el dispositivo.
● Recibir los comandos generados por la CPU
● Mantener el estado del periférico y la comunicación con este
● Almacenar temporalmente información
● Realizar detección de errores.
El control y la temporización sirven para poder coordinar la comunicación entre los dispositivos
externos y los recursos internos de la computadora. El almacenamiento temporal de datos tiene como
objetivo arbitrar entre la gran diferencia de velocidad que manejan los dispositivos internos y los
externos. Si no existiera un buffer, los dispositivos internos saturarían a los externos.

Estructura del módulo: Un módulo de E/S se conecta a través del bus del sistema a las líneas de
control, datos y dirección. Para cada uno de ellos tendrá una lógica con una interfaz en la cual se
realice el control, se obtenga el estado y se transfieran los datos. Este módulo permite ocultarle al
procesador las características propias de cada dispositivos, para que solo se limite a escribir o leer
información.

Administración de operaciones de entrada/salida


Intercambiar datos entre el procesador, la memoria y el módulo de E/S puede ocurrir de tres
maneras:
● E/S programada: La CPU tiene un control absoluto sobre los módulos, se hace poco
eficiente, porque el procesador debe controlar el estado del módulo sin realizar otra
tarea.
● E/S con interrupciones: El procesador sigue siendo el encargado pero una vez que
envía una orden, se dedica a atender otras tareas hasta que el módulo de E/S esté listo
y le envíe el pedido de interrupción.
Estas interrupciones pueden ser: Enmascaradas (el procesador decide cuándo atender
esta interrupción) o No enmascaradas ( Siempre son admitidas y procesadas como
tales).
Para procesar los múltiples pedidos de interrupción se utilizan 4 técnicas:
■ Varias líneas de interrupción. Varias líneas pueden procesar varias
interrupciones
■ Consulta de software. Se detecta una interrupción y luego se consulta
qué dispositivo la solicitó.
■ Conexión en cadena: Existe una línea de identificación para saber qué
disp. la solicitó.
■ Arbitraje de bus: Antes de solicitar la interrupción, se debe tener
permisos para usar el bus.
● DMA (acceso directo a memoria, Direct Memory Access): Las dos anteriores presentan
inconvenientes esenciales: La velocidad de transferencia de E/S está limitada por la
velocidad a la cual el procesador puede comprobar y dar servicio a un dispositivo. El
procesador debe dedicarse a la gestión de las transferencias de E/S.
Por esto se utiliza un módulo adicional DMA que es capaz de imitar al
procesador y de recibir el control del sistema cedido por el procesador. Para
hacerlo el módulo debe utilizar el bus solo cuando el procesador no lo necesita,
o debe forzar al procesador a que suspenda temporalmente su funcionamiento.
El procesador interactúa con el módulo DMA para liberarse para otras tareas.

MÓDULO 3 - LECTURA 1 Microprocesadoresssss <3


¿Qué significa multithreading? Es una forma de dividir el trabajo en procesos simultáneos. Distintos
núcleos del CPU procesan estos subprocesos en paralelo para ahorrar tiempo.

Hyper-Threading: Es una tecnología de innovación de hardware que permite que se ejecute más de un
subproceso en cada núcleo. Esto se logra exponiendo dos contextos de ejecución por núcleo físico, o
sea, un núcleo físico funciona cómo dos núcleos lógicos que manejan distintos subprocesos.
Componentes de los microprocesadores: (CPU Central Processing Unit). Según Orenga y Manonellas
la función principal que tiene el CPU es procesar los datos y transferirlos a los otros elementos del
computador mediante la ejecución de instrucciones. El objetivo principal es conseguir que las
instrucciones se ejecuten de la manera más eficiente. La arquitectura que vamos a ver es la x86

//Dibujar esquema de Procesador

Para ejecutar las instrucciones todo procesador dispone de tres


componentes principales:
● Conjunto de registros: Espacio de almacenamiento temporal
de datos e instrucciones DENTRO del procesador.
Elemento de memoria de acceso rápido, es un espacio de
trabajo para el procesador imprescindible para ejecutar las
instrucciones. La ALU solo trabaja con los registros internos
del procesador. El conjunto de registros y la organización
depende del tipo de procesador. Los registros del
procesador se pueden clasificar en:
○ Registros de propósito general: Suelen utilizarse como los operandos en las
instrucciones. Se pueden asignar a funciones concretas: datos, que se diferencian por
el formato y el tamaño de los datos que almacenan, o direccionamiento, se utilizan para
acceder a la memoria y pueden almacenar direcciones o índices.
○ Registros de instrucción: Los principales son
■ Program Counter (PC): Contiene la dirección de la instrucción siguiente.
■ Instruction register (IR): Contiene la instrucción que hay que ejecutar.
○ Registros de acceso a memoria: Hay dos registros para lectura o escritura de memoria:
■ MAR, memory address register: Ponemos la dirección de memoria a la que
queremos acceder
■ MBR memory buffer register: Registro donde la memoria deposita el dato leído o
el que vamos a escribir.
○ Registros de estado y de control: Almacena información sobre el estado del procesador.
Los bits del registro de estado son modificados por el procesador, estos bits son
parcialmente visibles para el programador.

● Una ALU (unidad aritmética y lógica): Circuito combinacional capaz de realizar operaciones
aritméticas y lógicas con los datos almacenados dentro del procesador. Los valores que utiliza
y las operaciones que puede realizar la ALU son los siguientes:
○ Números enteros: Se pueden representar utilizando diferentes notaciones (signo
magnitud, complemento a 1 y complemento a 2). La más habitual es Ca2. Todas
representan los números enteros en binario. Utilizando 32 y 64 bits.
○ Números Reales: Se pueden representar de dos maneras: En punto fijo y en punto
flotante. En punto fijo la posición de la coma binaria es fija y se utiliza un número
concreto de bits en la parte entera y en la decimal. En la notación en punto flotante se
representan utilizando 3 campos: signo, mantisa (parte decimal) y exponente.
○ Las operaciones aritméticas incluyen suma, resta, multiplicación y división. Se pueden
incluir operaciones como incremento positivo o negativo. Dentro de las operaciones
lógicas se incluyen AND, OR, NOT, XOR, desplazamiento de bits a izquierda y derecha
y rotación de bits. Para hacer operaciones en punto flotante se utiliza una unidad
específica FPU.
Aritmética con enteros y reales en la ALU
Overflow o desborde: Ocurre cuando el resultado de una suma es demasiado grande
para ser representado por el número de bits que se está utilizando.
● Unidad de Control: Controla el funcionamiento de todos los componentes del procesador,
movimiento de datos e instrucciones y las operaciones de la ALU.
También se pueden encontrar unidades funcionales del computador cómo:
● Unidades de ejecución SIMD (Single Instruction Multiple Data): Especializadas en la ejecución
de instrucciones que trabajan con estructuras de datos vectoriales. Ej instrucciones multimedia
● Memoria Caché: Almacena datos transitorios.
● MMU (memory management unit): Gestiona el espacio de direcciones virtuales, traduce
direcciones de memoria virtual a memoria física, protegiendo el espacio de direcciones de un
programa del espacio de direcciones de otros programas y separando así el espacio de
memoria del sistema operativo de los programas del usuario.
● Unidad de punto flotante (FPU): Especializada en hacer operaciones de números con punto
flotante (números con coma).

Buses internos:
Los procesadores actuales reemplazan el FSB (bus frontal local) que comunica la CPU con el
resto de elementos, con introducir dentro de la CPU el bus como una unidad de administración de
datos de entrada y salida que comunica directamente la RAM con el procesador.
El BSB back side bus, se encarga de conectar el microprocesador con su propia memoria
caché.
Los multiplicadores son una serie de elementos que se encargan de medir la relación entre el
reloj de la CPU y el reloj de los buses externos. Gracias a estos es posible que la frecuencia de la
CPU sea muchísimo más rápida que los buses externos y así poder procesar más datos. En
algunos procesadores podemos encontrar el multiplicador desbloqueado permitiendo así aumentar su
frecuencia y su velocidad de procesamiento, a esto se lo llama OVERCLOCKING.

MODULO 3 - LECTURA 2 - LA UNIDAD DE CONTROL

Ciclo de ejecución de una instrucción:


● Lectura de la instrucción
● Lectura de los operandos fuente
● Ejecución de la instrucción y almacenamiento del operando de destino
● Comprobación de interrupciones.
Estas fases son comunes en la mayoría de los computadores, se diferencian en el orden en el que se
encuentran. En cada fase se incluyen una o varias operaciones que hay que hacer, llamadas
microoperaciones.
Las operaciones principales que se realizan en cada una de las fases del ciclo:
1) Lectura de la instrucción:
a) Leer la instrucción: Al leer la instrucción el registro contador del programa (PC) nos
indica la dirección de memoria donde está la instrucción, si el tamaño de la instrucción
es superior a la palabra de la memoria, hay que hacer tantos accesos a memoria para
leer completamente la instrucción y cargar toda esa información en el registro de
instrucción (IR).
b) Decodificar la instrucción: Se identifican las partes de la instrucción para determinar qué
operaciones hay que hacer en cada fase.
c) Actualizar el contador del programa: El contador se actualiza según el tamaño de la
instrucción, o sea, el número de accesos a la memoria que hemos hecho para leerla.
2) Lectura de los operandos fuente:
Esta fase se repite para todos los operandos fuente de la instrucción. Las operaciones
de esta fase dependen del modo de direccionamiento que tengan los operandos: para el
inmediato o directo a registro no hay que hacer ningúna operación, para los indirectos o
relativos hay que hacer cálculos y accesos a memoria. Si el operando es implícito
vamos a buscar el dato en el lugar predeterminado por la instrucción.
3) Ejecución de la instrucción y almacenamiento del operando de destino (resultado):
Las operaciones que hay que realizar en esta fase dependen del código de operación
de la instrucción y del modo de direccionamiento del operando de destino.
a) Ejecución de la instrucción: Las operaciones son diferentes para cada código de
operación, además de obtener el resultado se pueden modificar los bits de resultado de
la palabra de estado del procesador.
b) Almacenamiento del operando de destino (resultado): Recoger el resultado obtenido
durante la operación y guardarlo en el lugar indicado por el operando, si este es
implícito se guarda en el lugar predeterminado por la instrucción.
4) Comprobación de interrupciones:
Es el mecanismo por el cual un dispositivo externo puede interrumpir el programa que
está ejecutando el procesador para ejecutar otro programa que dé servicio al dispositivo
que ha producido la interrupción.
En esta fase se verifica si se ha activado alguna línea de petición de interrupción del
procesador. Si no se activó ninguna continúa el proceso normal. Si se activó, hay que
transferir el control del procesador a la rutina de servicio de interrupción (RSI) que debe
atenderla y cuando acabe se reanuda la ejecución de la instrucción en curso.
Para atender una interrupción se intenta almacenar la mínima información posible, y las
operaciones que se llevan a cabo son:
● Almacenar el contador del programa y la palabra de estado
● Almacenar la dirección donde empieza la rutina para atender la interrupción en
el contador del programa
● Ejecutar la rutina de servicio de interrupción
● Recuperar el contador del programa y la palabra de estado.

Estrategias de segmentación:
La segmentación es dividir el trabajo en varias etapas, permitiendo trabajar N productos al
mismo tiempo si hay N etapas. Así se terminará un producto en el tiempo que tarda terminar una
etapa. De esta manera no se reduce el tiempo que se tarda en hacer un producto sino que se reduce
el tiempo total necesario para hacer una determinada cantidad de productos porque las operaciones
de cada etapa se efectúan simultáneamente.
La unidad de control:
Es el cerebro del computador, está conectada al resto de los componentes mediante las
señales de control. Es muy importante que la unidad de control sea funcional, eficiente y rápida, pero si
no se coordina y controla correctamente no se aprovecha todo su potencial. Su función básica es la
ejecución de las instrucciones, pero su complejidad de diseño no se debe a la complejidad de las
tareas sino a la sincronización que se debe hacer de ellas.
Ejecutar un programa es ejecutar una serie de instrucciones y cada instrucción se lleva a cabo
mediante un ciclo de ejecución. Cada una de las operaciones durante la ejecución de una instrucción
se llaman microoperación y estas son la base para diseñar una unidad de control. Su función básica es
la transferencia de información generalmente de un registro a otro, este proceso puede implicar solo
mover información o transformarla.
Hay 3 tipos básicos de microoperaciones:
● Transferencia interna: Entre registros internos del procesador.
● Transferencia interna con transformación: Operaciones aritméticas o lógicas utilizando
los registros internos del procesador.
● Transferencia externa: Operaciones de transferencia entre registros internos y externos
al procesador o módulos externos al procesador.

Modos de direccionamiento (fase 2):


El número de pasos depende del número de operandos fuente y de los modos de
direccionamiento utilizados en cada operando, el proceso se repite para cada operando.
El modo de direccionamiento indica el lugar donde está el dato:
● Direccionamiento Inmediato: El dato está en la misma instrucción, no hay que hacer
nada.
● Direccionamiento directo: El dato está en un registro dentro del procesador, no hay que
hacer nada.
● Direccionamiento relativo a registro: El dato está en la memoria, hay que moverlo al
registro MBR.

Señales de control y temporización:


Señal de control: Línea física que sale de la unidad de control y va hacia uno o más dispositivos
del computador por los que circula una señal eléctrica que representa 1 o 0 y dependiendo los
dispositivos conectados, son activados por flanco o por nivel.
La mayoría de los computadores tienen un funcionamiento síncrono, las secuencias están
gobernadas por una señal de reloj. El período o ciclo del reloj determina el tiempo mínimo necesario
para hacer una operación elemental en el computador, esta operación elemental es una
microoperación.

Diseño de la unidad de control: Existen dos categorías para la implementación de la UC:


implementaciones cableadas e implementaciones microprogramadas.
Una UC cableada es un circuito combinacional que transforma señales de entrada en señales
de salida, señales de control. Las entradas son: Registro de instrucción, reloj, indicadores y señales de
control de bus. Para el registro de instrucción se utiliza un decodificador de N entradas y S^n salidas,
permitiendo tener una combinación diferente para cada instrucción que activa una salida diferente. El
reloj genera diferentes entradas, ya que, durante un único ciclo de instrucción la UC emite señales
diferentes.
El funcionamiento de una UC cableada consiste en realizar un circuito de lógica combinacional
que responda a las operaciones booleanas que comandan el comportamiento propio y el del
procesador. Para esto aparece la unidad microprogramada, que se basa en la utilización de una
memoria de control que almacena las microoperaciones necesarias para ejecutar cada una de las
instrucciones y en el concepto de microinstrucción.
La ejecución de una instrucción implica realizar una serie de microoperaciones y cada
microoperación implica la activación de señales de control que pueden ser representadas cada una por
un bit. El conjunto de todas las señales de control se denomina palabra de control.
Microinstrucción es la notación utilizada para describir el conjunto de microoperaciones que se
realizan simultáneamente en un mismo período y se representan con una palabra de control. Cada
microinstrucción se almacena en una memoria de control con direcciones de memoria diferentes.
Para especificar la secuencia de ejecución de las microinstrucciones se necesita más
información. Con esta información adicional tenemos dos tipos de microinstrucciones:
● Microinstrucción horizontal: Se añade a la palabra de control un campo para expresar
una condición y un campo para especificar la dirección de la microinstrucción siguiente
que se debe ejecutar cuando se cumpla la condición.
● Microinstrucción vertical: Reduce el tamaño de las horizontales, se codifican los bits de
la palabra de control y se reduce el número de bits necesarios. Hace falta un
decodificador para traducir los códigos de las microinstrucciones.
El conjunto de microinstrucciones necesarias para ejecutar una instrucción se llaman
microprograma o firmware.

MODULO 3 - LECTURA 3 - LA MEMORIA CACHÉ

Jerarquía de memorias que responde a 3 factores: El costo por GB de almacenamiento, el


tiempo de acceso y la permanencia de los datos.

Los registros de memoria del procesador son los más rápidos que hay en la PC, pero son los
más caros y con menos capacidad de retención de información. En el otro extremo tenemos los HDD
que son los más lentos pero más baratos por GB y con mucha capacidad de permanencia de datos.

La organización interna del microprocesador incluye el


uso de las memorias caché pero no solo existen entre
las diferentes partes del procesador sino también
dentro del propio procesador, como una manera de
incrementar la velocidad de procesamiento.
Comercialmente la memoria caché es mucho más
rápida que la memoria RAM . La caché de los
procesadores actualmente está integrada a la pastilla
del procesador y se puede dividir en 3 niveles:
● Caché de nivel 1 (L1): Es la más pequeña
luego de los registros y la más rápida de las 3.
Cada núcleo de procesamiento tiene su propia
caché L1, que está dividida en 2, L1 Data que
almacena datos y L1 Instruction que almacena las instrucciones. Suelen ser de 32KB cada una.
● Caché nivel 2 (L2): Es más lenta que la L1 y más grande. Cada núcleo tiene su propia L2 que
puede ser de 256 K B pero no está integrada en el circuito del núcleo.
● Caché de nivel 3 (L3): Es la más lenta, aunque más rápida que la RAM. También está fuera de
los núcleos y repartida entre varios núcleos. Oscila entre los 8 y 16 MB, aunque alcanza hasta
30 MB.
Organización de la caché:
La memoria caché tiene un tiempo de acceso inferior al de la memoria principal pero
también tiene un tamaño mucho más reducido que la memoria principal. Si un dato está en la
memoria caché es posible proporcionarlo al procesador sin acceder a la memoria principal, sino
primero se lleva el dato de la memoria principal a la caché y después al procesador. El tiempo
de acceso al dato cuando está en la memoria caché es próximo al tiempo de acceso a la
memoria caché, gracias a la característica de proximidad referencial de los programas.
Para trabajar con la memoria caché, la memoria principal se organiza en bloques de
palabras, así cuando hay que trasladar datos de la memoria principal a la caché se lleva un
bloque entero de palabras, no se trabaja con palabras individuales.
Se produce un ACIERTO cuando el procesador quiere acceder a una palabra de
memoria y se encuentra en la caché. En caso contrario, se lleva el bloque de datos de la
memoria principal que contiene la palabra que el procesador busca hacia la memoria caché y,
cuando la palabra está en la caché, se la da al procesador y se ha producido un FALLO.
Cuando hay un fallo el hardware debe realizar:
1) Solicitar a la memoria principal el bloque donde está el dato que ha producido el
fallo.
2) Llevar el bloque de datos a la memoria caché. De esta tarea dependen las
políticas de asignación y algoritmos de reemplazo.
3) El procesador obtiene el dato de la caché como si fuera un acierto.
Un acceso con fallo es más costoso en tiempo que un acceso con acierto. Con esto podemos
ver parámetros para evaluar el rendimiento de una memoria caché: Tasa de fallos y tiempo de acceso.

La tasa de fallos se define como: Tf = Número de fallos / Número de accesos a la memoria

La tasa de aciertos se define así: Te = Número de aciertos / Número de accesos a la memoria


= 1 - Tf
Uno de los objetivos es una tasa de fallos menor al 10%. El tiempo de acceso tm se puede
calcular conociendo el tiempo de acceso en caso de aciertos te y en caso de fallo tf.
™ = Tf x tf + Te x te = Tf x tf + (1 - Tf) x te = Tf x (tf - te)+ te
Si la tasa de fallos es cero el tiempo de acceso a memoria es igual al tiempo de acceso a la
memoria caché.

Líneas de caché
La memoria caché se organiza en bloques que se denominan líneas. Cada una está
formada por un conjunto de palabras más una etiqueta compuesta por unos cuantos bits. La
etiqueta permitirá saber qué bloque de la memoria principal se encuentra en cada línea de la
memoria caché. El tamaño de la línea habitual está entre 32 y 128 bytes. Aumentar el tamaño
de la línea permite aprovechar la localidad espacial pero si se produce un fallo el tiempo
necesario para trasladar la línea aumenta, además disminuye el número de líneas disponibles
de la memoria caché (el tamaño de la memoria caché es fijo).

Políticas de correspondencia o asignación


El número de líneas disponibles en caché es siempre menor al número de bloques en
memoria principal. La memoria caché además de la memoria almacenada debe guardar
información que relacione cada posición de caché con su dirección en la memoria principal.
Para acceder a un dato se especifica la dirección en la memoria principal y de ahí se
verifica si ese dato está en la caché. Esta verificación se hace a través de la etiqueta. La
política de asignación determina dónde podemos colocar un bloque de la memoria
principal dentro de la caché y condiciona cómo encontrar un dato dentro de la memoria
caché. Se definen 3 políticas de asignación dentro de una memoria caché:

1) Política de asignación directa: Un bloque de la memoria principal solo


puede estar en una única línea de la memoria caché. Esta tiene la tasa
de fallos más alta pero se utiliza porque es la más barata y fácil de
gestionar.

2) Política de asignación completamente asociativa: Un bloque de la


memoria principal puede estar en cualquier línea de la memoria caché.
Tiene la tasa de fallos más baja pero es la más cara y compleja de
gestionar.

3) Política de asignación asociativa por conjuntos: Un bloque de la memoria


principal puede estar en un subconjunto de las líneas de la memoria
caché, pero dentro del subconjunto puede estar en cualquier posición. Es
un conjunto de las otras dos políticas. Los subconjuntos son entre 4 y 64
elementos, si el número de elementos del subconjunto es n la memoria
se denomina n-asociativa.

Algoritmos de sustitución
Estos algoritmos se utilizan en caso de correspondencias asociativas. Se utilizan para
eliminar la información ya utilizada en la caché. Los algoritmos de reemplazo más comunes son
estos:
● FIFO (first in first out). Para elegir la línea se utiliza una cola, y la línea que está
hace más tiempo es la reemplazada. Este algoritmo reduce el rendimiento de la
memoria caché porque esa línea no tiene que ser necesariamente la que menos
se utilice.
● LFU (least frequently used): Se elige la línea menos utilizada. Se implementa
añadiendo un contador del número de accesos de cada línea a la caché.
● LRU (least recently used): Elige la línea que hace más tiempo no se utiliza. Es el
más eficiente pero el más difícil de implementar.
● Aleatorio: Elige la línea que debe reemplazar al azar. Es muy simple y tiene un
rendimiento ligeramente menor a los otros.

Políticas de escritura
Estas son para gestionar las escrituras y mantener la coherencia entre los datos de la
memoria caché y principal:
1) Escritura inmediata (write through): Cuando se escribe en la caché, se escribe en la
memoria principal, transfiriendo todo el bloque que contiene el dato modificado. Es la
más fácil pero produce un gran flujo de información entre la memoria caché y principal.
2) Escritura aplazada (write back): Las escrituras solo se efectúan sobre la caché. La
memoria principal se actualiza cuando se elimina una línea de la caché que ha sido
modificada. Para esto se deben agregar bits para saber si la línea se modificó o no.
Aumenta el tiempo para acceder al dato.
Cuando se quiere hacer una escritura de una dirección que no está en la memoria caché se
producirá un fallo que se puede tratar de diferentes maneras:
1) Escribir directamente en la memoria principal sin llevar el dato a la memoria caché.
2) Llevar el bloque a la memoria caché y escribir simultáneamente en la memoria caché y la
principal.
3) Llevar el bloque a la memoria caché y escribir solo en la caché.

MÓDULO 3 - LECTURA 4 - RISC vs. CISC

Son dos tipos de conjuntos de instrucciones que los


procesadores aplican para llevar a cabo el procesamiento de la
información:
CISC (Complex Instruction Set Computer) y RISC (Reduced
Instruction Set Computer). La utilización de estas arquitecturas
puede darse por: 1) El juego de instrucciones decide el diseño
físico del conjunto. 2) Cualquier operación que ejecute el
microprocesador deberá poder ser descrita en términos de un
lenguaje de estas instrucciones.

PROCESADORES CISC
Poseen un set de instrucciones amplio y permite un procesamiento complejo entre operandos
de la memoria o registros internos. No facilita el paralelismo entre instrucciones, pero incorporan un
conversor de instrucciones complejas en varias instrucciones simples del tipo RISC llamadas
microinstrucciones. Estos procesadores pertenecen a los primeros procesadores, para ejecutar una
sola instrucción necesitan entre 3 y 9 ciclos de reloj. Otras características son:
● Longitud variable de instrucción.
● Dispone de un gran juego de instrucciones.
● Muchos modos de direccionamiento
● La unidad de control es microprogramada, la ejecución de instrucciones se realiza
descomponiendo la instrucción en microinstrucciones.
● Procesa instrucciones largas
● Las etapas de carga/almacenamiento tienen instrucciones específicas
● Arquitectura de intercambio de memoria a memoria
● Compiladores sencillos y rápidos.

PROCESADORES RISC
Tendencia actual de construcción de microprocesadores. La ventaja de estos procesadores es
la simplicidad y el bajo consumo de energía, el tamaño de sus núcleos es mucho menor por lo que
pueden meter más cantidad, aunque sean más lentos, las cargas de trabajo se dividen y se pueden
optimizar. Otras características:
● Formato fijo y corto de instrucción.
● Juego de instrucciones básicas y simples.
● Pocos modos de direccionamiento
● Arquitectura load-store (carga y almacena) o registro-registro. Load y store son las
únicas instrucciones que tienen acceso a memoria.
● Amplio banco de registros.
● La mayoría de instrucciones se pueden ejecutar en pocos ciclos de reloj.
● Permite ejecución simultánea de instrucciones.
● Unidad de control puede ser cableada y microprogramada a la vez
● Los compiladores son mucho más complejos y con más instrucciones.
MÓDULO 4 - LECTURA 1 - SISTEMAS DE ARCHIVO

Un sistema de archivos es aquella estructura subyacente que un sistema operativo usa para
organizar los datos de una unidad de almacenamiento. Un sistema de archivos de un sistema
operativo organiza nuestros espacios de almacenamiento para poder utilizar estos archivos cuando los
necesites.
El elemento de almacenamiento masivo de datos por excelencia es el disco duro. Para poder
ser utilizado debe estar particionado. Una partición es un espacio de almacenamiento que está
organizado gracias a que posee un sistema de archivos determinado. El espacio sin partición se llama
no direccionado y no se puede utilizar.
Particiones:
Esquema de la estructura del HDD dividida en partes:

● Pistas: Concéntricas trazadas a través de la


superficie circular del plato de un disco.
Anillos circulares sobre un lado del disco,
formados por clústeres.
● Sector: Porciones de pista donde se
almacenan los datos. De 512 bytes cada uno
● Cilindro: Pila tridimensional de pistas
verticales de múltiples platos. Conjunto de
pistas a las que las cabezas pueden acceder
simultáneamente.
● Clúster: Grupo de sectores que representa la
unidad lógica más pequeña de
almacenamiento completo. El tamaño del clúster depende de la capacidad del disco.

Un disco está dividido en miles de clústeres de igual tamaño y los archivos son repartidos y
almacenados en distintos clústeres. Una partición de disco es el nombre que recibe cada división.
Toda partición tiene su propio sistema de archivos. Los SO interpretan cada partición como un disco
físico independiente, a pesar de que estén en un solo disco físico.
La estrategia más conocida para particionar un HDD es la FAT (file allocation table) que tiene
varias versiones, existen otras como NTFS (new technology file system).

FAT
El sistema de archivos más simple compatible con windows. Se caracteriza por la tabla de asignación
de archivos que es una tabla que reside en la parte superior del volumen. Para proteger el volumen se
guardan dos copias de la FAT por si una se daña. Las tablas FAT y el directorio raíz deben
almacenarse en una ubicación fija para que los archivos de arranque se ubiquen correctamente.

El tamaño lógico de algunos archivos es lo que realmente pesan y el tamaño físico es lo que ocupan
esos archivos ubicados en sus respectivos clústeres. Por ejemplo, si los clústeres son de 2048 bytes y
el archivo pesa 1034 bytes, su peso lógico es de 1034 y su peso físico será de 2048 ya que no está
usado del todo el clúster, la parte no utilizada se llama slack, los 1014 bytes que sobran son el slack.
Un disco con este formato se asigna en clústeres, cuyo tamaño viene determinado por el tamaño del
volumen. Cuando se crea un archivo, se crea una entrada en el directorio y se establece el primer
número de clúster que contiene datos. Esta entrada indica que este es el último clúster del archivo o
señala al clúster siguiente. Es importante la actualización de la tabla y requiere mucho tiempo, si la
tabla no está actualizada se podrían perder datos. Las cabezas deben ponerse a cero para actualizar
la tabla. A los archivos se les asigna la primera ubicación libre de la unidad. FAT solo es compatible
con los archivos de almacenamiento, del sistema, ocultos y de solo lectura.
Este sistema de archivos se compone de 4 secciones:
● El sector de arranque: El primer sector de la partición (volumen) e incluye información básica,
punteros a las demás secciones y la dirección de la rutina de arranque del sistema operativo.
● La región FAT: Contiene dos copias de la tabla de asignación de archivos. Son mapas de la
partición e indican qué clústeres están ocupados.
● La región del directorio raíz: Índice principal de carpetas y ficheros. Es un tipo especial de
archivo que almacena las subcarpetas y ficheros que componen cada carpeta. Cada entrada
del directorio contiene el nombre del archivo o carpeta, su extensión, sus atributos, la hora y
fecha de creación, la dirección del primer clúster donde están los datos y el tamaño que ocupa.
● La región de datos: Lugar donde se almacena el contenido de ficheros y carpetas. Ocupa casi
toda la partición. El tamaño de cualquier archivo puede ser ampliado mientras hayan clústeres
libre.

NTFS
En este sistema de archivos no hay ningún objeto especial en el disco y no hay ninguna
dependencia del hardware subyacente, como los sectores de 512 bytes. No hay ninguna ubicación
especial en el disco. Se trataron 3 áreas principales: Posibilidad de recuperación, eliminación de
errores graves de un único sector y revisiones. NTFS es un sistema de archivos recuperable porque
hace un seguimiento de las transacciones con el sistema de archivos. Se mantiene un registro de las
transacciones de forma que solo se tenga que deshacer las transacciones hasta el último punto de
confirmación cuando se necesite recuperar la coherencia dentro del sistema de archivos.
En FAT si se produce un error en un sector se producirá un error de un único sector. NTFS
evita esto al no utilizar objetos especiales, haciendo seguimiento de todos los objetos y protegiendolos.
En NFTS se mantienen varias copias de la tabla maestra de archivos y por último, en este sistema, un
usuario puede agregar a un archivo sus propios atributos definidos por él mismo. No se recomienda
este sistema para un volumen menor a 400 MB

MÓDULO 4 - LECTURA 2 - Medios de almacenamiento masivo

La información procesada o por procesar de una computadora debe ser almacenada. La


memoria principal es volátil, por lo que se necesitan otros medios que almacenen la información, aún
cuando no esté disponible la energía. Estas son memoria externas y son un tipo de dispositivo de
entrada/salida.

HDD (hard disk drives): Los discos magnéticos (HDD) son los más utilizados. Su principal
ventaja es su costo por GB de almacenamiento, porque si bien la velocidad es mucho menor que una
memoria semiconductora, su costo es accesible.
Componentes del HDD y funcionamiento:
● Plato: Superficie circular donde se almacenan los datos. Un disco puede tener más de
un plato y cada lado se denomina cara. Los platos están unidos a un eje
● Cabezal: Dispositivo que lee y escribe. Graba patrones magnéticos en el plato.
● Brazo: Sostiene los cabezales, poseen capacidad de movimiento y todos los brazos se
mueven al mismo tiempo.
● Motor: Controla la rotación de los platos.
El motor gira los platos a una velocidad constante y los brazos se mueven para ubicar los
cabezales en el sector del plato que debe ser escrito o leído. Los cabezales no tocan el plato.

Organización de datos
La unidad física más pequeña de almacenamiento se denomina sector y puede
contener 512 bytes. Los sectores se organizan en pistas (tracks), que son conjuntos de sectores y su
ancho en el plato es del tamaño del cabezal. Cuando los discos tienen más de un plato, el grupo de
pistas en todos los platos se denomina cilindro. Para ubicar datos se pueden usar dos sistemas CHS
cylinder, head y sector o LBA logical block addressing.

Performance en discos
La lectura o escritura se hace con el cabezal en el sector deseado. Como los platos rotan a
velocidad constante, mientras los brazos se mueven entre las pistas, hay 4 factores que afectan el
rendimiento de un disco:

Latencia rotacional: Es el tiempo que demora el sector en ubicarse por debajo del cabezal. Esto
depende de la velocidad de rotación, a más velocidad, menos latencia.
Tiempo de búsqueda: Tiempo que tarda el brazo en colocar el cabezal en la pista. No es fijo y
es difícil de determinar.
Tiempo de transferencia: Tiempo para recorrer un sector y transferir los datos. Tt = Tam
(sector) / Vel. Transf.

El tiempo de acceso al disco será la suma de todos los tiempos que se especifiquen.

Capacidad: Existen varias medidas de capacidad.


● La densidad de información (se mide en bits por pulgada cuadrada).
● Pistas por pulgada.
● Capacidad total: Para discos con velocidad angular constante.

RAID (redundant array of independent disks)


Los conjuntos de discos independientes resuelven la problemática de pérdida de información
que generan las fallas de los componentes mecánicos de los discos. Existen diferentes niveles RAID.
Las características de un sistema RAID son 3 (excepto el RAID 0 que no cumple con la tercera
característica).
1) El sistema operativo ve una sola unidad de disco, a pesar de haber más.
2) Los datos se distribuyen en el conjunto de discos del RAID.
3) En caso de fallo la info se puede reconstruir mediante información de paridad o porque está
duplicada.
Los niveles de RAID van desde el 0 al 6 (en la práctica utilizan el 1, 5 y 6).
RAID 0: No ofrece tolerancia a fallos porque no tiene redundancia, por lo que un fallo ocasiona
pérdida de información. Distribución de datos a través de discos denominados slices o stripes. Gran
velocidad en la lectura y escritura de información.

RAID 1 o disk mirroring (espejado): Nivel con mayor redundancia. Todos los datos se escriben
en 2 discos, si uno falla la información está en el otro. Pueden leerse dos discos en forma simultánea.
La escritura tarda más por la duplicación. Cuando se agrupan más de 2 discos (siempre de a pares) se
denomina RAID 10, pero tiene un alto costo.

RAID 5: Para la redundancia de datos utiliza la paridad mediante una compuerta lógica XOR de
todos los slices de datos. Si alguno falla es posible reconstruirlo realizando una XOR con los restantes.
Solo puede fallar uno para no perder información. RAID 4 utiliza un disco exclusivamente dedicado a
paridad, mientras que RAID 5 distribuye la info en todos los discos. La ventaja de RAID 5 a diferencia
del 1, es que se utiliza un solo disco para paridad, entonces la utilización es mayor y el costo menor.
Desventaja es que la escribir se debe recalcular la paridad.

RAID 6: Utiliza doble paridad, tolera fallas de dos discos.

Medios ópticos
CD: Disco compacto, almacena pistas de audio. No puede ser escrito por el usuario.

CD-ROM: Disco compacto, almacena datos. No puede ser escrito por el usuario y su capacidad
es de 650 o 700 MB. La información es almacenada mediante un láser que consigue crear un patrón
de crestas y valles. Luego se recubre con una superficie que refleja la luz y otra protección final para
evitar la pérdida de información por polvo o rayaduras.
Para leer la información se utiliza otro láser de baja potencia que, mientras el disco gira, el haz
de luz traspasa la superficie protectora y es reflejado. Si el haz de luz encuentra una cresta, la luz se
dispersa. Al variar la intensidad del haz de luz cuando hay una cresta y un valle se determina dónde se
grabó un 1 y dónde un 0. A diferencia de un disco, los CD utilizan solo una pista en forma de espiral
con inicio en el centro, los sectores son del mismo tamaño y la velocidad de rotación no es siempre la
misma. Fueron el medio de excelencia hasta la masificación de internet y servicios en la nube, eran
mejores que los discos magnéticos por su portabilidad. Lentos a comparación de los discos.

CD-RW: Disco compacto que puede ser grabado por el usuario más de una vez. Para grabar
se utiliza un tinte mediante el láser de la grabadora. Un CD-RW presenta más ventajas que un CD-R,
ya qué el RW puede ser grabado más de una vez a diferencia del CD-R. Su velocidad es menor a la
de un disco. Se puede escribir más de una vez gracias a una técnica de cambio de fase que lo hace el
láser.

DVD: Disco versátil digital, almacena hasta 4.7, 8.5 o 17 GB. No puede ser escrito por el
usuario. Tienen más capacidad que los CD porque los bits se almacenan con menor distancia entre sí.
Los DVD de doble capa tienen dos capas reflectantes donde es posible almacenar información,
aumentando la capacidad a casi el doble.

DVD-R: DVD pero si puede ser grabado una vez por el usuario.
DVD-RW: Puede ser escrito más de una vez.
DVD de alta definición: Capaz de almacenar 25 GB en una sola capa. Permiten almacenar más
info que un DVD, utilizando discos del mismo tamaño. Se logra con mayor densidad de bits utilizando
un láser con menor longitud de onda. Dos tecnologías compitieron en esto HD-DVD y Blu-ray DVD, la
segunda se convirtió en el estándar. Existen 3 versiones para Blu-ray
● Solo lectura (BD-ROM)
● Una escritura (BD-RE)
● REgrabable (BD-RE)
Discos de estado sólido
SSD es una memoria flash que se construye con componentes sólidos (semiconductores), por
ejemplo, compuertas NAND. Actualmente reemplazan a los discos magnéticos para aplicaciones de
alto rendimiento.

Memoria flash
Es un tipo de memoria semiconductora usada en celulares, tablets y GPS. Un transistor permite
controlar el flujo de una gran cantidad de corriente entre la fuente y el drenaje con un pequeño nivel de
tensión. En las memorias flash se agrega una compuerta llamada flotante al transistor. Un 1 binario se
representa en este estado y un 0 se representa luego de aplicar un nivel alto de tensión que provoca
que los electrones queden atrapados en la compuerta flotante.

Memoria flash NOR: Trabajan con bits como unidades de acceso y proveen acceso aleatorio a
alta velocidad. Almacenan la BIOS o el sistema operativo de un celular.

Memoria flash NAND: Usan conjuntos de 16 o 32 bits como unidades de acceso y son
utilizadas como memorias de cámaras y en discos de estado sólido (son mejores en la escritura que
las NOR).

Comparación con HDD


Las memorias flash NAND son más caras pero un disco magnético de alto rendimiento puede
soportar aprox. 300 IOPS (pedidos de entrada/salida por segundo) mientras que una memoria flash
NAND admite 45.000 para lectura y 15.000 para escritura. El tiempo de acceso a un disco magnético
ronda los 4 a 10 ms, mientras que, una flash NAND es de 0,1 ms.
Desventajas SSD:
● La performance decrece mientras más se utilicen los discos SSD. Por la fragmentación
de archivos
● El número de escrituras es limitado. Son 100.000 aprox. Una de las técnicas es usar
una memoria caché intermedia que demore las escrituras y las distribuya
equitativamente a lo largo de todas las celdas de la memoria flash.
● El tiempo de permanencia de los datos garantizado por el fabricante es menor que un
HDD. La temperatura afecta a la retención de datos

MODULO 4 - LECTURA 3 - Procesamiento de audio y video

El procedimiento por el cual una señal eléctrica que transporta información de audio y video se
digitaliza y se convierte a dígitos binarios se denomina conversión analógico digital. A través de un
conversor AD, donde se llevan a cabo dos procesos, el muestreo y la cuantificación. En el muestreo se
toman muestras de la señal analógica cada cierto tiempo. La cuantificación es el proceso por el cual se
da un valor numérico a esas muestras. La señal audiovisual en formato digital para visualizarla o
escucharla se necesita volverla al ámbito analógico, este proceso se lleva a cabo por el conversor
digital a analógico o DAC. Los DACs suelen ser chips especializados que reciben la señal digital y la
transforman, la calidad depende de los formatos digitales que admite su entrada y las frecuencia de
muestreo y niveles de cuantificación que soporta.

Conversión A/D
Todos los datos analógicos tienen formatos que no pueden transmitirse por un sistema de
comunicación electrónico, por eso se convierten a un formato que el medio electrónico pueda aceptar.
Dato analógico: Información que toma valores continuos. Esta onda es capturada por un
micrófono (transductor) y convertida a una señal eléctrica analógica.
La señal analógica es una onda continua que cambia suavemente en el tiempo. Tiene un
número infinito de valores de voltaje dentro de un rango.

El proceso de conversión analógico-digital es:


Un transductor que convierte la magnitud física en una señal eléctrica analógica. Ej. micrófono,
sensor, etc.
Un acondicionador que acondiciona la señal eléctrica analógica. Ej. amplificador, filtro, etc.
Un conversor A/D que convierte la señal eléctrica analógica en dato digital.
La técnica de conversión A/D más utilizada es la PCM (pulse code modulation). Consta de 3 pasos que
se ejecutan en serie, son: muestreo, cuantificación y codificación.
● Muestreo: Se toman muestras de la señal analógica en intervalos de tiempo constantes.
Según el teorema de Nyquist es posible reconstruir una señal analógica siempre que la tasa de
muestreo sea el doble de la frecuencia más alta contenida en la señal analógica. Se puede muestrear
una señal solo si su ancho de banda es limitado.
Existen dos técnicas de muestreo:
■ El muestreo natural, donde un conmutador de alta velocidad se enciende
por cortos periodos de tiempo, la muestra sigue el nivel de la señal.
■ El muestreo de cresta plana, donde un conmutador se enciende por
cortos periodos de tiempo pero las muestras se mantienen al nivel de la
señal al comienzo del período de muestra.
● Cuantificación: Se mide el valor que alcanza la muestra y se le asigna un valor en una
escala de valores posibles.
El muestreo general pulsos entre la mínima y la máxima amplitud de la señal. El conjunto de
amplitudes obtenidas puede ser infinito, por ello se transforman estos valores en enteros y bien
definidos. El proceso se divide en dos etapas que se ejecutan en un cuantificador.
■ Cuantificación: Dividir el rango de amplitudes en un número limitado de
intervalos.
■ Valor cuantificado: Las amplitudes se normalizan a la altura de los
intervalos y las muestras toman valores cuantificados que se fijan en el
punto medio de cada intervalo.
Los niveles dependen del rango de las amplitudes y de la precisión con la que se necesite
recuperarla. En video se utilizan N = 2^n siendo N = número de niveles y n= número de bits por
muestra
Error: La cuantificación es un proceso de aproximación, los valores de entrada son reales y los
de salida son aproximados. El error disminuye si se aumentan los intervalos de cuantificación

● Codificación: A cada valor se le asigna un código binario que represente ese valor.
Características de esta etapa:
Es la última etapa en PCM. Se representan las muestras cuantificadas mediante una
secuencia binaria.
El número de bits se determina a partir del número de niveles de cuantificación.
La tasa de bits se calcula con base a la tasa de muestreo y la cantidad de bits por
muestra.

MÓDULO 4 - LECTURA 4 - Procesamiento de audio y video (dispositivos)


Dispositivos de audio
Una computadora toma o envía señales de sonido desde los distintos puertos de entrada/salida
con los que cuenta:
PS/2 Mouse port, PS/2 Keyboard port, HDMI port, Serial port, VGA port, LAN port, USB 2.0
ports, Rear Speaker Out, Center Speaker Out Line-In Jack, Line-Out, Side Speaker Out, Microphone
jack.

Estos puertos son la comunicación del procesamiento con el exterior de la computadora,


pueden estar contenidos directamente sobre la placa o en tarjetas específicas. Una tarjeta de sonido
sirve para dar mayor capacidad de sonido y liberar al procesador y a la RAM de estas actividades.
Las tarjetas de sonido se pueden clasificar según los canales que utilizan. Las tarjetas básicas
utilizan un sistema 2.1 estéreo, con una salida de jack a la que podemos conectar dos altavoces. Las
tarjetas cuadrafónicas permiten la reproducción de sonido envolvente 3D, tienen dos salidas
analógicas. Otras tarjetas tienen otros conectores y son de uso profesional o semiprofesional como los
MIDI.
Una tarjeta de sonido funciona con un convertidor de sonido ADC y DAC, la mayoría cuenta
con un procesador de señal (DSP). El número de bits con los que trabaja refleja la calidad del sonido
que es capaz de muestrear la tarjeta. El número de voces nos da definición, a mayor número de voces
más definición. Pueden tener las siguientes conexiones: Una entrada de línea, entrada para micrófono,
salida de línea, salida amplificada, conector MIDI y conector para Joystick. Una característica
importante es que la tarjeta disponga del sistema full- duplex, que permite grabar y reproducir sonido al
mismo tiempo.
Las tarjetas estéreo mandan el sonido por dos canales, uno para cada altavoz. Las
cuadrafónicas tienen 2 salidas estéreo con dos canales cada una, pueden dar señal a 4 altavoces.
Algunos equipos contienen un subwoofer que es un quinto altavoz que contribuye a la recreación de
realidad del sonido, reproduciendo los sonidos graves.. Dolby Digital 5.1 utiliza 6 canales, se necesitan
6 altavoces ( 5 de alta frecuencia y uno para baja frecuencia).

Dispositivos de video
Estos procesan de manera digital además del sonido, una imagen o película analógica. Las
señales analógicas obtenidas por equipos se conectan a la computadora utilizando una placa de
procesamiento de video.
Para digitalizar una imagen se toma como base la imagen analógica original y se divide en
pequeñas porciones llamadas píxeles (picture element). Una imagen está compuesta por una matriz
de píxeles y el tamaño de cada uno depende de la resolución capaz de procesar el dispositivo que
toma la imagen. Mientras más píxeles se utilicen hay una mejor representación de la imagen pero se
necesita más memoria para almacenar la imagen. Después de dividir una imagen en píxeles, se
asigna a cada píxel un patrón de bits, donde su tamaño y valor dependen de la imagen. Se
incrementan 2 bits en el patrón, 1 para ver si la imagen es blanca o negra y el segundo para ver el
color o la escala de grises.
Existen métodos para representar imágenes a color: RGB o YCM.
Salidas de video y pantallas:
Tamaño: Se mide la distancia en pulgadas dibujando una diagonal en la pantalla de punta a
punta.
Resolución: Número de píxeles que pueden ser mostrados en pantalla. Puede expresarse
como la cantidad de píxeles en ancho y en alto o por el nombre del estándar. Full HD (1920 x 1080).
Relación de Aspecto: Proporción entre la anchura y altura de un monitor. Se calcula dividiendo
ambas y expresándose como “X:Y”. Ej 800x600 = 4/3
Tipo de panel: La elección de tipo de panel que forma la pantalla se debe a las diferentes
versiones de los OLED.
Brillo, contraste, color, ángulos de visión: Los mínimos son: brillo 200cd/m^2, contraste 850:1,
ángulo de 176 grados.
Tiempo de respuesta: Tiempo que necesita un píxel para cambiar de un color a otro y volver a
su original. Tasa de refresco es frecuencia con la que una imagen es dibujada en la pantalla de un
monitor, va de 60 a 240 Hz.

También podría gustarte