Está en la página 1de 24

Fuente:http://blog.espol.edu.ec/sergiocardenas/files/2010/10/Primer-Computador.

jpg
¿Es importante saber el espacio en disco duro en servidores y PC? ¿Cuál es el consumo
de memoria? ¿Se debe saber sobre el consumo de ambos hardware?
En este módulo se mostrará algunas maneras utilizar los sistemas operativos y observar 2

el espacio en ambos dispositivos.

Prof. Omar Morales


Al finalizar el estudio de este módulo, serás capaz de:

 Conocer el concepto de memoria RAM, disco duro y BIOS.


 Aprender los comandos necesarios en sistemas operativos. 3

 Saber la utilización de RAID.

Prof. Omar Morales


En este módulo se presentará las partes de una computadora, enfatizando los
procesadores y la placa madre.
4
Además se mostrará la utilización de comandos en Linux para visualizar espacio de
disco y memoria.

Prof. Omar Morales


5

Figura Nº 1. Estructura física de un disco duro. (Daniel Doña Ibáñez, 2014)

Según (Daniel Doña Ibáñez, 2014), los discos duros (HDD, Hard Disk Drive)
constituyen el medio de almacenamiento de información más importante del ordenador.
Permiten almacenar y recuperar gran cantidad de información

Según (Pérez Alonso, Fuentes Astorga, & Carretero Pérez, 2010), el disco duro es un
dispositivo de almacenamiento de gran capacidad formado por varios discos polarizados
magnéticamente sobre los que se mueve una o varias cabezas que se encargan de leer
los datos almacenados en él. Los parámetros más importantes de un disco duro son:
Velocidad de giro, capacidad, interfaz de conexión y cache.

Prof. Omar Morales


Según (Lázaro, 2014), dentro de un disco duro hay uno o varios platos (entre 2 y 4
normalmente, aunque hay hasta de 6 o 7 platos), que son discos (de aluminio o cristal)
concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es
un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera 6

según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de
lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas
interiores como exteriores del disco.

Cada plato posee dos caras, y es necesaria una cabeza de lectura/escritura para cada
cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se
ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y
contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara
inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales,
no siempre se usan todas las caras de los discos y existen discos duros con un número
impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca
tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima
película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos
incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta
que alcancen una velocidad de giro que garantice la formación de esta película). Si
alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en
él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200
revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas)

Según (Lázaro, 2014), hay varios conceptos para referirse a zonas del disco:

• Plato: Cada uno de los discos que hay dentro del disco duro.
• Cara: Cada uno de los dos lados de un plato.
• Cabeza: Número de cabezales.
Cada una de las caras o cabezas del disco se divide en anillos concéntricos
denominados pistas (tracks), que es donde se graban los datos (Daniel Doña Ibáñez,
2014).
• Pista: Una circunferencia dentro de una cara; la pista 0 está en el borde exterior.

Prof. Omar Morales


• Cilindro: Conjunto de varias pistas; son todas las circunferencias que están alineadas
verticalmente (una de cada cara).
Formados por todas las pistas accesibles en una posición de los cabezales. Se utiliza
este término para referirse a la misma pista de todos los discos de la pila (Daniel
Doña Ibáñez, 2014).
7
• Sector: Cada una de las divisiones de una pista. El tamaño del sector no es fijo,
siendo el estándar actual 512 bytes, aunque próximamente serán 4 KiB.
Cada pista se encuentra dividida en tramos o arcos iguales que permiten la
grabación de bloques de bytes (normalmente, 512 B). Cada uno de estos tramos se
llama sector. Los sectores son las unidades mínimas de información que pueden
leerse o escribirse en el disco duro (Daniel Doña Ibáñez, 2014).

Figura Nº 2. Cilindro, cabeza y sector de un HDD. (Lázaro, 2014)

Prof. Omar Morales


8

Figura Nº 3. Pista, sector y clúster de un HDD. (Lázaro, 2014)

Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el


espacio significativamente, ya que en las pistas exteriores pueden almacenarse más
sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por
zonas) que aumenta el número de sectores en las pistas exteriores, y utiliza más
eficientemente el disco duro. El primer sistema de direccionamiento que se usó fue el
CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato
cualquiera del disco.

Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de
bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un
único número. Éste es el que actualmente se usa.

Según (Lázaro, 2014), si hablamos de disco duro podemos citar los distintos tipos de
conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE,
SCSI o SAS:

• IDE: Integrated Device Electronics ("Dispositivo con electrónica integrada") o ATA


(Advanced Technology Attachment), controla los dispositivos de almacenamiento

Prof. Omar Morales


masivo de datos, como los discos duros y ATAPI (Advanced Technology
Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal
por su versatilidad y asequibilidad. Son planos, anchos y alargados.
• SCSI: Son interfaces preparadas para discos duros de gran capacidad de
almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones:
9
SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido
(Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su
velocidad de transmisión secuencial de información puede alcanzar teóricamente los
5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y
los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI
puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo
margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar
asincrónicamente con relación al microprocesador, lo que posibilita una mayor
velocidad de transferencia.
• SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus
serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE.
Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s
(hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la
actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a
hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los
IDE, además de permitir conexión en caliente.
• SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del
SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los
dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en
caliente. Una de las principales características es que aumenta la velocidad de
transferencia al aumentar el número de dispositivos conectados, es decir, puede
gestionar una tasa de transferencia constante para cada dispositivo conectado,
además de terminar con la limitación de 16 dispositivos existente en SCSI, es por
ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI.
Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos
discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando
costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS
pero no a la inversa, una controladora SATA no reconoce discos SAS.

Prof. Omar Morales


Según (Daniel Doña Ibáñez, 2014), la estructura lógica de un disco duro es la forma en
la que se organiza la información que contiene. Está formada por:

• El sector de arranque (master boot record). Es el primer sector de todo el disco duro:
10
cabeza 0, cilindro 0 y sector 1. En él se almacena la tabla de particiones, que
contiene información acerca del inicio y el fin de cada partición, y un pequeño
programa llamado master boot, que es el encargado de leer la tabla de particiones y
ceder el control al sector de arranque de la partición activa, desde la que arranca el
PC.
• El espacio particionado es el espacio de disco duro que ha sido asignado a alguna
partición. Las particiones se definen por cilindros. Cada partición tiene un nombre;
en los sistemas Microsoft llevan asociada una letra: C, D, E, etc.
• El espacio sin particionar es el espacio que no se ha asignado a ninguna partición.
La Figura Nº 4 muestra una utilidad de administración de discos en la que se
visualizan tres particiones de un disco duro de 80 GB con las letras C, D y E.

Figura Nº 4. Varias particiones en un disco. (Daniel Doña Ibáñez, 2014)

Según (Daniel Doña Ibáñez, 2014), marca la velocidad de giro del disco. Los valores
típicos se encuentran entre 5 400, normalmente en discos duros de portátiles, y 7 200
rpm (revoluciones por minuto), en discos duros para ordenadores de sobremesa. En
discos con interfaz SCSI, las velocidades de giro pueden ser mayores, 10 000 e incluso
15 000 rpm, aunque estos son más ruidosos y consumen más energía.

Prof. Omar Morales


Según (CyLDigital, 2014), son servidores (ordenadores conectados a una red o a
internet) que ofrecen o suministran espacio de almacenamiento online a distancia, bien
de forma gratuita bien bajo pago del servicio. Se accede a ellos a través de la propia red
interna a la que estemos conectados (principalmente para empresas) o a través de 11

internet.

 Samsung
 Toshiba
 Dell
 Quantum
 Seagate
 Maxtor
 Hitachi
 Fujitsu
 Entre otras

Según (SEAGATE, 2014) , PCI Express (PCIe) es una interfaz bus de propósito general
usada en aplicaciones de informática de clientes y empresas. Las interfaces de
almacenamiento masivo existentes (SATA, SAS) se conectan a la computadora
anfitriona mediante adaptadores de host que a su vez se conectan a la interfaz PCIe.

La interfaz SATA se diseñó como una interfaz para unidades de disco duro (HDD) y la
interfaz SAS se diseñó como una interfaz para dispositivos y una interfaz/infraestructura
para subsistemas de almacenamiento. Como las unidades de disco duro de estado
híbrido y los requerimientos del sistema han evolucionado, por lo cual necesitan
interfaces más rápidas y nuevas características, las interfaces SATA y SAS han pasado
por varias revisiones.

Las unidades de estado sólido (SSDs) han agregado nuevos y significativos


requerimientos de rendimiento a estas interfaces, ya que las velocidades de datos de las

Prof. Omar Morales


unidades de estado sólido han pasado de decenas de MB/seg a cientos y ahora a miles
de MB/seg. Además del incremento en las velocidades de datos, la falta de movimiento
mecánico en las unidades de disco de estado sólido también incrementó el número de
operaciones de entrada y salida por segundo (IOPS) que estos dispositivos de
almacenamiento pueden realizar.
12
Esta situación creó la necesidad de implementaciones mejoradas de las normas
existentes, así como mejoras en las normas de las interfaces existentes, para lograr los
nuevos requerimientos de rendimiento, manteniendo la compatibilidad con la
arquitectura del sistema existente.

En el presente artículo se analizan las diferentes interfaces y se contrastan las diversas


ventajas y desventajas encontradas en cuanto a rendimiento y compatibilidad.

¿Qué es RAID?

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), las siglas RAID
(conjunto redundante de discos independientes), hacen referencia a un sistema de
almacenamiento que utiliza un conjunto de discos duros independientes organizados
para que el sistema operativo los vea como un solo disco lógico. Almacena los datos de
forma redundante. Los RAID suelen usarse en servidores y normalmente se
implementan con unidades de disco de la misma capacidad. Los beneficios de RAID
respecto a un único disco duro son: mayor integridad en los datos, mayor tolerancia a
fallos, mayor rendimiento y mayor capacidad Se mejora el rendimiento ya que permite a
varias unidades trabajar en paralelo. La fiabilidad se aumenta mediante dos técnicas:
redundancia que implica el almacenamiento de los mismos datos en más de una unidad
y la paridad de datos. Esta última consiste en un algoritmo matemático que genera
información de paridad, cuando se produce un fallo en una unidad se leen los datos
correctos que quedan y se comparan con los datos de paridad almacenados. El uso de
paridad es menos costoso que la redundancia ya que no requiere la utilización de un
conjunto redundante de unidades de disco.

La tecnología RAID surge ante la necesidad que existe hoy en día de tener un buen
sistema de almacenamiento seguro y tolerante a fallos. Asegura la integridad de los
datos ante la avería de uno de los discos, asegurando un funcionamiento continuo y

Prof. Omar Morales


permitiendo la substitución de una unidad defectuosa sin necesidad de detener los
procesos que se están ejecutando.

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), cada nivel RAID
13
ofrece una combinación específica de tolerancia a fallos (redundancia), rendimiento y
coste, diseñadas para satisfacer las diferentes necesidades de almacenamiento. La
mayoría de los niveles RAID pueden satisfacer solamente uno o dos de estos tres
criterios.

Los niveles de RAID más usados son: RAID 0 (conjunto dividido), RAID1 (conjunto en
espejo) y RAID5 (conjunto dividido con paridad distribuida)

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), tiene la transferencia
más alta pero sin tolerancia a fallos. Se utiliza normalmente para incrementar el
rendimiento. Los datos se dividen en pequeños segmentos (stripes) y se distribuyen en
varias unidades. Al no existir redundancia de datos no hay tolerancia a fallos. No se
considera RAID propiamente dicho, sino un conjunto de unidades de disco conectadas
en paralelo que permiten una transferencia simultánea de datos a gran velocidad. Es
recomendable su uso en aplicaciones de tratamiento de imágenes, audio y vídeo. Se
necesita un mínimo de dos unidades de disco para implementar esta solución.

Figura Nº 5. RAID 0. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Prof. Omar Morales


Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), tiene redundancia. Se
basa en la utilización de discos adicionales sobre los que se realiza una copia en todo
momento de los datos que se están modificando. Se duplican todos los datos de una
matriz en otra, con esto se asegura la integridad en los datos y la tolerancia a fallos. Es 14

una solución costosa ya que las unidades se deben añadir en pares, es una buena
solución cuando solo hay dos unidades disponibles por ejemplo servidores de archivos
pequeños.

Figura Nº 6. RAID 1. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), utiliza un poco de
cada uno lo que proporciona velocidad y tolerancia a fallos. Fracciona los datos para
mejorar el rendimiento mientras que utiliza un conjunto de discos duplicados para
conseguir redundancia de datos. Requiere un mínimo de cuatro unidades, sólo dos de
ellas se utilizan para el almacenamiento de datos.

Prof. Omar Morales


15

Figura Nº 7. RAID 0+1. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), divide los datos a
nivel de bits en lugar de a nivel de bloques, utiliza código Hamming para la corrección
de errores. Los discos son sincronizados por la controladora para funcionar al unísono.
Permite tasas de transferencia extremadamente altas, aunque actualmente no se usa, ya
que las propiedades de código Hamming restringen configuraciones posibles de
matrices para el cálculo de paridad de los discos.

Necesitaría 39 discos, 32 se usarían para almacenar los bits individuales que forman
cada palabra y 7 para la corrección de errores.

Figura Nº 8. RAID 2. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Prof. Omar Morales


Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), acceso síncrono con
un disco dedicado a paridad. Usa división a nivel de bytes. La recuperación de datos se
consigue calculando el O exclusivo XOR de la información registrada en los discos. No
puede atender peticiones simultáneas, cualquier operación de lectura o escritura exige 16

activar todos los discos, son discos paralelos pero no independientes. No se utiliza.

Una petición del bloque «A» formado por los bytes A1 a A6 requeriría que los tres
discos de datos buscaran el comienzo (A1) y devolvieran su contenido. Una petición
simultánea del bloque «B» tendría que esperar a que la anterior concluyese.

Figura Nº 9. RAID 3. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), acceso independiente
con un disco dedicado a la paridad. Basa su tolerancia a fallos en la utilización de un
disco dedicado a guardar la información de paridad calculada a partir de los datos
guardados en otros discos.

Se necesita un mínimo de tres unidades. La ventaja frente a RAID 3 es que se puede


acceder a los discos de forma independiente

Una petición del bloque «A1» sería servida por el disco 0. Una petición simultánea del
bloque «B1» tendría que esperar, pero una petición de «B2» podría atenderse
concurrentemente.

Prof. Omar Morales


17

RAID 4. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), acceso independiente
con paridad distribuida. Ofrece tolerancia a fallos y además optimiza la capacidad del
sistema. Esto se consigue mediante el cálculo de información de paridad y su
almacenamiento alternativo por bloques en todos los discos del conjunto. La
información del usuario se graba por bloques y de forma alternativa en todos ellos.
Elimina el problema de RAID 4 al no asignar un disco específico para la comprobación,
sino que asigna un bloque alternativo de cada disco a esta misión de escritura.

Este es el nivel más eficaz y el de uso preferente para las aplicaciones de servidor en la
empresa. Ofrece la mejor relación rendimiento- coste en un entorno con varias unidades.
Gracias a la combinación del fraccionamiento de datos y la paridad como método para
recuperar los datos en caso de fallo, constituye una solución ideal para los entornos de
servidores en los que gran parte de E/S es aleatoria, la protección y disponibilidad de los
datos es fundamental y el coste es un factor importante. Esta especialmente indicado
para trabajar con sistemas multiusuario.

Se necesita un mínimo de tres unidades de disco para implementarlo, aunque su


resultado óptimo de capacidad se obtiene con siete o más unidades.

Prof. Omar Morales


18

Figura Nº 10. RAID 5. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), acceso independiente
con doble paridad. Parecido al RAID 5, pero incluye un segundo esquema de paridad
distribuido por los diferentes discos, por lo que ofrece tolerancia extremadamente alta a
los fallos y las caídas de disco, ofreciendo dos niveles de redundancia. Su coste de
implementación es muy alto por eso casi no se implementa.

RAID 6. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Los anteriores niveles RAID pueden implementarse en dos tipos de tecnologías RAID:
basada en software y basada en hardware.

Prof. Omar Morales


Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), una manera sencilla
de describir qué es un RAID basado en Software es la realización de una tarea RAID
dentro de una CPU de un equipo informático cualquiera.
19
Algunas implementaciones de sistemas RAID basados solamente en Software incluyen
piezas de Hardware, que hace que la implementación se parezca a un sistema RAID
hardware tradicional. Sin embargo es importante entender que un RAID Software utiliza
potencia de cálculo de la CPU por lo que se tendrá que compartir con el sistema
operativo y todas las aplicaciones asociadas.

Un sistema RAID Software puede implementarse de varias formas:

− Sistema Software puro.

− Sistema hibrido.

Figura Nº 11. Modelo puro de Software – Operating System Software RAID. (Villa Cuetos, Alonso Murias, & García Camporro, 2014)

Según (Villa Cuetos, Alonso Murias, & García Camporro, 2014), en este caso, la
implementación RAID es una aplicación ejecutándose en el host sin ningún hardware
adicional. Se utilizan los discos duros que han sido incluidos en el equipo informático
vía interfaz de Entrada/Salida o vía HBA (Host Bus Adapter).

El raid se vuelve activo tan pronto como el sistema operativo carga los drivers RAID.

Como todas las soluciones RAID Software, a menudo vienen incluidas en el sistema
operativo del servidor y por lo general son gratis para el usuario.

Prof. Omar Morales


Ventajas y desventajas de un Operating System Software RAID:

 Coste reducido: Si la funcionalidad RAID está construida en el sistema operativo el


coste es gratuito. El único coste será el del resto de discos duros.
 Desprotegido al arrancar: Si el disco duro falla o tiene datos corruptos durante el
arranque y antes de que el Software RAID esté activo, el sistema no arrancará. 20

 Aumento de la carga en el servidor: Cuantos más discos estén incluidos en el


sistema RAID y más complejo sea el sistema RAID a desarrollar, mayor impacto
tendrá sobre el rendimiento general. Suele ser más asequible para sistemas simples
de RAID 0 ó 1.
 Problemas para migrar de sistema operativo: La funcionalidad RAID puede estar
limitada únicamente al Sistema Operativo actual.
 Vulnerabilidad ante virus: Al tratarse de una aplicación Software, si el sistema es
atacado por una vulnerabilidad o un virus, puede repercutir directamente sobre el
sistema RAID.
 Problemas con la integridad de los datos ante un reinicio del sistema: Si el sistema
se cae, se pueden producir problemas de consistencia e integridad de los datos.

Las memorias RAM son aquellas que permiten accesos de lectura y escritura de datos e
instrucciones por parte del procesador o cualquier otro dispositivo con capacidad para
ello. Tienen la particularidad de que mantienen el dato mientras tienen energía, y lo
pierden si esta falla, por lo que también se les llama Volátiles. En un principio el
acrónimo bastaba para distinguirlas de las memorias ROM, módulos de memoria de
sólo lectura cuyos datos se grababan en el proceso de fabricación de la memoria y que
por lo tanto no perdían la información en ausencia de energía. Las memorias RAM
primeras se fabricaron con elementos toscos basados en medios magnéticos; con la
aparición de los semiconductores surgieron las RAM transistorizadas. Estas se
componen de una matriz de elementos de almacenamiento (flip-flop o biestables) más
una lógica combinación al de acceso. Son memorias bastante rápidas, pero limitadas en
el aspecto de la integración. Debido a esta limitación aparecieron las memorias RAM
llamadas dinámicas, en las cuales los elementos de almacenamiento se simplifican
mucho a cambio de que la persistencia del dato almacenado tiene un límite si no es
reescrito con cierta periodicidad (refresco). La simplificación de la celda implica mayor

Prof. Omar Morales


capacidad de integración lo que permite fabricar memorias de mayor capacidad al
mismo coste (con el mismo número de transistores), pero a cambio presentan un mayor
tiempo de acceso; en parte por la necesidad de refresco, que obliga a detener todo
acceso durante el tiempo que dura este proceso, y en parte por el método de acceso que
varía ligeramente. Naturalmente hace falta introducir una nueva nomenclatura, y si las
21
nuevas memorias eran dinámicas o DRAM, las otras deberían llamarse Estáticas o
SRAM. Con las sucesivas etapas de perfeccionamiento del procesador, el sistema de
memoria ha sufrido también continuas adaptaciones tanto de organización (introducción
de niveles jerárquicos) como tecnológicos (aumentar el tamaño y mejorar los tiempos de
acceso) para poder adaptarse a los cada vez más exquisitos requerimientos de datos en
cantidad y velocidad. En los últimos tiempos estos cambios han tenido como núcleo
central las memorias DRAM y han ido apareciendo sucesivas nomenclaturas para cada
una de las nuevas aportaciones: FPDRAM, EDO, SDRAM, RDRAM (RAMBUS) y
junto con estas han aparecido los soportes en los que se integran al computador y que
casi pueden confundirse con las propias memorias SIMM, DIMM, RIMM. Nuestro
objetivo es presentar la interfaz de acceso de las memorias SRAM para compararla con
la interfaz de acceso de las DRAM, resaltando su diferencia (que se inclina a favor de
las SRAM, más simple). Luego trataremos de presentar las sucesivas mejoras que ha
sufrido la interfaz de las DRAM en el propósito de mejorar sus tiempos de acceso.1

Figura Nº 12. Memoria RAM – Tipos DDR2

1
Fuente: http://serdis.dis.ulpgc.es/~itis-
byp/NotasDeClase/informacion/Material%20Complementario/RAM/Memorias.pdf
2
Fuente: http://makeuse.blogspot.com/2012/01/why-ddr3-is-better-than-ddr-and-ddr2.html

Prof. Omar Morales


22

Figura Nº 13. Memoria RAM – Tipos DDR3

Según (Sanchez Iglesias, 2014) BIOS es el acrónimo de (Binary Input Output System) y
se encuentra en todos los PCs. Su importancia es tal que sin este componente no podrías
ni encender el equipo. ¿Qué es físicamente y donde se localiza? Este elemento forma
parte del chipset y por lo tanto se encuentra sobre la placa base. Físicamente la BIOS no
es más que un pequeño chip que se activa cuando pulsas el botón de encendido, si
quieres saber su ubicación exacta no tienes más que consultar el manual de tu placa.
¿Qué hace? Tiene varias funciones. La principal es arrancar el PC. Cuando esta
enciende, realiza el test de memoria RAM y comprueba que dispositivos, como por
ejemplo los discos duros, están conectados. En este proceso se encarga de configurarlos
y ofrecérselos al sistema operativo. Si la BIOS es incapaz de detectar un determinado
dispositivo el sistema no podrá usarlo, aquí puedes ver la importancia de este elemento.
La BIOS, por tanto, se convierte en la encargada de ofrecer la capa más cercana al

3
Fuente: http://www.3dcenter.org/news/crucial-demonstriert-lauffaehiges-ddr4-modul-trotzdem-
duerfte-ddr4-noch-einige-jahre-benoetigen

Prof. Omar Morales


hardware. Hace algunos años, cuando los dispositivos eran más lentos. La BIOS
realizaba las operaciones de entrada y salida, de ahí su nombre. Es decir, llevaba los
datos desde los dispositivos al procesador. Esto ha cambiado y ahora se utilizan otros
sistemas más rápidos como accesos DMA en los cuales el procesador mapea la memoria
de las tarjetas saltándose la BIOS y accediendo directamente a los datos. La información
23
necesaria para llevar a cabo su función se encuentra almacenada en una memoria, que se
conoce como CMOS el cual es otro chip que se encuentra sobre la placa. Para que no se
pierdan sus datos el sistema usa una pila como fuente de alimentación y cuando esta se
consume el equipo pierde su configuración y la hora que tiene que volver a
configurarse.

Figura Nº 14. BIOS

Prof. Omar Morales


#free –b (muestra la cantidad de memoria libre en bytes y usada que tiene el sistema)

#free –k (muestra la cantidad de memoria libre en kilobytes y usada que tiene el


sistema)
24

#watch –n 1 –d free (visualizar el uso de la memoria de manera dinámica. La opción –n


indica el tiempo de refrescamiento de la información y –d para resaltar la evolución de
los snapshots.

#df –h (Provee información sobre la utilización del espacio en disco en los diferentes
sistemas de archivos montados en el sistema. –h imprime los tamaños de forma más
legible para humanos)

 Morris, M. Mano (1993) “Arquitectura de computadores” Ed. Prentice Hall.3a Edición.


 Stallings, William (2000) “Organización y Arquitectura de computadores” Ed. Pearson
Educación de México 5ª Edición.
 Tanenbaum, Andrew S. “Organización de computadoras: Un enfoque estructurado” 4ª
Edición Ed. Pearson Education.

 Culler, David; Singh, J.P.; Gupta, Anoop (1998)“Parallel computer architecture: A


hardware/software approach” The Morgan Kaufmann Series in Computer Architecture
and Design. Ed. Morgan Kaufmann 1st Edition.
 De Miguel Anasagasti, Pedro (2004) “Fundamentos de los computadores” 9ª Edición Ed.
Thomson Paraninfo. Madrid.
 Hennessy, John L.; Patterson, David A. (2002) “Computer architecture: A Quantitative
approach” The Morgan Kaufmann Series in Computer Architecture and Design. Ed.
Morgan Kaufmann 3rd Edition.
 Norton, Peter (1994)“Todo el PC” 5a Edición Ed. Prentice Hall.
 Ujaldon Martínez, Manuel (2001)“Arquitectura del PC” Ed. Ciencia 3.

Prof. Omar Morales

También podría gustarte