Está en la página 1de 33

Contenido

Introducción .................................................................................................................................................. 3
Los nuevos dispositivos de almacenamientos .............................................................................................. 4
Respaldo de nube a nube ......................................................................................................................... 4
Contenedores............................................................................................................................................ 6
Flash de alta capacidad ............................................................................................................................. 8
NVMe ........................................................................................................................................................ 9
Almacenamiento definido por software ................................................................................................. 11
Los nuevos tipos de Ranura de Expansión .................................................................................................. 13
Ranura AGP ............................................................................................................................................. 13
Ranura PCI ............................................................................................................................................... 14
Ranura PCI-EXPRESS ................................................................................................................................ 14
Ranura ISA ............................................................................................................................................... 15
Ranura CNR ............................................................................................................................................. 15
Ranura MMC ........................................................................................................................................... 15
Ranura BESA ............................................................................................................................................ 16
Ranura AMR ............................................................................................................................................ 17
Las nuevas tecnologías de tarjeta madre ................................................................................................... 17
AID Performance o seguridad ................................................................................................................. 18
RAID 0...................................................................................................................................................... 18
RAID 1...................................................................................................................................................... 18
RAID 2-3 .................................................................................................................................................. 18
PCI Express 1.0 y 2.0 ............................................................................................................................... 18
SLI y CrossFire ......................................................................................................................................... 19
USB 3.0 .................................................................................................................................................... 20
UWB ........................................................................................................................................................ 20
e-SATA ..................................................................................................................................................... 20
Memoria Ram DDR3 ............................................................................................................................... 21
Memoria Ram DDR4 ............................................................................................................................... 21
Dual Channel ........................................................................................................................................... 22

1
Dispositivos JetBox.................................................................................................................................. 22
Conclusion ................................................................................................................................................... 25
Anexo .......................................................................................................................................................... 25
Bibliogafía.................................................................................................................................................... 29
Preguntas .................................................................................................................................................... 29

2
Introducción
El hardware es la parte física de un ordenador o sistema informático, está formado
por los componentes eléctricos, electrónicos, electromecánicos y mecánicos, tales
como circuitos de cables y circuitos de luz, placas, utensilios, cadenas y cualquier
otro material, en estado físico, que sea necesario para hacer que el equipo funcione.
El término viene del inglés, significa partes duras.

Debido a la cantidad de información que es manejada actualmente por los usuarios,


los dispositivos de almacenamiento se han vuelto casi tan importantes como el
computador. Aunque actualmente existen dispositivos para almacenar que superan
los 650 MB de memoria; no es suficiente por la falta de capacidad para transportar
los documentos y hacer reserva de la información más importante.

Es por tal razón que hoy en día existen diferentes dispositivos de almacenamiento,
que tienen su propia tecnología. En la presente investigación se estudiaran todos y
cada uno de los dispositivos de almacenamiento de un computador, las
distintas marcas, clasificación, entre otros puntos que se irán desarrollando a
medida que se avanza en la investigación.

3
Los nuevos dispositivos de almacenamientos

Los dispositivos de almacenamientos masivos constituyen una parte muy


importante de cualquier sistema o instalación informática. Fueron creados y
desarrollados por la industria de procesos de datos para responder a la necesidad de
los usuarios finales disponiendo de más información.

La tendencia general de todos los dispositivos de almacenamiento masivo de


información se dirige, por un lado al incremento continuo de la capacidad y, por
otro a obtener dispositivos más rápidos, más económicos, de menor tamaño y más
fiable que los que están disponibles en la actualidad.

Respaldo de nube a nube


Solo porque los datos están en la nube no significa que están adecuadamente
protegidos. La copia de seguridad de nube a nube llena ese rol permitiendo a las
empresas copiar los datos almacenados en un servicio de nube, en otra nube. Entre
las tendencias de tecnología de almacenamiento que tendrán un gran año en 2017,
los proveedores de respaldo de nube a nube continúan agregando capacidades,
conforme crece el interés del usuario en los servicios.

El experto en almacenamiento, Brien Posey, cree que el respaldo de nube a nube


probablemente se convertirá en la norma para el 2018. Las razones por las que se
está volviendo popular son dos. "En primer lugar, la tecnología de respaldo está
finalmente empezando a alcanzar a la nube pública, lo que la hace más práctica
para realizar copias de seguridad de nube a nube", escribió Posey en un correo
electrónico. "Segundo, y éste es el más grande, es el factor económico".

Para las organizaciones que trasladan datos a la nube pública porque es más barato,
el respaldo a otro proveedor de la nube tiene sentido económico y ofrece las
ventajas del respaldo externo.

4
Posey todavía ve un papel para las copias de seguridad y el almacenamiento
locales, pero cree que los requisitos de almacenamiento local probablemente
disminuirán en los próximos años.

"Podemos ver al respaldo en la nube convirtiéndose en el estándar de facto, con


instantáneas retenidas en premisas para restauraciones de tipo error del usuario",
escribió el experto en almacenamiento y consultor Chris Evans en un correo
electrónico. "Los proveedores de software de respaldo necesitan y han comenzado
a adaptarse. Los mayores perdedores podrían ser los dispositivos de respaldo en
este caso".

Específicamente, con respaldos de nubes privadas a públicas, hay herramientas


para respaldar y restaurar aplicaciones en la nube, ahorrando dinero y mejorando
las operaciones, agregó Evans. Y, señaló, las aplicaciones y datos de software
como servicio (SaaS) también necesitan respaldo, lo que se hace más fácilmente a
través de la nube.

Como un modelo de entrega de software basado en internet, SaaS se ha convertido


en una opción importante para las empresas que buscan eliminar la sobrecarga de
proporcionar ellos mismos una gama de servicios de TI (por ejemplo, correo
electrónico, colaboración, CRM y así sucesivamente). Así, a medida que SaaS
crece y el trabajo serio se traslada a la nube, más organizaciones están
reconociendo el valor del respaldo de nube a nube, dijo el consultor de
almacenamiento Jim O'Reilly.

"En lugar de devolver datos al centro de datos interno, la economía y la eficiencia


operativa sugieren que una copia de seguridad formal de los datos de la nube en
otro espacio de nombres en la nube es el mejor mecanismo para proteger
totalmente los datos en la nube", explicó O'Reilly. "Aumentar el confort con la
nube como un sitio para ejecutar aplicaciones serias, y el uso cada vez mayor de
SaaS hará que este enfoque sea imprescindible para las operaciones de TI más
grandes en 2017".

Los principales actores en el respaldo de nube a nube orientado a SaaS incluyen


Asigra Cloud Backup, Barracuda Cloud-to-Cloud Backup, Datto Backupify y Dell
EMC Spanning. Barracuda, entre los que mejoraron sus plataformas de respaldo de

5
nube a nube en 2016, redujo el tiempo que tarda completar copias de seguridad
incrementales de versiones alojadas de las aplicaciones de Microsoft.

El respaldo de nube a nube es esencial para proteger los datos creados por las
aplicaciones SaaS. Cabe destacar que, en mayo, una interrupción de Salesforce
impidió a los clientes acceder a sus datos durante varias horas. Además, aunque los
proveedores de SaaS realizan sus propias copias de seguridad, solo es para su
protección. Si, por ejemplo, uno de los usuarios de SaaS borra accidentalmente
algo, sin su propia copia de seguridad, tendría que pagar a Salesforce para restaurar
los datos, y el costo de eso comienza en 10.000 dólares.

Al considerar un plan de respaldo de nube a nube o SaaS, Evans aconsejó a los


administradores que aplicaran los mismos estándares a los procesos de respaldo y
restauración como lo harían con las implementaciones locales. Puede hacerlo, por
ejemplo, probando cuán bien un servicio de respaldo de nube a nube cumple con
los objetivos de tiempo de recuperación y de punto de recuperación.

Contenedores
Impulsada por los avances tecnológicos que permiten que los microservicios de
aplicación consuman directamente el almacenamiento persistente, la virtualización
de contenedores logró importantes avances en el almacenamiento empresarial en
2016. Esperamos que la contenerización de código abierto siga siendo una de las
tendencias de tecnología de almacenamiento de moda en 2017 también, ya que la
tecnología de contenedores ha avanzado en áreas clave como la protección de
datos, el consumo de almacenamiento persistente y la portabilidad.

El desarrollo y las pruebas siguen siendo los usos dominantes de los contenedores,
pero los expertos dicen que los administradores de almacenamiento también están
aprendiendo a manejar selectivamente instancias de Docker. "El mayor cambio, en
una palabra, es la persistencia", dijo Henry Baltazar, director de investigación de
almacenamiento en la firma de consultoría de TI, 451 Research. "Los contenedores
se han movido más allá del almacenamiento efímero al almacenamiento persistente
para almacenar datos y proteger sus aplicaciones".

Aunque CoreOn, rival de código abierto de Docker, lanzó la primera versión


comercial de su tiempo de ejecución Rocket para contenedor Linux este año,
Docker sigue siendo el líder de los contenedores, reclamando más de cinco

6
millones de descargas de software y 650.000 usuarios registrados. Los equipos de
aplicaciones utilizan Docker para desarrollar rápidamente, enviar y engendrar
aplicaciones dentro de contenedores. Cuanto más se acercan las aplicaciones
"Dockerizadas" al despliegue en tiempo real, mayor es la necesidad de administrar
y suministrar el almacenamiento Docker en contenedores sin estado.

El motor de tiempo de ejecución Docker estaba originalmente diseñado para


almacenamiento basado en Linux, pero con Windows Server 2016 (lanzado en
septiembre), Microsoft ahora permite a los administradores gestionar la
virtualización de Docker en los servidores Windows. Microsoft también agregó su
propio tiempo de ejecución de contenedor a su último sistema operativo de
servidor, permitiendo a los departamentos de Microsoft lanzar contenedores
basados en Windows sobre hardware de servidor Windows Server 2016 o dentro
de máquinas virtuales Hyper-V.

Mientras que la virtualización de hardware está aquí para quedarse, la


contenerización amplía el concepto mediante la virtualización del propio sistema
operativo, permitiendo así que las cargas de trabajo compartan el código
subyacente y las bibliotecas dependientes. Las empresas con almacenamiento
altamente virtualizado podrían implementar cientos, o tal vez miles, de
contenedores en un solo nodo, todos ejecutándose como instancias ligeras.

Permitir el almacenamiento persistente en contenedores es una prioridad para los


proveedores de almacenamiento, dijo Greg Schulz, fundador y asesor senior de la
firma de infraestructura de TI, Server StorageIO. "El soporte para los contenedores
sin estado y con estado serán la norma dentro de 18 meses. Los contenedores para
Docker, Linux y Windows se convertirán en una unidad de computación más
viable, uniendo bare metal físico junto con otras máquinas virtuales definidas por
software, e instancias de máquinas en la nube".

Los proveedores de almacenamiento heredados Dell EMC, Hewlett Packard


Enterprise (HPE), Hitachi Data Services, IBM y NetApp están diferenciando sus
arreglos de almacenamiento para implementar y administrar entornos Docker a
gran escala. Portworx, Rancher Labs y StorageOS están entre las primeras startups
de software de contenedores que abordan la gestión de datos y la migración segura
de datos de contenedores entre nodos de servidores.

7
Red Hat agregó el almacenamiento definido por software Red Hat Gluster como un
back end de almacenamiento persistente para contenedores de aplicaciones basados
en Linux. Incluso el gigante de la virtualización, VMware, se ha unido a la
refriega. VMware Integrated Containers permite a los clientes ejecutar
contenedores en vSphere.

Como con cualquier nueva tecnología, el ciclo de propaganda para contenedores ha


superado el despliegue real. Eso significa que las empresas deben moverse con
cautela al conectar los puntos entre los contenedores y la gestión del
almacenamiento, dijo Baltazar.

"Las empresas no van a empezar a correr un montón de aplicaciones de base de


datos Oracle en un contenedor, pero hay áreas donde los contenedores son
importantes", señaló Baltazar. "Las aplicaciones móviles y la analítica son ideales
para los contenedores. Usted obtiene una poderosa asignación de recursos y la
posibilidad de realizar aprovisionamientos muy rápidamente".

Flash de alta capacidad


Samsung presentó una unidad de estado sólido SAS de 2,5 pulgadas y 15 TB
(capacidad real de 15,36 TB) en 2015. Esa unidad, que comenzó a enviarse la
primavera pasada, es actualmente la SSD empresarial de mayor capacidad
disponible, y ahora está empezando a aparecer en arreglos todo-flash de HPE y
NetApp. Para no quedarse atrás, Seagate dio a conocer una unidad SSD SAS de 60
TB en un factor de forma de 3,5 pulgadas en la Cumbre de Memoria Flash de este
año, y ahora se está asociando con HPE para ponerla en producción masiva.

Aumentar la capacidad de las unidades a alturas previamente inimaginables es la


última de las tendencias de tecnología de almacenamiento de moda en la industria
del flash. Si eso suena familiar, debería serlo. Al igual que en los primeros días de
las unidades de disco duro, los proveedores de SSD ahora están compitiendo en
niveles de capacidad de alta densidad, o en quién puede acumular el flash de mayor
y más alta densidad en una unidad de tamaño estándar.

Samsung basa sus grandes unidades en su chip V-NAND de 512 GB. El proveedor
apila chips V-NAND 512 en 16 capas para forjar un paquete de TB, 32 de los
cuales se combinan en 32 TB SSD. Samsung señaló su 32 TB permitirá una mayor
densidad que el 60 TB SSD de Seagate, porque 24 unidades de 2,5 pulgadas

8
pueden caber en el mismo espacio que 12 SSD de 3,5 pulgadas. Tanto las 32 TB de
Samsung como las 60 TB SSD de Seagate se enviarán en algún momento del 2017.
Por lo tanto, parece que Seagate será el número uno en densidad por un tiempo, al
menos hasta que Samsung empaque su tecnología flash de alta densidad en una
unidad de 60 TB propia.

De acuerdo con Russ Fellows, socio senior y analista de Evaluator Group,


eventualmente llegará al punto en que el disco giratorio se convierta en secundario
a los SSD. "Creo que, cuando la densidad comienza a subir tan rápido y los dólares
por gigabyte bajan, va a ser incluso más barato que las unidades SATA rápidas",
dijo. "Muy pronto, [los SSDs] serán más baratos que el disco giratorio. Para el año
2020, el disco giratorio probablemente estará muerto".

Para Mark Bregman, vicepresidente senior y director de tecnología de NetApp, los


SSD de alta capacidad ofrecen enormes reducciones de espacio y ahorros en
energía y refrigeración.

"Las matrices de todo flash de NetApp que usan SSDs de alta capacidad ahora
pueden abordar casos de uso de clientes donde tal alivio significativo
históricamente ha sido poco práctico", escribió Bregman en una publicación en el
blog de NetApp Community. "Desde el punto de vista de la eficiencia del espacio,
no puede vencer a las nuevas matrices todo-flash de alta capacidad, que
proporcionan hasta 321,3 TB de almacenamiento bruto en un solo factor de forma
de 2U. Esto significa que un único sistema de 2U usando unidades de 15,3 TB
puede proporcionar más de 1 petabyte de capacidad efectiva".

"Lograr la misma [capacidad] con incluso las unidades de disco duro SFF de más
alta densidad", continuó, "requeriría 52U de espacio en rack y 18 veces más
energía".

NVMe
Las unidades de estado sólido han sido el mayor mercado para el almacenamiento
específico de memoria expresa no volátil (NVMe) hasta la fecha. Sin embargo, la
tecnología NVMe, que reduce la latencia y aumenta el rendimiento, es una de las
tendencias de tecnología de almacenamiento que comienza a estar de moda en los
sistemas de almacenamiento empresarial.

9
Según Jeff Janukowicz, vicepresidente de investigación de IDC, los envíos de
modelos de servidores, así como de matrices de almacenamiento híbridas y de todo
flash que apalancan la tecnología NVMe deberían más que duplicarse en 2017,
debido a precios más asequibles y un ecosistema en expansión.

“La adopción de NVMe todavía está en su infancia", escribió Janukowicz en un


correo electrónico. "Sin embargo, estamos en un punto de inflexión, y estamos
empezando a ver muchos más modelos que están empezando a volverse
disponibles para el mercado más amplio".

NVMe es una alternativa al antiguo SCSI para transferir datos entre hosts y
almacenamiento periférico. SCSI se convirtió en un estándar en 1986, cuando los
discos duros y la cinta eran los medios de almacenamiento principales del centro
de datos. La industria diseñó NVMe para soportar una tecnología de
almacenamiento más rápida, como los SSD PCI Express (PCIe). La especificación
NVMe, lanzada en 2011, proporciona una interfaz de registro simplificada y un
conjunto de comandos para reducir la sobrecarga de CPU de la pila de E/S.

Eric Burgener, director de investigación de IDC, destacó el análisis de big data en


tiempo real como un tipo de carga de trabajo de aplicación que requeriría el nivel
de rendimiento que NVMe puede ofrecer. Los proveedores que apuntan a esas
cargas de trabajo de alto rendimiento con productos de almacenamiento basados en
NVMe incluyen Dell EMC (con sistemas de almacenamiento todo flash DSSD),
E8 Storage y Mangstor, dijo.

Burgener predijo que NVMe en los sistemas de almacenamiento, también conocido


como "flash a escala de rack", seguiría siendo un mercado relativamente pequeño,
pero creciente, en los próximos años. Él dijo que el mercado de arreglos crecería
más rápidamente una vez que los dispositivos NVMe empaquetados soporten
capacidades empresariales tales como enchufe en caliente y puerto dual.

También está en el horizonte NVMe sobre tejidos (NVMe-oF), que permite el uso
de transportes alternativos a PCIe para extender la distancia sobre la cual los hosts
NVMe y los dispositivos de almacenamiento NVMe pueden conectarse. NVM
Express Inc., una organización sin fines de lucro de más de 100 proveedores,
finalizó la especificación de NVMe-oF en junio de 2016.

10
El potencial de crecimiento a largo plazo de NVMe es significativo. La firma de
investigación de mercado G2M Inc. pronosticó que el mercado NVMe alcanzaría
los 57 mil millones de dólares en 2020, con una tasa de crecimiento anual
compuesta de 95%.5

Almacenamiento definido por software


Hay muchos términos vagamente definidos que se utilizan en el mundo de la
tecnología en general, y para el almacenamiento en particular. El término
“almacenamiento menos claro” puede muy bien ser uno de los términos más
citados actualmente sobre el almacenamiento definido por software (SDS).

WhatIs.com definió SDS como "un acercamiento al almacenamiento de datos en el


cual la programación que controla las tareas relacionadas con el almacenamiento
está desacoplada del hardware de almacenamiento físico". Es una definición que es
lo suficientemente flexible en su interpretación para cubrir todo tipo de
tecnologías. La cuestión es que esas tecnologías realmente comparten algunas
características, principalmente un enfoque en servicios de almacenamiento, en
lugar de en el hardware, y el uso de gestión basada en políticas para permitir una
mayor eficiencia y una menor complejidad cuando se trata de administrar el
almacenamiento.

Una de las principales áreas de confusión proviene de cómo SDS es más utilizado
en relación con los entornos virtualizados. Sin embargo, eso no es un requisito.
Afortunadamente, el mercado está llegando lentamente a un acuerdo sobre
exactamente lo que es SDS. Para poder llamarse almacenamiento definido por
software, un producto debe permitir a los usuarios asignar y compartir recursos de
almacenamiento en cualquier carga de trabajo, incluso si el almacenamiento no
está virtualizado.

En el número de marzo de 2016 de la revista Storage, el analista de


almacenamiento Marc Staimer, de Dragon Slayer Consulting, estableció cuatro
categorías básicas de SDS: basada en hipervisor, infraestructura hiperconvergente
(HCI), virtualización de almacenamiento, y objeto o archivo de escala horizontal.

11
VMware prácticamente posee la categoría basada en hipervisor con vSphere
Virtual SAN. Como la segunda categoría SDS más antigua con productos en el
mercado, está bien establecida entre las tendencias de la tecnología de
almacenamiento. Sin embargo, también está restringido al hardware que VMware
ha determinado compatible.

La mayor parte del mercado de SDS reside en HCI SDS, a través de productos
ofrecidos por gigantes como Cisco, Dell EMC e IBM, así como startups como
Nutanix y SimpliVity. El aspecto positivo de HCI SDS es cómo todo lo que
necesita para su infraestructura de almacenamiento está incluido y diseñado para
trabajar juntos. Lo negativo es que significa que solo los recursos de la HCI pueden
aprovechar los beneficios de la SDS.

La virtualización de almacenamiento SDS es el abuelo de todas las variedades de


almacenamiento definido por software, y DataCore, Dell EMC, IBM e incluso
Microsoft ofrecen productos en esta categoría. Pero solo porque es el más antiguo,
no significa que no hay jugadores más jóvenes (incluyendo NetApp, Nexenta
Systems y StarWind Software) en el juego.

El más nuevo en el mercado es el SDS de objeto o archivo de escala horizontal.


Incluso en esta área, además de compañías nuevas como Scality, usted tiene
gigantes en competencia, como Spectrum Storage de IBM y Red Hat con sus
productos OpenStack y basados en Ceph.

La continua caída en el precio de los productos básicos está estimulando una


mayor adopción de SDS. Con SDS, hay menos necesidad de hardware específico
para obtener altos niveles de rendimiento, especialmente cuando se utiliza un tipo
de almacenamiento definido por software centrado en el rendimiento en la
empresa. Además, como el almacenamiento de objetos se ha convertido menos en
una plataforma de almacenamiento de datos de solo nube, esa versión particular de
SDS ha ganado rápidamente terreno en el centro de datos.

En una reciente entrevista, el CEO y fundador de la startup de SDS, Hedvig Inc.,


Avinash Lakshman, explicó por qué él piensa que SDS de escala horizontal es una
tecnología de moda que seguirá creciendo rápidamente.

12
"El ROI es bastante simple porque los costos de hardware no van a ninguna parte,
sino hacia abajo. Gente como Amazon, Google, y todas estas empresas de gran
escala de internet, están obviamente yendo por ese camino. Está obligando a la
empresa a echar un vistazo a ellos y hacer la pregunta: ¿si ellos pueden hacer
mucho más con mucho menos, por qué nosotros no?".

Los nuevos tipos de Ranura de Expansión

Una ranura de expansión (también llamada slot de expansión) es un elemento de la


placa base de un ordenador que permite conectar a esta una tarjeta adicional o de
expansión, la cual suele realizar funciones de control de dispositivos periféricos
adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas
madre del tipo LPX las ranuras de expansión no se encuentran sobre la placa sino
en un conector especial denominado riser card.

Las ranuras están conectadas entre sí. Una computadora personal dispone
generalmente de ocho unidades, aunque puede llegar hasta doce.

Ranura AGP
Una ranura de expansión, bus de expansión ó "slot" es un elemento que
permite introducir dentro de si, otros dispositivos llamados tarjetas de
expansión (son tarjetas que se introducen en la ranura de expansión y dan
más prestaciones al equipo de cómputo), mientras que la definición de Intel® de su
conector es como puerto debido a sus características, por ello aún no está bien
determinado el tipo que es.

AGP proviene de las siglas de ("Accelerated graphics Port") ó puerto acelerador de


gráficos. Este tipo de ranura-puerto fue desarrollado por Intel® y lanzado al
mercado en 1997 exclusivamente para soporte de gráficos.

Los bits en las ranuras de expansión signifaca la capacidad de datos que es capaz
de proveer, este dato es importante ya que por medio de una fórmula, es
posible determinar la transferencia máxima de la ranura ó de una tarjeta de
expansión.

13
Ranura PCI

PCI (Peripheral Component Interconnect) Es un estándar abierto desarrollado por


Intel en tiempos del 486. Permite interconectar tarjetas de vídeo, audio,
adaptadores de red y otros muchos periféricos con la placa base. El estándar PCI
2.3 llega a manejar 32 bits a 33/66MHz con tasas de transferencia de datos de
133MB/s y 266MB/s respectivamente. No obstante y hoy en día Intel impulsa
decididamente el estándar PCI express, que en su versión x16 y funcionando en
modo dual proporciona una tasa de transferencia de datos de 8GB/s, ni más ni
menos que 30 veces más que PCI 2.3.

La fotografía superior nos muestra una ranura PCI (en blanco) y otra PCI-express
x16 (en negro), las tarjetas diseñadas para una y otra son incompatibles entre sí.
Normalmente el bus PCI de la placa base admite un máximo de cuatro ranuras
numeradas del 1 al 4, pueden existir una quinta ranura PCI pero en realidad está
compartida.

La primera ranura PCI se utilizaba para el adaptador gráfico,pero se sustituyó por


la ranura AGP específicamente diseñada para esta tarea.

Ranura PCI-EXPRESS
PCI Express (anteriormente conocido por las siglas 3GIO, en el caso de las
"Entradas/Salidas de Tercera Generación", en inglés: 3rd Generation In/Out) es un
nuevo desarrollo del bus PCI que usa los conceptos de programación y los
estándares de comunicación existentes, pero se basa en un sistema de
comunicación serie mucho más rápido. Este sistema es apoyado principalmente por
Intel, que empezó a desarrollar el estándar con nombre de proyecto Arapahoe
después de retirarse del sistema Infiniband.

PCI Express es abreviado como PCI-E o PCIe, aunque erróneamente se le suele


abreviar como PCI-X o PCIx. Sin embargo, PCI Express no tiene nada que ver con
PCI-X que es una evolución de PCI, en la que se consigue aumentar el ancho de
banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido
que el PCI 2.1. Su velocidad es mayor que PCI-Express, pero presenta el
inconveniente de que al instalar más de un dispositivo la frecuencia base se reduce
y pierde velocidad de transmisión.
14
Ranura ISA
ISA proviene de las siglas de ("industry standard architecture")o arquitectura
estandar de la industria,tambien llamada en un inicio como bus at ("advanced
tecnology"),esto es, tecnologia avanzada.este tipo de ranura se comercializa en
1980. Y hay dos versiones una de 8 bits y 16 bits.

Ranura CNR
Communication and Networking Riser o CNR (en español "elevador de
comunicaciones y red") es una ranura de expansión en la placa base para
dispositivos de comunicaciones como módems, tarjetas de red, al igual que la
ranura audio/modem riser (AMR) también es utilizado para dispositivos de audio.
Fue introducido en febrero de 2000 por Intel en sus placas para sus procesadores
Pentium y se trataba de un diseño propietario por lo que no se extendió más allá de
las placas que incluían loschipsets de Intel.

Adolecía de los mismos problemas de recursos de los dispositivos diseñados para


ranura AMR. Actualmente no se incluye en las placas madres.

Ranura MMC
MultiMediaCard o MMC es un estándar de tarjeta de memoria. Prácticamente
igual a la Secure Digital, carece de la pestaña de seguridad que evita sobrescribir la
información grabada en ella. Su forma está inspirada en el aspecto de los antiguos
disquetes de 3,5 pulgadas. Actualmente ofrece una capacidad máxima de 8 GB.

Presentada en 1997 por Siemens AG y SanDisk, se basa en la memoria flash de


Toshiba base NAND, y por ello es más pequeña que sistemas anteriores basados en
memorias flash de Intel base NOR, tal como la CompactFlash. MMC tiene el
tamaño de un sello de correos: 24 mm x 32 mm x 1,4 mm. Originalmente usaba
una interfaz serie de 1-bit, pero versiones recientes de la especificación permite
transferencias de 4 o a veces incluso 8 bits de una vez. Han sido más o menos
suplantadas por las Secure Digital (SD), pero siguen teniendo un uso importante
porque las MMCs pueden usarse en la mayoría de aparatos que soportan tarjetas
SD (son prácticamente iguales), pudiendo retirarse fácilmente para leerse en un
PC.

Las MMC están actualmente disponibles en tamaños de hasta 8GB anunciados,


aún no disponibles. Se usan en casi cualquier contexto donde se usen tarjetas de
15
memoria, como teléfonos móviles, reproductores de audio digital, cámaras
digitales y PDAs. Desde la introducción de la tarjeta Secure Digital y la
ranuraSDIO (Secure Digital Input/Output), pocas compañías fabrican ranuras
MMC en sus dispositivos, pero las MMCs, ligeramente más delgadas y de pines
compatibles, pueden usarse en casi cualquier dispositivo que soporte tarjetas SD si
lo hace su software/firmware.

Ranura BESA
Este slots se empezó a usar 486 y se dejó de usar en los primeros tiempos de
Pentium. La razón principal de su introducción fue mejorar el rendimiento de la
tarjeta de video.

Es compatible con su antecesor de 8 bits y 16 bits. Físicamente este slots esta


compuesto por tres piezas dos de estas, iguales a los slots de su antecesora de 16
bits de color negro y una nueva pieza adicional de color marrón. Esta tecnología se
estaba imponiendo hasta la aparición de la norma PCI.

Son un desarrollo a partir de ISA, que puede ofrecer unos 160 MB/s a un máximo
de 40 MHz. Son larguísimas, unos 22 cm, y su color suele ser negro, a veces con el
final del conector en marrón u otro color.

Introdujo el concepto de bus local, que es un canal de comunicación directo con el


procesador. Es de 32 bits, y su bus es una extensión del bus del procesador 486. Es
una ranura ISA con una extensión más fina. Corre a 33 Mhz. Se limitaba como
máximo a tres dispositivos. Normalmente se podían utilizar hasta dos sin
problemas, pero le agregabas una tercera tarjeta Vesa y la máquina reseteaba, etc.

Es considerado obsoleto, ya que estaba optimizado para el procesador 486.

Ancho: 32 bits

Velocidad: 40 Mhz

Transferencia de datos: 160 MB/s

Tamaño: 22 cm.

16
Ranura AMR
El audio/módem rise, también conocido como slot AMR2 o AMR3 es una ranura
de expansión en la placa madre para dispositivos de audio (como tarjetas de
sonido) o modems lanzada en 1998 y presente en placas de Intel Pentium II, Intel
Pentium IV y AMD Athlon. Fue diseñada por Intel como una interfaz con los
diversos chipsets para proporcionar funcionalidad analógica de Entrada/Salida
permitiendo que esos componentes fueran reutilizados en placas posterioreres sin
tener que pasar por un nuevo proceso de certificación de la FCC (con los costes en
tiempo y económicos que conlleva).

Cuenta con 2x23 pines divididos en dos bloques, uno de 11 (el más cercano al
borde de la placa madre) y otro de 12, con lo que es físicamente imposible una
inserción errónea, y suele aparecer en lugar de un slot , aunque a diferencia de este
no es plug and play y no admite tarjetas aceleradas por hardware (sólo por
software)En un principio se diseñó como ranura de expansión para dispositivos
económicos de audio o comunicaciones ya que estos harían uso de los recursos de
la máquina como elmicroprocesador y la memoria RAM. Esto tuvo poco éxito ya
que fue lanzado en un momento en que la potencia de las máquinas no era la
adecuada para soportar esta carga y el mal o escaso soporte de los drivers para
estos dispositivos en sistemas operativos que no fuesen Windows.
Tecnológicamente ha sido superado por el Advanced Communications Riser
Communications and Networking Riser de Intel. Pero en general todas las
tecnologías en placas hijas (riser card) como ACR, AMR, y CNR, están hoy
obsoletas en favor de los componentes embebidos y los dispositivos USB.

Las nuevas tecnologías de tarjeta madre

Los motherboards fueron evolucionando a lo largo de su historia por dos motivos:


el formato y distribución de sus componentes y por la cantidad y variedad de
funciones agregadas.Hoy en día es muy común ver motherboards con video
incorporado y es raro que alguna placa base no posea sonido o red incorporados de
fábrica.

17
AID Performance o seguridad
Últimamente en la mayoría de las placas base podemos ver dos o cuatro conectores
S-ATA dedicados especialmente al soporte de RAID (Redundant Array of
Independent Disks o conjunto redundante de discos independientes).

Este sistema permite conectar varios discos en simultáneo para logar mayor
rendimiento, mayor seguridad o ¡ambas! Estos métodos se categorizan por
números o niveles, siendo los más utilizados RAID 0, RAID 1, RAID 2 y RAID 3.

RAID 0
Ofrece mayor rendimiento, ya que se utilizan dos discos, pero en Windows éstos
suman sucapacidad para conformar una sola unidad y cada archivo es almacenado
en fragmentos que se reparten entre los dos discos. De esta forma, cuando el
sistema necesita leer un dato, los dos discos cooperan en esa tarea, y el tiempo de
respuesta es significativamente menor. Es ideal para acelerar la lectura de discos y
es aprovechado por usuarios hogareños y gamers. Se conoce a este método como
striping, por el segmentado de archivos.

RAID 1
Este nivel utiliza dos discos donde almacena una copia de cada archivo en ambos
discos y se lo conoce como “espejado”. Es más seguro, ya que genera un backup
en tiempo real en el otro disco y ante una pérdida de información no necesita
reconstruir datos, ya que el segundo disco contiene la misma estructura de archivos
que el principal.

RAID 2-3
En este método se congregan más discos para formar un conjunto, y por lo tanto
obtener tolerancia a fallas múltiples. Se utiliza corrección de errores ECC para
RAID 2 y paridad para RAID 3. Suele utilizarse en servidores web, de correo y de
archivos.

PCI Express 1.0 y 2.0


Antes conocido como 3GIO y apoyado por Intel, nació en 2004 y fue pensado para
reemplazar definitivamente al PCI y al AGP, el PCI-Express es un bus local que
utiliza una señal serie punto a punto, que logra altas tasas de transferencia al enviar
y recibir información. Por ahora está presente en los motherboards de alta gama o

18
en las versiones “Deluxe”, pero de a poco se va afianzando cada vez más, hasta
que en unos dos o tres años reemplace por completo al PCI.

Este tipo de puerto utiliza dos carriles que operan a 2,5 Gbit/s o 250 MB/s, uno
para recibir y otro para enviar datos. Existen variantes en los puertos PCI-Express,
estas son: 1x, 4x, 8x y 16x.La versión de 16x logra un ancho de banda de 4 GB/s y
apunta principalmente a placas de video aceleradoras 3D.Vale aclarar que una
placa PCI-Express 1x puede colocarse perfectamente en un zócalo de 4x, 8x o 16x.

Al menos por ahora, no se ha logrado aprovechar al máximo el total de ancho de


banda ofrecido por la versión de 16x. Las aceleradoras de video PCI-Express no
logran sacarle el jugo a esta tecnología y por ahora ofrecen un rendimiento similar
al de una placa con bus AGP 8x.

En el año 2007, se liberó la segunda versión del bus PCI Express, denominada 2.0
y dobla la tasa de transferencia de 250 a 500 MB/s. El próximo estándar ya en
desarrollo, el 3.0, planea volver a duplicar ese valor del estándar 2.0.

SLI y CrossFire
En la lucha por alcanzar el máximo rendimiento nVidia y ATI se enfrentan una vez
más para ser el líder del mercado en el apartado de la aceleración 3D. nVidia
desarrolló en 2003 una tecnología llamada SLI (Scalable Link Interface) basándose
en una idea que unos cuantos años atrás ya se había utilizado en las clásicas placas
3Dfx VooDoo2.

SLI consta de instalar dos placas aceleradoras idénticas en un mismo motherboard


que soporte esta norma y que, obviamente, posea dos zócalos PCI-Express 16x
libres. Las placas se unen entre sí por medio de un puente interno. De esta forma,
las aceleradoras se reparten el trabajo de procesamiento gráfico, sobre todo en
juegos, para lograr un mayor rendimiento.

ATI arremetió contra nVidia con su sistema CrossFire, que básicamente utiliza el
mismo principio de funcionamiento pero las placas se conectan mediante un cable
externo.

19
USB 3.0
La tercera versión del puerto más popular, se encuentra en pleno desarrollo. La
primera especificación estará disponible pronto y los primeros dispositivos verán la
luz en lo que queda del 2009 o durante 2010.

El ancho de banda de esta nueva interfaz será de 4,8 Gbits por segundo (o 600
MB/s), valor diez veces más rápido que el USB 2.0 y 32 veces más que el USB
1.1.

Esto se logra gracias al uso de cables de fibra óptica en vez de los tradicionales
pares de cobre. Con respecto a su competencia, el puerto FireWire, podemos decir
que Apple planea especificar los sucesores del FireWire 800, conocido como
IEEE1394b/c con el FireWire 1600 y 3200, mencionados anteriormente; de 1.6
Gbps y 3.2 Gbps, respectivamente.

UWB
Existen pruebas para dar vida a una tecnología inalámbrica tanto para USB como
para FireWire, más precisamente sobre un enlace o señal llamado UWB
(UltraWide Band). Apuntan a reemplazar a las existentes redes WiFi y dispositivos
Bluetooth con estos enlaces ultra-rápidos.

Estas nuevas implementaciones son también conocidas como Wireless USB


(también conocido como WiMedia) y Firewireless –aunque no son sus nombres
definitivos-. El Wireless USB operará a la nada despreciable cifra de 300 Mbits
por segundo.

e-SATA
Estandarizado a mediados de 2004, pasó mucho tiempo hasta que los fabricantes
de hardware incluyeran el estándar e-SATA (o external Serial-ATA) en sus
productos. No se trata de una interfaz de conexión de discos más, se trata de la
primera interfaz exclusiva para discos duros en versión externa. Cada vez más
motherboards incorporan entre sus puertos, uno o más de este tipo.

Con respecto a las características técnicas, el e-SATA es muy similar al Serial-


ATA interno. Sólo varían los valores de voltaje para los canales de envío y
recepción de datos y el formato de los conectores externos.

20
La longitud máxima de los cables externos para este bus es de dos metros y sólo se
puede conectar un dispositivo por puerto (disco duro o grabadora de DVD).
Aunque utilizando un hub serial-ata, el número de dispositivos conectados puede
ascender hasta los quince.

La ventaja que trae este bus modificado es la de poder conectar fácilmente


unidades de disco de gran capacidad si necesidad de abrir el chasis de la PC. Como
desventaja, este bus no posee alimentación para las unidades -como el bus
FireWire-, y es necesario utilizar un transformador externo.

Memoria Ram DDR3


Tipo de doble velocidad de datos tres SDRAM ( DDR3 SDRAM ) es un tipo
de memoria dinámica síncrona de acceso aleatorio(SDRAM) con un alto ancho de
banda ( " doble velocidad de datos ") de la interfaz, y ha estado en uso
desde 2007. Es la más alta velocidad sucesor de DDR y DDR2 y predecesor
a DDR4 sincronizadas DRAM chips (SDRAM). DDR3 SDRAM no es ni hacia
delante nihacia atrás compatible con cualquier versión anterior de la memoria de
acceso aleatorio (RAM), debido a diferentes voltajes de señalización, tiempos, y
otros factores.

DDR3 es una especificación de interfaz de DRAM. Los arrays de DRAM reales


que almacenan los datos son similares a los tipos anteriores, con un rendimiento
similar

Memoria Ram DDR4


DDR4 SDRAM , una abreviatura de doble velocidad de datos de memoria de
acceso aleatorio dinámica síncrona de cuarta generación , es un tipo de memoria
dinámica síncrona de acceso aleatorio (SDRAM) con un alto ancho de banda (
" doble velocidad de datos ") de la interfaz. Lanzado al mercado en
2014, [2] [3] [4] es una de las últimas variantes de memoria de acceso aleatorio
dinámico (DRAM), algunos de los cuales han estado en uso desde principios de
1970, [5] y una de mayor velocidad sucesora de las DDR2 y DDR3 tecnologías.

21
No es compatible con cualquier tipo anterior de memoria de acceso aleatorio
(RAM), debido a diferentes voltajes de señalización, la interfaz física y otros
factores.

DDR4 SDRAM fue lanzado al mercado público en Q2 2014, centrándose en la


memoria ECC , [6] mientras que los módulos no ECC DDR4 llegaron a estar
disponibles en la Q3 de 2014, que acompaña el lanzamiento de Haswell-
E procesadores que requieren de memoria DDR4.

Dual Channel

Se trata de una tecnología que permite un incremento de rendimiento gracias al


acceso simultáneo a dos módulos distintos de memoria. Esto se consigue mediante
un segundo controlador de memoria ubicado en el Northbridge del chipset,
actualmente la mayoría de los motherboards soportan Dual Channel.

Las mejoras de rendimiento son particularmente perceptibles cuando se trabaja con


placas de video integradas en el motherboard ya que estas, al no contar con
memoria propia, usan la memoria RAM principal del sistema y, gracias a Dual
Channel, pueden acceder a un módulo mientras el sistema accede al otro.

Para que la computadora pueda funcionar en modo Dual Channel, deben tenerse
dos módulos idénticos de memoria en los zócalos correspondientes y el chipset del
motherboard soportar esa tecnología.

Las nuevas tendencias a conexión inalámbrica en el Hardware Actualmente el


mundo de las comunicaciones industriales evoluciona hacia nuevos dispositivos
que permiten ir un poco más allá del ‘switch’ o el ‘router’ configurable. Se están
popularizando dispositivos todo en uno, con plenas capacidades
‘switching/routing’, servidor de puertos serie y E/S digitales que además son
programables de una forma sencilla y rápida. Se permite así el desarrollo de
aplicaciones a medida dentro del mismo ‘switch’ o ‘router’ en función de las
necesidades del proyecto, dando muchas más opciones de las que ofrece un menú
configurable en un dispositivo clásico.

Dispositivos JetBox

22
La gama JetBox está compuesta íntegramente por dispositivos ‘fanless’, sin
ventiladores, por lo que su grado de fiabilidad es elevado. Además los modelos
estándar ya vienen de fábrica con un margen de temperatura de funcionamiento
extendido: -25 °C a 70 °C.

Se trata de ordenadores ‘Embedded’ Linux con un sistema operativo Linux JetOS


de Korenix, versión de Fedora adaptado para los JetBox, y que dispone de dos
versiones según los modelos:

JETOS95 con un núcleo 2.6.21 y la versión JETOS93 con un núcleo 2.6.20 para
los modelos más básicos. Integran diferentes interfaces de Ethernet, habitualmente
un puerto para conexión WAN y un ‘switch’ de diferentes puertos para el interface
LAN, así como varios puertos serie y entradas/salidas digitales.

Al estar basados en Linux son dispositivos totalmente abiertos que ofrecen un alto
grado de compatibilidad y son fáciles de programar por cualquier nivel de
programación además para facilitar el trabajo existe un entorno de desarrollo SDK
gratuito.

Los propios dispositivos ya vienen integrados con todas las herramientas de


comunicaciones mediante las cuales es posible configurar, de manera fácil,
funcionalidades de capa 2 y capa 3 a través de interface web o mediante llamada a
función.

Así, estos únicos dispositivos realizan funciones de VPN, Firewall, DMZ, OSPF,
RIP, DVMRP, routing estático: protocolos NAT, PAT, así como capa 2: DHCP,
QoS, VLAN, SNMP, ACL, etc.

Gracias a estas prestaciones e integración, se recupera el concepto de la pequeña


aplicación desarrollada en MSDOS/Linux que permitía trabajar en un ordenador
sencillo de forma muy estable, y que ahora había perdido gran parte de su
fiabilidad al requerir un equipo con ventiladores basado en Windows.

Se puede acceder al PC Linux por puerto consola serie o bien por telnet desde la
LAN o WAN.

También permite la opción de configuración por web como cualquier otro ‘switch’
gestionable mediante el menú opcional webmin.

23
Finalmente también están disponibles todas las herramientas de software para los
puertos serie, entradas y salidas digitales, conexiones 3G, y wifi. El núcleo
contiene una gran variedad de drivers junto con las utilidades más comunes de
Linux para configurar y gestionar conexiones 3G ppp (Point-ToPoint) y
conexiones wifi.

Destacan los modelos con la función PoE en los puertos LAN, lo que permite
alimentar directamente los periféricos conectados por el cable Ethernet, y aún más
porque hay modelos con sistemas de alimentación booster que permiten la función
PoE con sólo una alimentación de 24Vcc. Ideal para sistemas embarcados en
vehículos.

Para las aplicaciones de automatización Industrial hay modelos compatibles con


Modbus, lo cual permite una fácil integración con Scada, sin necesidad de tener un
Software especial para el equipo de comunicaciones. El propio Scada puede
comunicarse con el JetBox directamente.

Los campos de aplicación de estos dispositivos, pueden ser: automatización


industrial, eficiencia energética, plantas de energía renovable, centrales y
subestaciones eléctricas, sistemas de transporte, peajes, aparcamientos.

24
Conclusion
La tecnología cada vez se vuelve más sofisticada, pero es también cierto que viene
a reemplazar la mano de obra en algunas áreas, y en otras ayudas al mejor
desempeño del hombre.

En realidad es verdad que para el hombre es imposible darle solución, por sí solo, a
muchos de sus problemas con los que se enfrenta al realizar sus actividades diarias,
por lo que tiene que apoyarse en lo que otros anteriores a él han experimentado, y a
la información que les ayuda generar cada una de sus experiencias vividas. Por lo
que la transmite de generación en generación con la lucha y propósito constante de
perfeccionarla para brindad mayor y mejores resultados.

Finalmente no me queda más que decirle que se atreva a usarla debido a su


practicidad, comodidades y todo lo demás que ya anteriormente hemos
mencionado. Hay que evolucionar con la tecnología y no quedarse en lo que era
tiempo atrás, para así estar presentes

Anexo

25
Disco Duro Sata

Memoria DDR4

La nube

26
Ranura AGP

Ranura PCI Express

Dispositivos JetBox

27
28
Bibliogafía

http://www.monografias.com

https://es.wikipedia.org

https://prezi.com

http://ranuras.blogspot.com/

Preguntas

29
1 ¿Cuales son los Dispositivos de almacenamiento en la actualidad?

Disco Duro Sata, Disco Duro SSD, Disco Duro SCSI, Disco Duro SAS y el
almacenamiento en la nube.

2 ¿Que es un disco duro SATA?

Un disco duro SATA, es un dispositivo electromecánico que se encarga de


almacenar y leer grandes volúmenes de información con altas velocidades por
medio de pequeños electroimanes (también llamadas cabezas de lectura y
escritura), sobre un disco cerámico recubierto de limadura magnética. Los discos
cerámicos vienen montados sobre un eje que gira a altas velocidades. El interior
del dispositivo esta totalmente libre de aire y de polvo, para evitar choques entre
partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo
que se encuentra encendido.

3 ¿Cual discoduro esta sienndo susplantado por el disco duro SATA?

El disco duro IDE

4 ¿Que es el disco duro SSD?

es un tipo de dispositivo de almacenamiento de datos que utiliza memoria no


volátil, como la memoria flash, para almacenar datos, en lugar de los platos o
discos magnéticos de lasunidades de discos duros (HDD) convencionales.

5 ¿A partir del 2010, que utilizaban los dico duros SSD?

utilizan memoria flash basada en puertas NAND, que retiene los datos sin
alimentación eléctrica.

6 ¿Que es un Disco Duro SCSI?

es un estándar que se usa para definir la conexión de dispositivos a las placas bases
de los PCs.

7 ¿Que es el almacenamiento en la Nube?

es un modelo de almacenamiento de datos basado en redes de computadoras,


ideado en los años 1960,1 donde los datos están alojados en espacios de
almacenamiento virtualizados, por lo general aportados por terceros.
30
8 ¿Como se le puede acceder al almacenamiento en la nube?

se puede acceder por diferentes medios, como un servicio web (web service),
interfaz de programación de aplicaciones (API), interfaz de usuario (interfaz web)
o alguna otra seleccionada por el cliente.

9 ¿Que compañia fue la pionera en brindar el servicio en la nube?

En 1999, llegó uno de los logros tempranos de la computación en nube, con


"salesforce.com" pionera en la entrega de aplicaciones corporativas por medio de
una interfaz web.

10 ¿Mensiona algunos sevios de alojamiento en la nube?

ADrive, Dropbox, Google Drive, Mega y OneDrive.

11 ¿Quien es el fundador de Mega y en que año fue fundada?

Fue fundada por Kim Dotcom y se lanzó el 19 de enero de 2013 a las 03:48 hora
neozelandesa (UTC+12).

12 ¿Que es Dropbox?

un servicio de alojamiento de archivos multiplataforma en la nube.

13 ¿Cuando fue lanzado Google Drive?

Fue lanzado el 24 de abril de 2012.

14 ¿A quien reemplazo Google Drive?

reemplazo a Google Docs.

15 ¿A quien Ofrece servicio iCloud?

Ofrece servicio para los clientes de Mac e iOS.

16 ¿Que proporciona la ranura AGP?

proporciona una conexión directa entre el adaptador de gráficos y la memoria.

31
17 ¿Para que es la ranura AMR?

riser es una ranura de expansión de placas madres para dispositivos de audio (como
tarjetas de sonido).

18 ¿Que permite conectar el sistema AID performance?

sistema permite conectar varios discos en simultáneo para logar mayor


rendimiento, mayor seguridad o ¡ambas! Estos métodos se categorizan por
números o niveles, siendo los más utilizados RAID 0, RAID 1, RAID 2 y RAID 3.

19 ¿Que ofrece Raid 0?

Ofrece mayor rendimiento, ya que se utilizan dos discos, pero en Windows éstos
suman su capacidad para conformar una sola unidad y cada archivo es almacenado
en fragmentos que se reparten entre los dos discos. De esta forma, cuando el
sistema necesita leer un dato, los dos discos cooperan en esa tarea, y el tiempo de
respuesta es significativamente menor. Es ideal para acelerar la lectura de discos y
es aprovechado por usuarios hogareños y gamers. Se conoce a este método como
striping, por el segmentado de archivos.

20 ¿Cuando fue lanzado el puerso USB 3.0?

Fue lanzado en el 2009.

21 ¿Que es la tecnologia Dual Channel?

Es una tecnología que permite un incremento de rendimiento gracias al acceso


simultáneo a dos módulos distintos de memoria.

22 ¿que deben tener las computadoras para en modo Dual Channel?

deben tenerse dos módulos idénticos de memoria en los zócalos correspondientes y


el chipset del motherboard soportar esa tecnología.

23 ¿Cuando fue lanzada al publico la memoria DDR4 SDRAM?

lanzado al mercado público en Q2 2014.

32
24 ¿Que ventaja tra la tecnologia e-Sata?

La ventaja que trae este bus modificado es la de poder conectar fácilmente


unidades de disco de gran capacidad si necesidad de abrir el chasis de la PC.

25 ¿Cuando se estandarizo la tecnologia e-Sata?

Estandarizado a mediados de 2004, pasó mucho tiempo hasta que los fabricantes
de hardware incluyeran el estándar e-SATA (o external Serial-ATA) en sus
productos.

33