Está en la página 1de 82

TRABAJO GRUPAL No1

CURSO: ENSAMBLE Y MANTENIMIENTO DE COMPUTADORES

CAROLINA PERDOMO GARCIA


YUDY LORENA PEÑA

TUTOR: HERNAN ADOLFO FLOREZ

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD


FLORENCIA – CAQUETÁ
MAYO-2011
TRABAJO GRUPAL

1. Realice un cuadro de la evolución de los microprocesadores a partir del


microprocesador Z80.

RTA:

Microprocesador Z80
El Z80 fue el primero de la tercera generación, sin embargo es uno de los
microprocesadores de 8 bits más empleado hasta nuestros días, se encuentran
versiones mejores del mismo tales como Z80A, Z80B, Z80H, éstas se caracterizan
por trabajar a frecuencias superiores de 4 Mcps, 6.5 Mcps y 8 Mcps
respectivamente, las características fundamentales del Z80 son:
1. El transporte de señales se realiza sobre tres buses, el bus de direcciones, el
bus de datos, así Como el bus de control.
2. Régimen de interrupción uniforme, con la posibilidad de encadenar las
prioridades de los circuitos periféricos.
3. Alto grado de programabilidad.
4. Reloj único.
5. Fuente de voltaje única de +5 Volts.
Un sistema con Z80 se completa con el empleo de memorias estándar de lectura y
memorias estáticas o dinámicas de lectura y escritura, además pertenecen al
sistema, puertos de entrada y salida paralelo, interfaces de comunicación serie,
sistemas contadores temporizadores y circuitos de acceso directo a memoria.
El funcionamiento del sistema consiste en que las instrucciones del
microprocesador, que están en la memoria ROM, se ejecutan en una forma
secuencial de operación, la fuente de datos es, la propia CPU, los periféricos o las
memorias, la transferencia interna de datos es a través del CPU, exceptuando la
transferencia de datos en el proceso de acceso directo a memoria.
El Z80 es una versión apreciablemente mejorada tanto en circuitería como en
características de programación del antiguo modelo INTEL 8080, el Z80 resulta
ser un microprocesador más rápido y sencillo en el desarrollo de sistemas ya que
solo usa una fuente de alimentación de +5 Volts, contiene íntegramente todo el
conjunto de instrucciones del 8080, lo cual le permite ejecutar todos los programas
escritos para el CPU 8080, contiene el Z80 una expansión adicional de 80
instrucciones de ahí se deriva su nombre, su repertorio suma un total de 156
instrucciones.

El microprocesador Z80 contiene las siguientes unidades funcionales;


1).- Unidad aritmética y lógica
2).- El contador de programa
3).- El apuntador del stack
4).- Registros de propósito general
5).- Registros de índice
6).- Registros de interrupción
7).- Registro de banderas
8).- Registro para refrescar memorias dinámicas
LA UNIDAD ARITMÉTICA Y LÓGICA (ALU)
Las operaciones del CPU Z80 se realizan con un grupo de dispositivos lógicos
conocidos comúnmente como unidad aritmética y lógica (ALU) esta efectúa las
siguientes operaciones;
1. Suma binaria.
2. Operaciones lógicas.
3. Complementar a dos.
4. Corrimiento de un bit a la derecha o a la izquierda.
5. Registro de resultados importantes como el acarreo, signo, acarreo auxiliar,
paridad o si el resultado es cero.
6. Comparaciones
7. Poner, Limpiar o probar un bit
EL CONTADOR DE PROGRAMA (PC)
Es un registro de 16 bits, que continuamente tiene la dirección de la localidad de
memoria siguiente que se va a accesar, de esa localidad obtiene el código de la
instrucción a ejecutarse, en la CPU el PC se incrementa en uno, cada vez que el
microprocesador lee el código de la instrucción contenida en la localidad
direccionada, de esta forma el contador del programa direcciona
secuencialmente las localidades de la memoria ROM, donde se encuentra
almacenado el programa.
EL APUNTADOR DEL STACK (SP)
El microprocesador Z80 cuenta con el registro de pila (SP) o stack pointer que
contiene una dirección de memoria RAM a partir de la cual y en forma
descendente, se almacenan los contenidos de un par de registros, o a partir del
cual en forma ascendente se obtienen los últimos dos datos de 8 bits
almacenados en esa área, el SP es un registro de 16 bits, para almacenar en
elstack el contenido de un par de registros se utiliza la instrucción PUSH y para
cargar a un par de registros con los dos últimos bytes del stack se utiliza la
instrucción POP.
REGISTROS DE PROPÓSITO GENERAL
El microprocesador Z80 contiene 14 registros de 8 bits separados en dos grupos;
GRUPO 1; A, B, C, D, E, H, y L
GRUPO 2; A', B', C', D', E', H' y L
Todas las instrucciones trabajan con los registros del grupo 1, con las
instrucciones EX y EXX se logra el intercambio entre los contenidos de los
registros del grupo 1 con los contenidos de los registros del grupo 2, el grupo 2 se
utiliza en cierta forma como stack del grupo 1, dentro de la propia CPU.
Con los 14 registros de propósito general se efectúan por medio de las
instrucciones las siguientes
funciones;
1. Recibir datos desde la memoria.
2. Enviar datos hacia la memoria.
3. Incrementar o decrementar en uno su contenido.
4. Formar una dirección con el contenido de un par de registros.
5. Transferir datos entre los registros.
6. Obtener un operando durante las funciones de la ALU.
REGISTROS DE ÍNDICE IX e IY.
Estos son registros de 16 bits cada uno y conservan direcciones base que se usan
para modo de direccionamiento indexado, en este modo un registro de índice se
usa como base para apuntar a una región de la memoria. La dirección efectiva de
la localidad de memoria a donde se va a depositar el dato o de donde se va a leer,
se obtiene, al sumar el contenido del registro de índice y el valor de 8 bits
contenido en el campo de "desplazamiento" de las instrucciones que emplean
direccionamiento con índice, estos desplazamientos se especifican con números
enteros signados con el complemento a dos.

REGISTRO DE INTERRUPCIONES
El Z80 opera en modo de interrupción en el que responde como una "llamada"
indirecta en respuesta a una solicitud de interrupción. El registro I se usa para este
propósito almacenando los 8 bits más significativos de la dirección indirecta
mientras que el dispositivo que interrumpe proporciona los 8 bits menos
significativos de la dirección índice, esta característica permite que
las rutinas servicio de las interrupciones se localicen en cualquier parte de la
memoria y que se puedan accesar en un tiempo muy corto.

BANDERAS DE ESTADO
El microprocesador Z80 tiene un registro de 8 Flips Flops, para monitorear ciertos
resultados de las operaciones de la ALU, a la información que almacenan estos
flips-flops se conoce como banderas de estado, las banderas se actualizan
después de cada operación con alguno de los registros, no
todas las operaciones modifican a todas las banderas, de los 8 bits del registro de
banderas, únicamente seis registran información útil para el programador, cuatro
de estas banderas se

Zilog Z80
AÑO CARACTERISTICAS
La compañía Zilog Inc. crea el Zilog
Z80. Es un microprocesador de 8 bits
construido en tecnología NMOS, y fue
basado en el Intel 8080. Básicamente es
una ampliación de éste, con lo que
admite todas sus instrucciones. Un año
después sale al mercado el primer
computador que hace uso del Z80, el
Tandy TRS-80 Model 1 provisto de un
Z80 a 1,77 MHz y 4 KB de RAM. Es uno
 1976: El Z80 de los procesadores de más éxito del
mercado, del cual se han producido
numerosas versiones clónicas, y sigue
siendo usado de forma extensiva en la
actualidad en multitud de sistemas
embebidos. La compañía Zilog fue
fundada 1974 por Federico Faggin,
quien fue diseñador jefe del
microprocesador Intel 4004 y
posteriormente del Intel 8080.
Una venta realizada por Intel a la nueva
división de computadoras personales de
IBM, hizo que las PC de IBM dieran un
gran golpe comercial con el nuevo
producto con el 8088, el llamado IBM
PC. El éxito del 8088 propulsó a Intel a
 1978: Los Intel 8086 y 8088 la lista de las 500 mejores compañías,
en la prestigiosa revista Fortune, y la
misma nombró la empresa como uno de
Los triunfos comerciales de los sesenta.
El 80286, popularmente conocido como
286, fue el primer procesador de Intel
que podría ejecutar todo el software
 1982: El Intel 80286 escrito para su predecesor. Esta
compatibilidad del software sigue siendo
un sello de la familia de
microprocesadores de Intel. Luego de 6
años de su introducción, había un
estimado de 15 millones de PC basadas
en el 286, instaladas alrededor del
mundo.
Este procesador Intel, popularmente
llamado 386, se integró con 275000
transistores, más de 100 veces tantos
como en el original 4004. El 386 añadió
una arquitectura de 32 bits, con
 1985: El Intel 80386 capacidad para multitarea y una unidad
de traslación de páginas, lo que hizo
mucho más sencillo implementar
sistemas operativos que usaran
memoria virtual.
El microprocesador VAX 78032
(también conocido como DC333), es de
único ship y de 32 bits, y fue
desarrollado y fabricado por Digital
Equipment Corporation (DEC); instalado
en los equipos MicroVAX II, en conjunto
con su ship coprocesador de coma
flotante separado, el 78132, tenían una
potencia cercana al 90% de la que
podía entregar el minicomputador VAX
 1985: El VAX 78032 11/780 que fuera presentado en 1977.
Este microprocesador contenía 125000
transistores, fue fabricado en tecnología
ZMOS de DEC. Los sistemas VAX y los
basados en este procesador fueron los
preferidos por la comunidad científica y
de ingeniería durante la década del
1980.
La generación 486 realmente significó
contar con una computadora personal
de prestaciones avanzadas, entre ellas,
un conjunto de instrucciones optimizado,
una unidad de coma flotante o FPU, una
unidad de interfaz de bus mejorada y
una memoria caché unificada, todo ello
integrado en el propio chip del
 1989: El Intel 80486 microprocesador. Estas mejoras
hicieron que los i486 fueran el doble de
rápidos que el par i386 - i387 operando
a la misma frecuencia de reloj. El
procesador Intel 486 fue el primero en
ofrecer un coprocesador matemático o
FPU integrado; con él que se aceleraron
notablemente las operaciones de
cálculo. Usando una unidad FPU las
operaciones matemáticas más
complejas son realizadas por el
coprocesador de manera prácticamente
independiente a la función del
procesador principal.
Procesadores fabricados por AMD
100% compatible con los códigos de
Intel de ese momento, llamados "clones"
de Intel, llegaron incluso a superar la
frecuencia de reloj de los procesadores
 1991: El AMD AMx86 de Intel y a precios significativamente
menores. Aquí se incluyen las series
Am286, Am386, Am486 y Am586.
Es un procesador de tecnología RISC
de 32 bits, en 50 y 66MHz. En su diseño
utilizaron la interfaz de bus del Motorola
88110. En 1991, IBM busca una alianza
con Apple y Motorola para impulsar la
creación de este microprocesador,
surge la alianza AIM (Apple, IBM y
Motorola) cuyo objetivo fue quitar el
dominio que Microsoft e Intel tenían en
sistemas basados en los 80386 y
80486. PowerPC (abreviada PPC o
MPC) es el nombre original de la familia
 1993: PowerPC 601 de procesadores de arquitectura de tipo
RISC, que fue desarrollada por la alinza
AIM. Los procesadores de esta familia
son utilizados principalmente en
computadores Macintosh de Apple
Computer y su alto rendimiento se debe
fuertemente a su arquitectura tipo RISC.
El microprocesador de Pentium poseía
una arquitectura capaz de ejecutar dos
operaciones a la vez, gracias a sus dos
pipeline de datos de 32bits cada uno,
uno equivalente al 486DX(u) y el otro
equivalente a 486SX(u). Además,
estaba dotado de un bus de datos de 64
bits, y permitía un acceso a memoria de
64 bits (aunque el procesador seguía
manteniendo compatibilidad de 32 bits
para las operaciones internas, y los
registros también eran de 32 bits). Las
versiones que incluían instrucciones
 1993: El Intel Pentium MMX no sólo brindaban al usuario un
más eficiente manejo de aplicaciones
multimedia, como por ejemplo, la lectura
de películas en DVD, sino que también
se ofrecían en velocidades de hasta 233
MHz. Se incluyó una versión de 200
MHz y la más básica trabajaba a
alrededor de 166 MHz de frecuencia de
reloj. El nombre Pentium, se mencionó
en las historietas y en charlas de la
televisión a diario, en realidad se volvió
una palabra muy popular poco después
de su introducción.
En este año IBM y Motorola desarrollan
el primer prototipo del procesador
PowerPC de 64 bit[2], la implementación
más avanzada de la arquitectura
PowerPC, que estuvo disponible al año
próximo. El 620 fue diseñado para su
utilización en servidores, y
especialmente optimizado para usarlo
en configuraciones de cuatro y hasta
 1994: EL PowerPC 620 ocho procesadores en servidores de
aplicaciones de base de datos y vídeo.
Este procesador incorpora siete millones
de transistores y corre a 133 MHz. Es
ofrecido como un puente de migración
para aquellos usuarios que quieren
utilizar aplicaciones de 64 bits, sin tener
que renunciar a ejecutar aplicaciones de
32 bits.
Lanzado al mercado para el otoño de
1995, el procesador Pentium Pro
(profesional) se diseñó con una
arquitectura de 32 bits. Se usó en
servidores y los programas y
aplicaciones para estaciones de trabajo
(de redes) impulsaron rápidamente su
integración en las computadoras. El
rendimiento del código de 32 bits era
excelente, pero el Pentium Pro a
 1995: EL Intel Pentium Pro menudo era más lento que un Pentium
cuando ejecutaba código o sistemas
operativos de 16 bits. El procesador
Pentium Pro estaba compuesto por
alrededor de 5,5 millones de
transistores.
Habiendo abandonado los clones, AMD
fabricada con tecnologías análogas a
Intel. AMD sacó al mercado su primer
procesador propio, el K5, rival del
Pentium. La arquitectura RISC86 del
AMD K5 era más semejante a la
arquitectura del Intel Pentium Pro que a
la del Pentium. El K5 es internamente
un procesador RISC con una Unidad
x86- decodificadora, transforma todos
los comandos x86 (de la aplicación en
curso) en comandos RISC. Este
principio se usa hasta hoy en todas las
 1996: El AMD K5 CPU x86. En la mayoría de los aspectos
era superior el K5 al Pentium, incluso de
inferior precio, sin embargo AMD tenía
poca experiencia en el desarrollo de
microprocesadores y los diferentes hitos
de producción marcados se fueron
superando con poco éxito, se retrasó 1
año de su salida al mercado, a razón de
ello sus frecuencias de trabajo eran
inferiores a las de la competencia, y por
tanto, los fabricantes de PC dieron por
sentado que era inferior.

Con el K6, AMD no sólo consiguió


hacerle seriamente la competencia a los
Pentium MMX de Intel, sino que además
amargó lo que de otra forma hubiese
sido un plácido dominio del mercado,
ofreciendo un procesador casi a la altura
del Pentium II pero por un precio muy
inferior. En cálculos en coma flotante, el
K6 también quedó por debajo del
Pentium II, pero por encima del Pentium
MMX y del Pro. El K6 contó con una
gama que va desde los 166 hasta los
más de 500 MHz y con el juego de
instrucciones MMX, que ya se han
convertido en estándares.
 1996: Los AMD K6 y AMD K6-2
Más adelante se lanzó una mejora de
los K6, los K6-2 de 250 nanómetros,
para seguir compitiendo con los Pentium
II, siendo éste último superior en tareas
de coma flotante, pero inferior en tareas
de uso general. Se introduce un juego
de instrucciones SIMD denominado
3DNow!
Un procesador de 7,5 millones de
transistores, se busca entre los cambios
fundamentales con respecto a su
predecesor, mejorar el rendimiento en la
ejecución de código de 16 bits, añadir el
conjunto de instrucciones MMX y
eliminar la memoria caché de segundo
nivel del núcleo del procesador,
colocándola en una tarjeta de circuito
 1997: El Intel Pentium II impreso junto a éste. Gracias al nuevo
diseño de este procesador, los usuarios
de PC pueden capturar, revisar y
compartir fotografías digitales con
amigos y familia vía Internet; revisar y
agregar texto, música y otros; con una
línea telefónica; el enviar vídeo a través
de las líneas normales del teléfono
mediante Internet se convierte en algo
cotidiano.
Los procesadores Pentium II Xeon se
diseñan para cumplir con los requisitos
de desempeño en computadoras de
medio-rango, servidores más potentes y
estaciones de trabajo (workstations).
Consistente con la estrategia de Intel
para diseñar productos de procesadores
con el objetivo de llenar segmentos de
los mercados específicos, el procesador
Pentium II Xeon ofrece innovaciones
técnicas diseñadas para las estaciones
 1998: El Intel Pentium II Xeon de trabajo y servidores que utilizan
aplicaciones comerciales exigentes,
como servicios de Internet,
almacenamiento de datos corporativos,
creaciones digitales y otros. Pueden
configurarse sistemas basados en este
procesador para integrar de cuatro o
ocho procesadores trabajando en
paralelo, también más allá de esa
cantidad.
Continuando la estrategia, Intel, en el
desarrollo de procesadores para los
segmentos del mercado específicos, el
procesador Celeron es el nombre que lleva
la línea de bajo costo de Intel. El objetivo
fue poder, mediante ésta segunda marca,
penetrar en los mercados impedidos a los
Pentium, de mayor rendimiento y precio. Se
 1999: El Intel Celeron diseña para el añadir valor al segmento del
mercado de los PC. Proporcionó a los
consumidores una gran actuación a un bajo
coste, y entregó un desempeño destacado
para usos como juegos y el software
educativo.
Procesador totalmente compatible con
la arquitectura x86. Internamente el
Athlon es un rediseño de su antecesor,
pero se le mejoró substancialmente el
sistema de coma flotante (ahora con 3
unidades de coma flotante que pueden
trabajar simultáneamente) y se le
incrementó la memoria caché de primer
nivel (L1) a 128 KiB (64 KiB para datos y
64 KiB para instrucciones). Además
incluye 512 KiB de caché de segundo
nivel (L2). El resultado fue el procesador
 1999: El AMD Athlon K7 x86 más potente del momento. El
(Classic y Thunderbird) procesador Athlon con núcleo
Thunderbird apareció como la evolución
del Athlon Classic. Al igual que su
predecesor, también se basa en la
arquitectura x86 y usa el bus EV6. El
proceso de fabricación usado para todos
estos microprocesadores es de 180
nanómetros. El Athlon Thunderbird
consolidó a AMD como la segunda
mayor compañía de fabricación de
microprocesadores, ya que gracias a su
excelente rendimiento (superando
siempre al Pentium III y a los primeros
Pentium IV de Intel a la misma
frecuencia de reloj) y bajo precio, la
hicieron muy popular tanto entre los
entendidos como en los iniciados en la
informática.
El procesador Pentium III ofrece 70
nuevas instrucciones Internet
Streaming, las extensiones de SIMD
que refuerzan dramáticamente el
desempeño con imágenes avanzadas,
3D, añadiendo una mejor calidad de
audio, video y desempeño en
aplicaciones de reconocimiento de voz.
 1999: El Intel Pentium III Fue diseñado para reforzar el área del
desempeño en el Internet, le permite a
los usuarios hacer cosas, tales como,
navegar a través de páginas pesadas
(con muchos gráficos), tiendas virtuales
y transmitir archivos video de alta
calidad. El procesador se integra con
9,5 millones de transistores, y se
introdujo usando en él tecnología 250
nanómetros.
El procesador Pentium III Xeon amplía las
fortalezas de Intel en cuanto a las
estaciones de trabajo (workstation) y
segmentos de mercado de servidores, y
añade una actuación mejorada en las
aplicaciones del comercio electrónico e
informática comercial avanzada. Los
procesadores incorporan mejoras que
refuerzan el procesamiento multimedia,
 1999: El Intel Pentium III Xeon particularmente las aplicaciones de vídeo.
La tecnología del procesador III Xeon
acelera la transmisión de información a
través del bus del sistema al procesador,
mejorando el desempeño
significativamente. Se diseña pensando
principalmente en los sistemas con
configuraciones de multiprocesador
Este es un microprocesador de séptima
generación basado en la arquitectura
x86 y fabricado por Intel. Es el primero
con un diseño completamente nuevo
desde el Pentium Pro. Se estrenó la
arquitectura NetBurst, la cual no daba
 2000: EL Intel Pentium 4 mejoras considerables respecto a la
anterior P6. Intel sacrificó el rendimiento
de cada ciclo para obtener a cambio
mayor cantidad de ciclos por segundo y
una mejora en las instrucciones SSE.
Cuando Intel sacó el Pentium 4 a 1,7
GHz en abril de 2001 se vio que el
Athlon Thunderbird no estaba a su nivel.
Además no era práctico para el
overclocking, entonces para seguir
estando a la cabeza en cuanto a
rendimiento de los procesadores x86,
 2001: El AMD Athlon XP AMD tuvo que diseñar un nuevo núcleo,
y sacó el Athlon XP. Este
compatibilizaba las instrucciones SSE y
las 3DNow! Entre las mejoras respecto
al Thunderbird se puede mencionar la
pre recuperación de datos por hardware,
conocida en inglés como prefetch, y el
aumento de las entradas TLB, de 24 a
32.
A principios de febrero de 2004, Intel
introdujo una nueva versión de Pentium
4 denominada 'Prescott'. Primero se
utilizó en su manufactura un proceso de
fabricación de 90 nm y luego se cambió
a 65nm. Su diferencia con los anteriores
es que éstos poseen 1 MiB o 2 MiB de
caché L2 y 16 KiB de caché L1 (el doble
que los Northwood), prevención de
 2004: El Intel Pentium 4 ejecución, SpeedStep, C1E State, un
(Prescott) HyperThreading mejorado, instrucciones
SSE3, manejo de instrucciones AMD64,
de 64 bits creadas por AMD, pero
denominadas EM64T por Intel, sin
embargo por graves problemas de
temperatura y consumo, resultaron un
fracaso frente a los Athlon 64.
El AMD Athlon 64 es un
microprocesador x86 de octava
generación que implementa el conjunto
de instrucciones AMD64, que fueron
introducidas con el procesador Optaron.
El Athlon 64 presenta un controlador de
memoria en el propio circuito integrado
del microprocesador y otras mejoras de
arquitectura que le dan un mejor
 2004: El AMD Athlon 64 rendimiento que los anteriores Athlon y
que el Athlon XP funcionando a la
misma velocidad, incluso ejecutando
código heredado de 32 bits. El Athlon 64
también presenta una tecnología de
reducción de la velocidad del
procesador llamada Cool'n'Quiet,:
cuando el usuario está ejecutando
aplicaciones que requieren poco uso del
procesador, baja la velocidad del mismo
y su tensión se reduce.
Intel lanzó ésta gama de procesadores
de doble núcleo y CPUs 2x2 MCM
(módulo Multi-Chip) de cuatro núcleos
con el conjunto de instrucciones x86-64,
basado en el la nueva arquitectura Core
de Intel. La micro arquitectura Core
regresó a velocidades de CPU bajas y
mejoró el uso del procesador de ambos
ciclos de velocidad y energía
comparados con anteriores NetBurst de
 2006: EL Intel Core Duo los CPU Pentium 4/D2. La micro
arquitectura Core provee etapas de
decodificación, unidades de ejecución,
caché y buses más eficientes,
reduciendo el consumo de energía de
CPU Core 2, mientras se incrementa la
capacidad de procesamiento. Los CPU
de Intel han variado muy bruscamente
en consumo de energía de acuerdo a
velocidad de procesador, arquitectura y
procesos de semiconductor, mostrado
en las tablas de disipación de energía
del CPU. Esta gama de procesadores
fueron fabricados de 65 a 45
nanómetros.
Phenom fue el nombre dado por
Advanced Micro Devices (AMD) a la
primera generación de procesadores de
tres y cuatro núcleos basados en la
micro arquitectura K10. Como
característica común todos los Phenom
tienen tecnología de 65 nanómetros
lograda a través de tecnología de
fabricación Silicon on insulator (SOI). No
obstante, Intel, ya se encontraba
fabricando mediante la más avanzada
tecnología de proceso de 45 nm en
 2007: El AMD Phenom 2008. Los procesadores Phenom están
diseñados para facilitar el uso inteligente
de energía y recursos del sistema, listos
para la virtualización, generando un
óptimo rendimiento por vatio. Todas las
CPU Phenom poseen características
tales como controlador de memoria
DDR2 integrado, tecnología
HyperTransport y unidades de coma
flotante de 128 bits, para incrementar la
velocidad y el rendimiento de los
cálculos de coma flotante. La
arquitectura Direct Connect asegura que
los cuatro núcleos tengan un óptimo
acceso al controlador integrado de
memoria, logrando un ancho de banda
de 16 Gb/s para intercomunicación de
los núcleos del microprocesador y la
tecnología HyperTransport, de manera
que las escalas de rendimiento mejoren
con el número de núcleos. Tiene caché
L3 compartida para un acceso más
rápido a los datos (y así no depende
tanto del tiempo de latencia de la RAM),
además de compatibilidad de
infraestructura de los zócalos AM2,
AM2+ y AM3 para permitir un camino de
actualización sin sobresaltos. A pesar
de todo, no llegaron a igualar el
rendimiento de la serie Core 2 Duo.
Intel Core i7 es una familia de
procesadores de cuatro núcleos de la
arquitectura Intel x86-64. Los Core i7
son los primeros procesadores que usan
la micro arquitectura Nehalem de Intel y
es el sucesor de la familia Intel Core 2.
FSB es reemplazado por la interfaz
QuickPath en i7 e i5 (zócalo 1366), y
sustituido a su vez en i7, i5 e i3 (zócalo
1156) por el DMI eliminado el northBrige
e implementando puertos PCI Express
directamente. Memoria de tres canales
 2008: El Intel Core Nehalem (ancho de datos de 192 bits): cada canal
puede soportar una o dos memorias
DIMM DDR3. Las placa base
compatibles con Core i7 tienen cuatro
(3+1) o seis ranuras DIMM en lugar de
dos o cuatro, y las DIMMs deben ser
instaladas en grupos de tres, no dos. El
Hyperthreading fue reimplementado
creando núcleos lógicos. Está fabricado
a arquitecturas de 45 nm y 32 nm y
posee 731 millones de transistores su
versión más potente. Se volvió a usar
frecuencias altas, aunque a
contrapartida los consumos se
dispararon.
Phenom II es el nombre dado por AMD
a una familia de microprocesadores o
CPUs multinúcleo (multicore) fabricados
en 45 nm, la cual sucede al Phenom
original y dieron soporte a DDR3. Una
de las ventajas del paso de los 65 nm a
los 45 nm, es que permitió aumentar la
cantidad de cache L3. De hecho, ésta
se incrementó de una manera generosa,
pasando de los 2 MiB del Phenom
original a 6 MiB. Entre ellos, el Amd
Phenom II X2 BE 555 de doble núcleo
 2008: Los AMD Phenom II y surge como el procesador binúcleo del
Athlon II mercado. También se lanzan tres Athlon
II con sólo Cache L2, pero con buena
relación precio/rendimiento. El Amd
Athlon II X4 630 corre a 2,8 GHz. El
Amd Athlon II X4 635 continua la misma
línea. AMD también lanza un triple
núcleo, llamado Athlon II X3 440, así
como un doble núcleo Athlon II X2 255.
También sale el Phenom X4 995, de
cuatro núcleos, que corre a más de
3,2GHz. También AMD lanza la familia
Thurban con 6 núcleos físicos dentro del
encapsulado
Llegan para remplazar los chips
Nehalem, con Intel Core i3, Intel Core i5
e Intel Core i7 serie 2000 y Pentium G.
Intel lanzó sus procesadores que se
conocen con el nombre en clave Sandy
Bridge. Estos procesadores Intel Core
que no tienen sustanciales cambios en
arquitectura respecto a nehalem, pero si
 2011: El Intel Core Sandy los necesarios para hacerlos más
Bridge eficientes y rápidos que los modelos
anteriores. Es la segunda generación de
los Intel Core con nuevas instrucciones
de 256 bits, duplicando el rendimiento,
mejorando el desempeño en 3D y todo
lo que se relacione con operación en
multimedia. Llegaron la primera semana
de Enero del 2011. Incluye nuevo
conjunto de instrucciones denominado
AVX y una GPU integrada de hasta 12
unidades de ejecución Ivy Bridge es la
mejora de sandy bridge a 22 nm. Se
estima su llegada para 2012 y promete
una mejora de la GPU, así como
procesadores de sexdécuple núcleo en
gamas más altas y cuádruple núcleo en
las más bajas, abandonándose los
procesadores de núcleo doble.
AMD Fusion es el nombre clave para un
diseño futuro de microprocesadores
Turion, producto de la fusión entre AMD
y ATI, combinando con la ejecución
general del procesador, el proceso de la
geometría 3D y otras funciones de
GPUs actuales. La GPU (procesador
gráfico) estará integrada en el propio
 2011: El AMD Fusion microprocesador. Se espera la salida
progresiva de esta tecnología a lo largo
del 2011; estando disponibles los
primeros modelos (Ontaro y Zacate)
para ordenadores de bajo consumo
entre últimos meses de 2010 y primeros
de 2011, dejando el legado de las
gamas medias y altas (Llano, Brazos y
Bulldozer para mediados o finales del
2011)

2. Realice una investigación sobre la tecnología inalámbrica.

RTA:
El presente artículo trata en sí de “Tecnologías Inalámbricas”, es decir cómo han
ido evolucionando, qué papel juegan en la vida o desarrollo de las empresas, tipos
de dispositivos inalámbricos, aplicaciones entre otros muchos aspectos
relacionados con el área

En la actualidad el tema de “redes inalámbricas” ha tomado gran importancia ya


que está tecnología ha despertado el interés de muchos en cuanto a cómo poder
comunicar diferentes equipos de cómputo sin la necesidad de utilizar redes
cableadas; es decir, como entablar comunicación entre computadoras de manera
inalámbrica.

Dicha tecnología facilita la operación de las computadoras que no pueden estar en


el mismo lugar o bien que se encuentran separadas a distancia.

Esto no significa que la tecnología inalámbrica en un futuro remplazará a las redes


cableadas; ya que estas últimas alcanzan una mayor velocidad de transmisión que
la que ofrece la tecnología inalámbrica.

Sin embargo, los sistemas inalámbricos brindan mayor comodidad al usuario


debido a que no es necesario usar tantos cables para la instalación de un equipo
inalámbrico, así como también te brindan mayor facilidad de movimiento para las
computadoras o sistemas con esta tecnología. Pero aun así no podemos descartar
nada ya que el avance de las tecnologías “es un mundo desconocido para el
hombre”, es decir no sabemos que nuevas tecnologías estaremos usando el día
de mañana.

“DESARROLLO DEL TEMA”


Las redes inalámbricas permiten o facilitan la comunicación entre estaciones de
trabajo que se encuentran en distintos lugares. Esto se debe a que no necesitan
de un medio físico de interconexión, es decir, no existen cables que conecten a los
distintos equipos de trabajo para entablar comunicación.

Existen básicamente dos tipos de redes inalámbricas:

De larga distancia: Son utilizadas para transferir información entre equipos que se
encuentran en diferente área geográfica; es decir en espacios o lugares
circunvecinos o alejados (mejor conocidas como MAN Metropolitan Área Network,
redes de área metropolitana) sus velocidades de transmisión son relativamente
bajas, de 4.8 a 19.2 Kbps.

*De corta distancia: Se utilizan para transferir información entre equipos que se
encuentran separados por un espacio reducido; por ejemplo en equipos de
empresas que se encuentran en el mismo edificio (se les conoce como LAN Local
Área Network, redes de área local) sus velocidades son del orden de 280 Kbps
hasta los 2 Mbps.

Existen dos tipos de redes de larga distancia:

• Redes de conmutación de paquetes (públicas y privadas).

• Redes de Telefonías celulares. Estas últimas son utilizadas para transmitir


información de alto precio, ya que en la actualidad los módems son más costosos
debido a la circuitería especial, que permite mantener la pérdida de señal. Esta
pérdida de señal no es problema para la comunicación de voz debido a que el
retraso en la conmutación dura unos cuantos cientos de milisegundos, lo cual no
se nota, pero en la transmisión de información puede causar defectos.

Desventajas de la transmisión celular son:

• La carga de los teléfonos se termina fácilmente.

• La transmisión celular se intercepta fácilmente

• Las velocidades de transmisión son bajas.


Todas estas desventajas hacen que la comunicación celular se utilice poco. Pero
se espera que con los avances en la compresión de datos, seguridad y algoritmos
de verificación de errores se permita que las redes celulares sean una buena
opción en algunas situaciones.

La otra opción que existe en redes de larga distancia son las denominadas:

• Red Pública De Conmutación De Paquetes Por Radio. Estas redes no tienen


problemas de pérdida de señal debido a que su arquitectura está diseñada para
soportar paquetes de datos en lugar de comunicaciones de voz.

Las redes privadas de conmutación de paquetes utilizan la misma tecnología que


las públicas, pero bajo bandas de radio frecuencia restringida por la propia
organización de sus sistemas de cómputo.

Principales ventajas de las redes inalámbricas:

• Permiten la movilidad.

• Facilitan la reubicación de las estaciones de trabajo evitando la necesidad de


tirar cableado.

• Rapidez en la instalación.

• Menores costes de mantenimiento.

REDES PÚBLICAS DE RADIO.

Las redes públicas tienen dos protagonistas principales: "ARDIS" (una asociación
de Motorola e IBM) y "RAM Mobile Data" (desarrollado por Ericcson AB,
denominado MOBITEX). Estas redes permiten la transmisión a través de canales
de radio en áreas metropolitanas que pueden ser utilizadas como redes de larga
distancia. La infraestructura de estas redes incluye controladores de áreas y
Estaciones Base, sistemas de cómputo tolerantes a fallas, estos sistemas
soportan el estándar de conmutación de paquetes X.25, así como su propia
estructura de paquetes. Estas redes proporcionan flexibilidad en las capas de
aplicación, permitiendo al cliente desarrollar aplicaciones de software.
Las redes públicas de radio como ARDIS y MOBITEX jugaran un papel
significativo en el mercado de redes de área local (LAN´s) por su gran tamaño. Por
ejemplo, elevadores OTIS utiliza ARDIS para su organización de servicios.

REDES INFRARROJAS

Las redes de luz infrarroja están limitadas por el espacio y casi generalmente la
utilizan redes en las que las estaciones se encuentran en un solo cuarto o piso,
algunas compañías que tienen sus oficinas en varios edificios realizan la
comunicación colocando los receptores/emisores en las ventanas de los edificios.
La transmisión Infrarroja no tiene este inconveniente por lo tanto es actualmente
una alternativa para las Redes Inalámbricas.

El mismo principio se usa para la comunicación de Redes, se utiliza un


"transreceptor" que envía un haz de Luz Infrarroja, hacía otro que la recibe. La
transmisión de luz se codifica y decodifica en el envío y recepción en un protocolo
de red existente. Uno de los pioneros en esta área es Richard Allen, que fundó
Photonics Corp., en 1985 y desarrolló un "Transreceptor Infrarrojo". Además la
tecnología se ha mejorado utilizando un transreceptor que difunde el haz en todo
el cuarto y es recogido mediante otros transreceptores.

REDES DE RADIO FRECUENCIA

Las Redes Inalámbricas de Radio Frecuencia son utilizadas principalmente en


aplicaciones militares, consisten en una técnica de señal de transmisión llamada
spread-spectrum modulation, la cual tiene potencia de transmisión máxima de 1
Watt. La idea es tomar una señal de banda convencional y distribuir su energía en
un dominio más amplio de frecuencia.

Así, la densidad promedio de energía es menor en el espectro equivalente de la


señal original. En aplicaciones militares el objetivo es reducir la densidad de
energía abajo del nivel de ruido ambiental de tal manera que la señal no sea
detectable. La idea en las redes es que la señal sea transmitida y recibida con un
mínimo de interferencia. Existen dos técnicas para distribuir la señal convencional
en un espectro de propagación equivalente:
- El salto de frecuencia: Este método es una técnica en la cual los dispositivos
receptores y emisores se mueven sincrónicamente en un patrón determinado de
una frecuencia a otra, brincando ambos al mismo tiempo y en la misma frecuencia
predeterminada. Como en el método de secuencia directa, los datos deben ser
reconstruidos en base del patrón de salto de frecuencia. Este método es viable
para las redes inalámbricas, pero la asignación actual de las bandas ISM no es
adecuada, debido a la competencia con otros dispositivos, como por ejemplo las
bandas de 2.4 y 5.8 MHz que son utilizadas por hornos de Microondas.

RED DE AREA LOCAL Ethernet HIBRIDA (coaxial/infrarrojo)

En una implementación "Ethernet CSMA/CD", una estación con un paquete listo


para enviar, retarda la transmisión hasta que "cense" o verifique que el medio por
el cual se va a trasmitir, se encuentre libre o desocupado. Después de comenzar
la transmisión existe un tiempo muy corto en el que una colisión puede ocurrir,
este es el tiempo requerido por las estaciones de la red para "censar" en el medio
de transmisión el paquete enviado. En una colisión las estaciones dejan de
transmitir, esperan un tiempo aleatorio y entonces vuelven a censar el medio de
transmisión para determinar si ya se encuentra desocupado.

En un cableado Ethernet el medio coaxial es partido en segmentos, se permite un


máximo de 5 segmentos entre 2 estaciones. De esos segmentos únicamente 3
pueden ser coaxiales, los otros 2 deben de tener un enlace punto-a-punto. Los
segmentos coaxiales son conectados por medio de repetidores, un máximo de 4
repetidores pueden ser instalados entre 2 estaciones. La longitud máxima de cada
segmento es:

• 500 mts para 10 Base5

• 185 mts para 10 base2.

La función del repetidor es regenerar y retransmitir las señales que viajen entre
diferentes segmentos, y detectar colisiones.

MODOS DE RADIACION INFRARROJOS


• Las estaciones con tecnología infrarroja pueden usar tres modos diferentes de
radiación para intercambiar la energía Óptica entre transmisores-receptores:
punto-a-punto cuasi-difuso y difuso (Fig. 1, 2, 3).
• En el modo punto-a-punto: los patrones de radiación del emisor y del receptor
deben de estar lo más cerca posible, es decir, las estaciones emisora y receptora
deben estar prácticamente enfrentadas para que su alineación sea correcta. Como
resultado, el modo punto-a-punto requiere una línea-de-vista entre las dos
estaciones a comunicarse. Este modo es usado para la implementación de redes
Inalámbricas Infrarrojas Token-Ring. El "Ring" físico es construido por el enlace
inalámbrico individual punto-a-punto conectado a cada estación.

• El modo cuasi-difuso y difuso a diferencia del modo punto-a-punto son de


emisión radial, o sea que cuando una estación emite una señal Óptica, ésta puede
ser recibida por todas las estaciones al mismo tiempo en la célula. En el modo
cuasi–difuso las estaciones se comunican entre sí, por medio de superficies
reflejantes. No es necesaria la línea-de-vista entre dos estaciones, pero si deben
de estarlo con la superficie de reflexión. Además es recomendable que las
estaciones estén cerca de la superficie de reflexión, esta puede ser pasiva o
activa. En las células basadas en reflexión pasiva, el reflector debe de tener altas
propiedades reflectivas y dispersivas, mientras que en las basadas en reflexión
activa se requiere de un dispositivo de salida reflexivo, conocido como satélite,
que amplifica la señal óptica. La reflexión pasiva requiere más energía, por parte
de las estaciones, pero es más flexible de usar.

• El modo difuso, el poder de salida de la señal óptica de una estación, debe ser
suficiente para llenar completamente el total del cuarto, mediante múltiples
reflexiones, en paredes y obstáculos del cuarto. Por lo tanto la línea-de-vista no es
necesaria y la estación se puede orientar hacia cualquier lado. El modo difuso es
el más flexible, en términos de localización y posición de la estación, sin embargo
esta flexibilidad está a costa de excesivas emisiones ópticas.

Ventajas De Lan´s sobre Redes Fijas

• Movilidad: las redes inalámbricas proporcionan a los usuarios de una LAN


acceso a la información en tiempo real en cualquier lugar dentro de la
organización o el entorno público.

• Simplicidad y rapidez en la instalación: la instalación de una LAN es rápida y fácil


y elimina la necesidad de tirar cables a través de paredes y techos.

• Flexibilidad en la instalación: La tecnología inalámbrica permite a la red llegar a


puntos de difícil acceso para una LAN cableada.

• Costo de propiedad reducido: mientras que la inversión inicial requerida para una
red inalámbrica puede ser más alta que el costo en hardware de una LAN, la
inversión
de toda la instalación y el costo durante el ciclo de vida puede ser
significativamente inferior. Los beneficios a largo plazo son superiores en
ambientes dinámicos que requieren acciones y movimientos frecuentes.

• Escalabilidad: los sistemas de WLAN pueden ser configurados en una variedad


de topologías para satisfacer las necesidades de las instalaciones y aplicaciones
específicas. Las configuraciones son muy fáciles de cambiar y además resulta
muy fácil la incorporación de nuevos usuarios a la red.

“DISPOSITIVOS INALAMBRICOS”

Los dispositivos inalámbricos comenzaron a ganar lugar en las preferencias de los


usuarios de computadoras, tanto para las oficinas como para el hogar. Sus
ventajas principales son que al no estar atados a algún enchufe son mucho más
cómodos y conservan la estética de cualquier ambiente al no contar con cables.

Es posible conseguir cualquier accesorio para enchufar a la PC: Mouse, teclado,


impresoras, cámaras, gamepad, etc.
Inclusive es posible conectar varias máquinas en red y con salida a Internet sin el
uso de ningún cable.

Estos equipos permiten una casi total libertad de movimientos del usuario, pues
uno puede sentarse a escribir a varios metros de monitor, jugar desde un sillón
lejos de la computadora, y hasta hablar por celular con auriculares sin la
necesidad de cables que muchas de las veces nos incomodan.

Existen un surtido de teclados y Mouse increíble, con diseños ergonómicos y


teclas que responden al mínimo contacto. Para que funcionen es necesario
conectar el receptor al puerto USB. Tanto los teclados como el Mouse necesitan
de dos pilas para funcionar. En el caso de los teclados pueden durar hasta cuatro
meses y los Mouse la mitad.

Juegos

La mayor oferta en este rubro es para las consolas de juegos. Son dispositivos
idénticos a los originales pero inalámbricos.

Teléfonos

Están los exclusivos para teléfonos celulares y los que se utilizan para chatear en
la computadora.

La última moda en teléfonos celulares son los auriculares conocidos como “manos
libres”. Ya que colocan en la oreja, y vienen con una pantalla que informa el
nombre o el número de quién está llamando. Traen una serie de teclas para no
tener que sacar el teléfono del bolsillo.

Claro que existen muchos más dispositivos inalámbricos pero solo he hecho
mención de los más conocidos.

VENTAJAS E INCONVENIENTES DE UN DISPOSITIVO CONECTADO POR


CABLE O INALAMBRICO.

En la actualidad son muchos los dispositivos que se pueden conectar al PC tanto


por cable como de forma inalámbrica. Desde teclados y ratones hasta impresoras,
cámaras IP, altavoces...
A la izquierda, una impresora HP Deskjet 460cb (para equipos portátiles). A la
derecha, una impresora HP Photosmart C7180, una de las impresoras más
completas del mercado.

La lista es muy amplia, así como los sistemas utilizados para realizar esta
conexión.

Imagen de un receptor IrDa USB. A la derecha un Desktop (teclado + ratón) por


radiofrecuencia.

VENTAJAS

- Ausencia de cables en la instalación

- La movilidad que adquieren los dispositivos instalados de forma inalámbrica.

- Instalaciones bastante limpias y relativamente fáciles de hacer.

DESVENTAJAS

- La movilidad está limitada por el alcance del sistema empleado.


- Alto costo

- Son menos seguros

- Posibilidad de des configuración mayor.

- Perdida de la conectividad

- Expuestos a interferencia

- Alto consumo de energía

A pesar de todos los inconvenientes antepuestos, una conexión inalámbrica es


muy útil los bastantes dispositivos, como impresoras para portátiles, lectores radio
notas, y en definitiva siempre que necesitemos colocar estos dispositivos en un
lugar al que sea problemático acceder mediante cableado.

“ALGUNAS TECNOLOGIAS INALAMBRICAS”.


Tecnologías Bluetooth y Wi Fi

Estas dos tecnologías no compiten entre sí, sino que se complementan. La


Bluetooth es mucho más nueva. Es el equivalente inalámbrico de la conectividad
USB. Debido a su corto alcance y al bajo consumo de energía se le usa para
conectar toda clase de dispositivos a la computadora. También para teléfonos
celulares y palmtops. La cobertura máxima que alcanza es de 20 metros.

La tecnología Wi Fi por su parte resulta ideal para armar redes de computadoras.


Con esta se pueden mover archivos de gran tamaño. La transmisión de los datos
la realiza diez veces más rápido que Bluetooth y tiene un alcance de 100 metros
en espacios cerrados. Dicha tecnología permite realizar diversas conexiones
inalámbricas a Interne

Wi-Max

“Específicamente, la tecnología 802.16, a menudo denominada WiMAX,


complementa la WLAN conectando hotspots con tecnología 802.11 a Internet y
ofrece una alternativa inalámbrica para la conectividad de banda ancha de última
generación a empresas y hogares.”

Esta es una red muy costosa que aplica Microsoft verdaderamente podremos
tener una banda ancha y no solo un ancho de banda, donde la velocidad de
transmisión será mayor.

Diferencia entre una red Wi-Fi y Wi-Max

Una red Wi-Fi, red ad hoc puede ser establecida por cualquiera para conectar la
casa con la oficina, mientras que Wimax está diseñado para cubrir una ciudad
entera a través de estaciones base dispersas alrededor del área metropolitana.

Tecnología GPRS

GPRS es la sigla de General Packet Radio Services (servicios generales de


paquetes por radio). A menudo se describe como "2,5 G", es decir, una tecnología
entre la segunda (2G) y la tercera (3G) generación de tecnología móvil digital. Se
transmite a través de redes de telefonía móvil y envía datos a una velocidad de
hasta 114 Kbps. El usuario puede utilizar el teléfono móvil y el ordenador de
bolsillo para navegar por Internet, enviar y recibir correo, y descargar datos y
soportes. Permite realizar videoconferencias con sus colegas y utilizar mensajes
instantáneos para charlar con sus familiares y amigos, esté donde esté. Además,
puede emplearse como conexión para el ordenador portátil u otros dispositivos
móviles.

Tecnología 3G

Al igual que GPRS, la tecnología 3G (tecnología inalámbrica de tercera


generación) es un servicio de comunicaciones inalámbricas que le permite estar
conectado permanentemente a Internet a través del teléfono móvil, el ordenador
de bolsillo, el Tablet PC o el ordenador portátil. La tecnología 3G promete una
mejor calidad y fiabilidad, una mayor velocidad de transmisión de datos y un ancho
de banda superior (que incluye la posibilidad de ejecutar aplicaciones multimedia).
Con velocidades de datos de hasta 384 Kbps, es casi siete veces más rápida que
una conexión telefónica estándar.

Tecnología IrDA

Esta tecnología, basada en rayos luminosos que se mueven en el espectro


infrarrojo.
Los estándares IrDA soportan una amplia gama de dispositivos eléctricos,
informáticos y de comunicaciones, permite la comunicación bidireccional entre dos
extremos a velocidades que oscilan entre los 9.600 bps y los 4 Mbps.

Esta tecnología se encuentra en muchos ordenadores portátiles, y en un creciente


número de teléfonos celulares, sobre todo en los de fabricantes líderes como
Nokia y
Ericsson.

“TOPOLOGÍA DE INTERNET”

Una de las topologías más importantes en la actualidad sobre redes inalámbricas


es la topología de Internet, que muestra cómo es que se interconectan grandes
grupos de trabajo para compartir información. Fig.5
Varias computadoras individuales conectadas entre sí forman una red de área
local (LAN). Internet consiste en una serie de redes (LAN) interconectadas. Las
computadoras personales y las estaciones de trabajo pueden estar conectadas a
una red de área local mediante un módem a través de una conexión RDSI o RTC,
o directamente a la LAN. También hay otras formas de conexión a redes, como la
conexión T1 y la línea dedicada. Los puentes y los hubs vinculan múltiples redes
entre sí. Un enrutador transmite los datos a través de las redes y determina la
mejor ruta de transmisión.

IMPORTANCIA DE LAS TECNOLOGIAS INALAMBRICAS EN LAS EMPRESAS

Las tecnologías inalámbricas brindan una serie de beneficios a las empresas, es


decir brindan soluciones inalámbricas y móviles que mejoran los procesos
comerciales, lo que permite a las empresas hacer mejor su trabajo, con mayor
rapidez y de forma más económica. Además, las soluciones móviles les permiten
lograr resultados dentro de su negocio que antes era imposible de alcanzar.

La tecnología inalámbrica es otra herramienta de la que las empresas competitivas


podrán beneficiarse dentro de este proceso de cambio.

No importa si una empresa es grande o pequeña, ni tampoco el sector en el que


opere, en cualquier momento las nuevas tecnologías, el internet y el comercio
electrónico afectarán o ya han afectado su negocio ya se en la manera de trabajar,
en sus relaciones comerciales o en mayor o menor medida en los dispositivos
móviles, ya que estos representan un medio más a disposición de esas empresas
que saben que para crecer, para ser más competitivas y mejorar sus procesos,
deben acercarse a las nuevas tecnologías e incorporarlas en su negocio en la
medida de lo justo y necesario para que éstas les faciliten el desarrollo
empresarial.

3. Sobre los portátiles se ha hablado demasiado en esta época realice una


evaluación de estas máquinas en cuanto precios, características etc.

RTA:

OSBORNE 1
- Año: Junio de 1981
- Disponía de una pantalla CRT de 5 pulgadas
- Peso: 10,4 Kg
- Precio: 1.795 dólares
COMPASS
- Año: Abril de 1982
- Fue el primer modelo en incorporar una pantalla plana
- Peso: 4 Kg
- Precio: 8.100 dólares

COMPAQ PORTABLE
- Año: Noviembre de 1982
- Pantalla CRT de 9 pulgadas
- Peso: 12,7 Kg
- Precio: 2.995 dólares
TRS-80 MODEL 100
- Año: Principios de 1983
- Su pantalla sólo permitía escribir 8 líneas de texto
- Precio: 1.099 dólares

MACINTOSH PORTABLE
- Año: Septiembre de 1989
- Mejora sustancial en los gráficos respecto a modelos anteriores
- La batería permitía utilizarlo durante 10 horas antes de recargarlo
- Peso: 7,2 Kg
- Precio: 6.500 dólares
LTE
- Año: Octubre de 1989
- Incluía una unidad de disquettes y un disco duro
- Peso: 2,8 Kg
- Precio: 2.999 dólares

POWERBOOK
- Año: Octubre de 1991
- Excelente diseño y TrackBall integrado en el conjunto
- Precio: de 2.500 a 2.900 dólares
THINKPAD 700C
- Año: Octubre de 1992
- Primer portátil con una pantalla a todo color de 10 pulgadas
- Precio: 4.350 dólares

THINKPAD 701C
- Año: Marzo de 1995
- Diseño extremadamente compacto para la época
- Precio: 3.800 dólares
POWERBOOK G4
- Año: Enero de 2001
- Diseño Apple, pantalla de 15 pulgadas y prestaciones de órdago
- Precio: 3.499 dólares

THINKPAD X300
- Año: Febrero de 2008
- Ultraportátil con apenas 2,5 cm de grosor en su parte más ancha
- Peso: 1,4 Kg
- Precio: entre 2.700 y 3.000 dólares

DIFERENTES TIPOS EN LOS QUE SE PUEDEN CLASIFICAR LOS


ORDENADORES PORTATILES. Que los ordenadores portátiles son el tipo de
ordenador que más está evolucionando en los últimos tiempos no es un secreto
para nadie. A esta evolución se debe el constante aumento en sus prestaciones,
unas gráficas (que siempre han sido uno de los puntos débiles de los portátiles)
cada vez más potentes y una significativa reducción en su precio. Pero también
está contribuyendo la reciente aparición de ordenadores que, si bien no son
demasiado potentes, sí que ofrecen una extraordinaria movilidad. Vamos a tratar
de hacer una clasificación de los diferentes tipos de portátiles que podemos
encontrar en el mercado en base a su tamaño y movilidad. Ultraligeros

Los ultraligeros nacen a mediados de 2008, basados sobre todo en la idea del
ordenador de los 100 dólares, aunque bastante alejados de ese precio. El primero
en aparecer en el mercado fue el Asus eee PC, pero en la actualidad es raro el
fabricante que no cuenta con algún modelo de ultraligero en su catálogo. Este tipo
de portátiles, conocidos también como Netbook, tienen una serie de
características diferenciadoras, que son las siguientes: - Tamaño y peso: Un
tamaño bastante reducido, marcado sobre todo por el tamaño del teclado, con un
peso en torno a los 1.000 gramos. - Batería: Baterías de Ion-Litio, de pequeño
tamaño y peso, pero que dado el resto de la configuración ofrecen un buen
rendimiento y duración (de hasta 4 horas, algo más en algunos modelos). - Gráfica
y pantalla: Gráfica integrada en el chipset, por lo general de escasas prestaciones.
Pantalla TFT de entre 7'' y 8.9'', iluminadas por led en la mayoría. - Procesador

Basados normalmente en la plataforma Intel Atom (Atom N270), aunque los hay
con procesadores de otros fabricantes. - Memoria RAM: Entre 512MB y 2GB,
DDR2 SODIM en modelos más desarrollados, por lo general incorporada en la
placa base. - Disco duro: Normalmente de muy poca capacidad, SSD. En algunos
modelos, HDD de 1.8'' o de 2.5'' - Unidades ópticas: Este tipo de portátiles no
incorporan unidades ópticas, entre otros motivos porque simplemente no caben. -
Conectividad: Es un tema muy cuidado en este tipo de portátiles, que por lo
general ofrecen toda la gama existente en el mercado (Ethernet, Wiki, Bluetooth
en muchos casos, 3G en algunos modelos...). Cuentan además con puertos USB
para la conexión de periféricos. - Multimedia: Sonido integrado y en casi todos los
casos webcam integrada. - Sistema operativo: Normalmente Linux y, como opción,
Windows XP Home. - Precio: Lo normal es que ronden los 300 euros, aunque hay
modelos bastante más caros. Ligeros

4. Realice un estudio sobre las tarjetas flash, sobre las memorias, tarjetas
gráficas, tarjetas de sonido, teatros caseros y monitores

RTA:

TARJETAS FLASH: La memoria flash es una tecnología de


almacenamiento —derivada de la memoria EEPROM— que permite la lecto-
escritura de múltiples posiciones de memoria en la misma operación. Gracias a
ello, la tecnología flash, siempre mediante impulsos eléctricos, permite
velocidades de funcionamiento muy superiores frente a la tecnología EEPROM
primigenia, que sólo permitía actuar sobre una única celda de memoria en cada
operación de programación. Se trata de la tecnología empleada en los dispositivos
pendrive.
Funcionalidades

Flash, como tipo de EEPROM que es, contiene una matriz de celdas con un
transistor evolucionado con dos puertas en cada intersección. Tradicionalmente
sólo almacenan un bit de información. Las nuevas memorias flash, llamadas
también dispositivos de celdas multi-nivel, pueden almacenar más de un bit por
celda variando el número de electrones que almacenan.

Estas memorias están basadas en el transistor FAMOS (Floating Gate Avalanche-


Injection Metal Oxide Semiconductor) que es, esencialmente, un transistor NMOS
con un conductor (basado en un óxido metálico) adicional localizado o entre la
puerta de control (CG – Control Gate) y los terminales fuente/drenador contenidos
en otra puerta (FG – Floating Gate) o alrededor de la FG conteniendo los
electrones que almacenan la información.

Memoria flash de tipo NOR

En las memorias flash de tipo NOR, cuando los electrones se encuentran en FG,
modifican (prácticamente anulan) el campo eléctrico que generaría CG en caso de
estar activo. De esta forma, dependiendo de si la celda está a 1 ó a 0, el campo
eléctrico de la celda existe o no. Entonces, cuando se lee la celda poniendo un
determinado voltaje en CG, la corriente eléctrica fluye o no en función del voltaje
almacenado en la celda. La presencia/ausencia de corriente se detecta e
interpreta como un 1 ó un 0, reproduciendo así el dato almacenado. En los
dispositivos de celda multi-nivel, se detecta la intensidad de la corriente para
controlar el número de electrones almacenados en FG e interpretarlos
adecuadamente.

Para programar una celda de tipo NOR (asignar un valor determinado) se permite
el paso de la corriente desde el terminal fuente al terminal sumidero, entonces se
coloca en CG un voltaje alto para absorber los electrones y retenerlos en el campo
eléctrico que genera. Este proceso se llama hot-electrón injection. Para borrar
(poner a “1”, el estado natural del transistor) el contenido de una celda, expulsar
estos electrones, se emplea la técnica de Fowler-Nordheim tunnelling, un proceso
de tunelado mecánico – cuántico. Esto es, aplicar un voltaje inverso bastante alto
al empleado para atraer a los electrones, convirtiendo al transistor en una pistola
de electrones que permite, abriendo el terminal sumidero, que los electrones
abandonen el mismo. Este proceso es el que provoca el deterioro de las celdas, al
aplicar sobre un conductor tan delgado un voltaje tan alto.

Es necesario destacar que las memorias flash están subdivididas en bloques (en
ocasiones llamados sectores) y por lo tanto, para el borrado, se limpian bloques
enteros para agilizar el proceso, ya que es la parte más lenta del proceso. Por esta
razón, las memorias flash son mucho más rápidas que las EEPROM
convencionales, ya que borran byte a byte. No obstante, para reescribir un dato es
necesario limpiar el bloque primero para después reescribir su contenido.
Memorias flash de tipo NAND

Las memorias flash basadas en puertas lógicas NAND funcionan de forma


ligeramente diferente: usan un túnel de inyección para la escritura y para el
borrado un túnel de ‘soltado’. Las memorias basadas en NAND tienen, además de
la evidente base en otro tipo de puertas, un coste bastante inferior, unas diez
veces de más resistencia a las operaciones pero sólo permiten acceso secuencial
(más orientado a dispositivos de almacenamiento masivo), frente a las memorias
flash basadas en NOR que permiten lectura de acceso aleatorio. Sin embargo,
han sido las NAND las que han permitido la expansión de este tipo de memoria, ya
que el mecanismo de borrado es más sencillo (aunque también se borre por
bloques) lo que ha proporcionado una base más rentable para la creación de
dispositivos de tipo tarjeta de memoria. Las populares memorias USB o también
llamadas Pendrives, utilizan memorias flash de tipo NAND.

Comparación de memorias flash basadas en NOR y NAND

Para comparar estos tipos de memoria se consideran los diferentes aspectos de


las memorias tradicionalmente valorados.

 La densidad de almacenamiento de los chips es actualmente bastante


mayor en las memorias NAND.
 El coste de NOR es mucho mayor.
 El acceso NOR es aleatorio para lectura y orientado a bloques para su
modificación. Sin embargo, NAND ofrece tan solo acceso directo para los
bloques y lectura secuencial dentro de los mismos.
 En la escritura de NOR podemos llegar a modificar un solo bit. Esto destaca
con la limitada reprogramación de las NAND que deben modificar bloques o
palabras completas.
 La velocidad de lectura es muy superior en NOR (50-100 ns) frente a NAND
(10 µs de la búsqueda de la página + 50 ns por byte).
 La velocidad de escritura para NOR es de 5 µs por byte frente a 200 µs por
página en NAND.
 La velocidad de borrado para NOR es de 1 ms por bloque de 64 KB frente a
los 2 ms por bloque de 16 KB en NAND.
 La fiabilidad de los dispositivos basados en NOR es realmente muy alta, es
relativamente inmune a la corrupción de datos y tampoco tiene bloques
erróneos frente a la escasa fiabilidad de los sistemas NAND que requieren
corrección de datos y existe la posibilidad de que queden bloques
marcados como erróneos e inservibles.

En resumen, los sistemas basados en NAND son más baratos y rápidos pero
carecen de una fiabilidad que los haga eficientes, lo que demuestra la necesidad
imperiosa de un buen sistema de archivos. Dependiendo de qué sea lo que se
busque, merecerá la pena decantarse por uno u otro tipo.
Tarjetero flash

Un tarjetero flash es un periférico que lee o escribe en memoria flash.


Actualmente, los instalados en ordenadores (incluidos en una placa o mediante
puerto USB), marcos digitales, lectores de DVD y otros dispositivos, suelen leer
varios tipos de tarjetas.

Sistemas de archivos para memorias flash

Diseñar un sistema de archivos eficiente para las memorias flash se ha convertido


en una carrera vertiginosa y compleja, ya que, aunque ambos (NOR y NAND) son
tipos de memoria flash, tienen características muy diferentes entre sí a la hora de
acceder a esos datos. Esto es porque un sistema de ficheros que trabaje con
memorias de tipo NOR incorpora varios mecanismos innecesarios para NAND y, a
su vez, NAND requiere mecanismos adicionales, innecesarios para gestionar la
memoria de tipo NOR.

Un ejemplo podría ser un recolector de basura. Esta herramienta está


condicionada por el rendimiento de las funciones de borrado que, en el caso de
NOR es muy lento y, además, un recolector de basura NOR requiere una
complejidad relativa bastante alta y limita las opciones de diseño del sistema de
archivos. Comparándolo con los sistemas NAND, que borran mucho más
rápidamente, estas limitaciones no tienen sentido.

Otra de las grandes diferencias entre estos sistemas es el uso de bloques


erróneos que pueden existir en NAND pero no tienen sentido en los sistemas NOR
que garantizan la integridad. El tamaño que deben manejar unos y otros sistemas
también difiere sensiblemente y por lo tanto es otro factor a tener en cuenta. Se
deberá diseñar estos sistemas en función de la orientación que se le quiera dar al
sistema.

Los dos sistemas de ficheros que se disputan el liderazgo para la organización


interna de las memorias flash son JFFS (Journaling Flash File System) y YAFFS
(Yet Another Flash File System), ExFAT es la opción de Microsoft.

Antecedentes de la memoria flash

Las memorias han evolucionado mucho desde los comienzos del mundo de la
computación. Conviene recordar los tipos de memorias de semiconductores
empleadas como memoria principal y unas ligeras pinceladas sobre cada una de
ellas para enmarcar las memorias flash dentro de su contexto.

Organizando estos tipos de memoria conviene destacar tres categorías si las


clasificamos en función de las operaciones que podemos realizar sobre ellas, es
decir, memorias de sólo lectura, memorias de sobre todo lectura y memorias de
lectura/escritura.
 Memorias de sólo lectura.
o ROM: (Read Only Memory): Se usan principalmente en
microprogramación de sistemas. Los fabricantes las suelen emplear
cuando producen componentes de forma masiva.
o PROM: (Programmable Read Only Memory): El proceso de escritura
es electrónico. Se puede grabar posteriormente a la fabricación del
chip, a diferencia de las anteriores que se graba durante la
fabricación. Permite una única grabación y es más cara que la ROM.
 Memorias de sobre todo lectura.
o EPROM (Erasable Programmable Read Only Memory): Se puede
escribir varias veces de forma eléctrica, sin embargo, el borrado de
los contenidos es completo y a través de la exposición a rayos
ultravioletas (de esto que suelen tener una pequeña ‘ventanita’ en el
chip).
o EEPROM (Electrically Erasable Programmable Read Only Memory):
Se puede borrar selectivamente byte a byte con corriente eléctrica.
Es más cara que la EPROM.
o Memoria flash: Está basada en las memorias EEPROM pero permite
el borrado bloque a bloque y es más barata y densa.
 Memorias de Lectura/Escritura (RAM)
o DRAM (Dynamic Random Access Memory): Los datos se almacenan
como en la carga de un condensador. Tiende a descargarse y, por lo
tanto, es necesario un proceso de refresco periódico. Son más
simples y baratas que las SRAM.
o SRAM (Static Random Access Memory): Los datos se almacenan
formando biestables, por lo que no requiere refresco. Igual que
DRAM es volátil. Son más rápidas que las DRAM y más caras.

Historia de la memoria flash

La historia de la memoria flash siempre ha estado muy vinculada con el avance


del resto de las tecnologías a las que presta sus servicios como routers, módems,
BIOS de los PC, wireless, etc. Fue Fujio Masuoka en 1984, quien inventó este tipo
de memoria como evolución de las EEPROM existentes por aquel entonces. Intel
intentó atribuirse la creación de esta sin éxito, aunque si comercializó la primera
memoria flash de uso común.

Entre los años 1994 y 1998, se desarrollaron los principales tipos de memoria que
conocemos hoy, como la SmartMedia o la CompactFlash. La tecnología pronto
planteó aplicaciones en otros campos. En 1998, la compañía Rio comercializó el
primer ‘Walkman’ sin piezas móviles aprovechando el modo de funcionamiento de
SmartMedia. Era el sueño de todo deportista que hubiera sufrido los saltos de un
discman en el bolsillo.

En 1994 SanDisk comenzó a comercializar tarjetas de memoria (CompactFlash)


basadas en estos circuitos, y desde entonces la evolución ha llegado a pequeños
dispositivos de mano de la electrónica de consumo como reproductores de MP3
portátiles, tarjetas de memoria para vídeo consolas, capacidad de almacenamiento
para las PC Card que nos permiten conectar a redes inalámbricas y un largo
etcétera, incluso llegando a la aeronáutica espacial. El espectro es grande.

El futuro del mundo de la memoria flash es bastante alentador, ya que se tiende a


la ubicuidad de las computadoras y electrodomésticos inteligentes e integrados y,
por ello, la demanda de memorias pequeñas, baratas y flexibles seguirá en alza
hasta que aparezcan nuevos sistemas que lo superen tanto en características
como en coste. En apariencia, esto no parecía muy factible ni siquiera a medio
plazo ya que la miniaturización y densidad de las memorias flash estaba todavía
lejos de alcanzar niveles preocupantes desde el punto de vista físico. Pero con la
aparición del memristor el futuro de las memorias flash comienza a opacarse.

El desarrollo de las memorias flash es, en comparación con otros tipos de


memoria sorprendentemente rápido tanto en capacidad como en velocidad y
prestaciones. Sin embargo, los estándares de comunicación de estas memorias,
de especial forma en la comunicación con los PC es notablemente inferior, lo que
puede retrasar los avances conseguidos.

La apuesta de gigantes de la informática de consumo como AMD y Fujitsu en


formar nuevas empresas dedicadas exclusivamente a este tipo de memorias como
Spansion en julio de 2003 auguran fuertes inversiones en investigación, desarrollo
e innovación en un mercado que en 2005 sigue creciendo en un mercado que ya
registró en 2004 un crecimiento asombroso hasta los 15.000 millones de dólares
(después de haber superado la burbuja tecnológica del llamado boom punto com)
según el analista de la industria Gartner, avala todas estas ideas.

Es curioso que esta nueva empresa, concretamente, esté dando la vuelta a la


tortilla respecto a las velocidades con una técnica tan sencilla en la forma como
compleja en el fondo de combinar los dos tipos de tecnologías reinantes en el
mundo de las memorias flash en tan poco tiempo. Sin duda se están invirtiendo
muchos esfuerzos de todo tipo en este punto.

Sin embargo, la memoria flash se seguirá especializando fuertemente,


aprovechando las características de cada tipo de memoria para funciones
concretas. Supongamos una Arquitectura Harvard para un pequeño dispositivo
como un PDA; la memoria de instrucciones estaría compuesta por una memoria
de tipo ORNAND (empleando la tecnología MirrorBit de segunda generación)
dedicada a los programas del sistema, esto ofrecería velocidades sostenidas de
hasta 150 MB/s de lectura en modo ráfaga según la compañía con un costo
energético ínfimo y que implementa una seguridad por hardware realmente
avanzada; para la memoria de datos podríamos emplear sistemas basados en
puertas NAND de alta capacidad a un precio realmente asequible. Sólo quedaría
reducir el consumo de los potentes procesadores para PC actuales y
dispondríamos de un sistema de muy reducidas dimensiones con unas
prestaciones que hoy en día sería la envidia de la mayoría de los ordenadores de
sobremesa. Y no queda mucho tiempo hasta que estos sistemas tomen, con un
esfuerzo redoblado, las calles.

Cualquier dispositivo con datos críticos empleará las tecnologías basadas en NOR
u ORNAND si tenemos en cuenta que un fallo puede hacer inservible un terminal
de telefonía móvil o un sistema médico por llegar a un caso extremo. Sin embargo,
la electrónica de consumo personal seguirá apostando por las memorias basadas
en NAND por su inmensamente reducido costo y gran capacidad, como los
reproductores portátiles de MP3 o ya, incluso, reproductores de DVD portátiles. La
reducción del voltaje empleado (actualmente en 1,8 V la más reducida), además
de un menor consumo, permitirá alargar la vida útil de estos dispositivos
sensiblemente. Con todo, los nuevos retos serán los problemas que sufren hoy en
día los procesadores por su miniaturización y altas frecuencias de reloj de los
microprocesadores.

Los sistemas de ficheros para memorias flash, con proyectos disponibles mediante
CVS (Concurrent Version System) y código abierto permiten un desarrollo
realmente rápido, como es el caso de YAFFS2, que, incluso, ha conseguido varios
patrocinadores y hay empresas realmente interesadas en un proyecto de esta
envergadura.

La integración con sistemas inalámbricos permitirá unas condiciones propicias


para una mayor integración y ubicuidad de los dispositivos digitales, convirtiendo
el mundo que nos rodea en el sueño de muchos desde la década de 1980. Pero
no sólo eso, la Agencia Espacial Brasileña, por citar una agencia espacial, ya se
ha interesado oficialmente en este tipo de memorias para integrarla en sus
diseños; la NASA ya lo hizo y demostró en Marte su funcionamiento en el Spirit
(rover de la NASA, gemelo de Opportunity), donde se almacenaban
incorrectamente las órdenes como bien se puede recordar. Esto sólo es el
principio. Y más cerca de lo que creemos. Intel asegura que el 90% de los PC,
cerca del 90% de los móviles, el 50% de los módems, etc., en 1997 ya contaban
con este tipo de memorias.

En la actualidad TDK está fabricando discos duros con memorias flash NAND de
32 Gb con un tamaño similar al de un disco duro de 2,5 pulgadas, similares a los
discos duros de los portátiles con una velocidad de 33,3 Mb/s. El problema de este
disco duro es que, al contrario de los discos duros convencionales, tiene un
número limitado de accesos. Samsung también ha desarrollado memorias NAND
de hasta 32 Gb.

La expansión de la memoria flash es infinita. A finales del 2009 Kingston lanzó una
memoria flash (DATATRAVELER 300) de una capacidad de 256 Gb la cual podría
almacenar 51000 imágenes, 54 DVD o 365 CD.

Apple presentó el 20 de octubre del 2010 una nueva versión de la computadora


portátil MacBook Air en el evento denominado ‘De vuelta al Mac’ (Back to the
Mac), en su sede general de Cupertino, en California (Estados Unidos).
Una de las características más resaltantes de este nuevo equipo es que no tiene
disco duro, sino una memoria flash, lo que la hace una máquina más rápida y
ligera.

“Es como ninguna otra cosa que hayamos creado antes”, dijo el director ejecutivo
de Apple, Steve Jobs. La nueva MacBook Air viene en dos modelos: uno con
pantalla de 13 pulgadas y otro de 11. A través de este equipo podrá accederse al
App Store y otros servicios.

Según David Cuen, un especialista consultado por la BBC Mundo, “la memoria
flash es una apuesta interesante pero arriesgada. La pregunta es: ¿está el
mercado preparado para deshacerse de los discos duros? Apple parece pensar
que sí”.

MEMORIAS:
Historia

Integrado de silicio de 64 bits sobre un sector de memoria de núcleo (finales de los


60).

La historia está marcada por la necesidad del volumen de datos. Originalmente,


los datos eran programados por el usuario con movimientos de interruptores. Se
puede decir que el movimiento de datos era bit a bit. Las necesidades apuntaron a
una automatización y se crearon lo que se denomina byte de palabra. Desde una
consola remota, se trasladaban los interruptores asignándoles valores de letra,
que correspondían a una orden de programación al microprocesador. Así, si se
deseaba programar una orden NOT con dos direcciones distintas de memoria,
solo se tenía que activar el grupo de interruptores asociados a la letra N, a la letra
O y a la letra T. Seguidamente, se programaban las direcciones de memoria sobre
las cuales recibirían dicho operador lógico, para después procesar el resultado.
Los interruptores evolucionaron asignándoles una tabla de direccionamiento de
16x16 bytes, en donde se daban 256 valores de byte posibles (la actual tabla
ASCII). En dicha tabla, se traducen lo que antes costaba activar 8 interruptores por
letra, a una pulsación por letra (de cara al recurso humano, un ahorro en tiempos.
Una sola pulsación, predisponía 1 byte en RAM... o en otras palabras, cambiaba la
posición de 8 interruptores con una sola pulsación). Se usó el formato de máquina
de escribir, para representar todo el alfabeto latino, necesario para componer
palabras en inglés; así como los símbolos aritméticos y lógicos que permitían la
escritura de un programa directamente en memoria RAM a través de una consola
o teclado.

En origen, los programadores no veían en tiempo real lo que tecleaban, teniendo


que imprimir de cuando en cuando el programa residente en memoria RAM y
haciendo uso del papel a la hora de ir modificando o creando un nuevo programa.
Dado que el papel era lo más accesible, los programas comenzaron a imprimirse
en un soporte de celulosa más resistente, creando lo que se denominó Tarjeta
perforada. Así pues, los programas constaban de una o varias tarjetas perforadas,
que se almacenaban en archivadores de papel con las típicas anillas de sujeción.
Dichas perforaciones, eran leídas por un dispositivo de entrada, que no era muy
diferente al teclado y que constaba de pulsadores que eran activados o
desactivados, dependiendo de si la tarjeta en la posición de byte, contenía una
perforación o no. Cada vez que se encendía la máquina, requería de la carga del
programa que iba a ejecutar.

Dado que los datos en memoria son de 0 o 1, que esas posiciones físicamente
representan el estado de un conmutador, que la estimulación del conmutador
evolucionó a pulsos electromagnéticos, el almacenamiento de los programas era
cuestión de tiempo que su almacenamiento pasara del papel a un soporte lógico,
tal como las cintas de almacenamiento. Las cintas eran secuenciales, y la
composición de la cinta era de un material magnetoestático; bastaba una corriente
Gauss para cambiar las polaridades del material. Dado que el material magnético
puede tener polaridad norte o sur, era ideal para representar el 0 o el 1. Así,
ahora, cargar un programa no era cuestión de estar atendiendo un lector de
tarjetas en el cual se debían de ir metiendo de forma interminable tarjetas
perforadas que apenas podían almacenar apenas unos bytes. Ahora, los
dispositivos electromagnéticos secuenciales requerían la introducción de la cinta y
la pulsación de una tecla para que se cargara todo el programa de inicio a fin, de
forma secuencial. Los accesos aleatorios no aparecieron hasta la aparición del
disco duro y el Floppy. Con estos medios, un cabezal lector se deslizaba por la
superficie en movimiento, si dicho movimiento tenía como consecuencia la lectura
de un valor N-N (norte-norte) no generaba corriente, tampoco si era S-S (Sur-Sur),
por el contrario, si era N-S o S-N sí creaba una corriente, que era captada por el
circuito que mandaba el dato a la memoria RAM.

Toda esta automatización requiso del diseño de un sistema operativo, o de un


área de gestión del recurso para su automatización. Estos sistemas requerían de
un área de memoria reservada, en origen de 64 Kb (Capacidades de
representación de texto en monitor monocromo), para irse ampliando a 128 Kb
(Monocromo con capacidades gráficas), 256 (Texto y gráficos a dos colores), 512
(Texto y gráficos a 4 colores) y los tradicionales 640 Kb (Texto y gráficos a 16
colores). Esa memoria se denominó memoria base.

Es en esta parte del tiempo, en donde se puede hablar de un área de trabajo para
la mayor parte del software de un computador. La RAM continua siendo volátil por
lo que posee la capacidad de perder la información una vez que se agote su
fuente de energía.[1] Existe una memoria intermedia entre el procesador y la RAM,
llamada caché, pero ésta sólo es una copia (de acceso rápido) de la memoria
principal (típicamente discos duros) almacenada en los módulos de RAM. [1]

4MiB de memoria RAM para un computador VAX de finales de los 70. Los
integrados de memoria DRAM están agrupados arriba a derecha e izquierda.

Módulos de memoria tipo SIPP instalados directamente sobre la placa base.

La denominación “de Acceso aleatorio” surgió para diferenciarlas de las memoria


de acceso secuencial, debido a que en los comienzos de la computación, las
memorias principales (o primarias) de las computadoras eran siempre de tipo RAM
y las memorias secundarias (o masivas) eran de acceso secuencial (unidades de
cinta o tarjetas perforadas). Es frecuente pues que se hable de memoria RAM
para hacer referencia a la memoria principal de una computadora, pero
actualmente la denominación no es precisa.

Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético,
desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el
desarrollo de circuitos integrados a finales de los años 60 y principios de los 70.
Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos
construidas con tubos de vacío para implementar las funciones de memoria
principal con o sin acceso aleatorio.

En 1969 fueron lanzadas una de las primeras memorias RAM basadas en


semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de
memoria y para el siguiente año se presentó una memoria DRAM de 1 Kibibyte,
referencia 1103 que se constituyó en un hito, ya que fue la primera en ser
comercializada con éxito, lo que significó el principio del fin para las memorias de
núcleo magnético. En comparación con los integrados de memoria DRAM
actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor
que la memoria de núcleos.

En 1973 se presentó una innovación que permitió otra miniaturización y se


convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la
direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4 Kb en un
empaque de 16 pines,[2] mientras sus competidores las fabricaban en el empaque
DIP de 22 pines. El esquema de direccionamiento [3] se convirtió en un estándar de
facto debido a la gran popularidad que logró esta referencia de DRAM. Para
finales de los 70 los integrados eran usados en la mayoría de computadores
nuevos, se soldaban directamente a las placas base o se instalaban en zócalos,
de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se
hizo obvio que la instalación de RAM sobre el impreso principal, impedía la
miniaturización, entonces se idearon los primeros módulos de memoria como el
SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue
una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de
cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de
expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma
distribución de pines.

A finales de los 80 el aumento en la velocidad de los procesadores y el aumento


en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el
esquema original MOSTEK, de manera que se realizaron una serie de mejoras en
el direccionamiento como las siguientes:
Módulos formato SIMM de 30 y 72 pines, los últimos fueron utilizados con
integrados tipo EDO-RAM.

 FPM-RAM (Fast Page Mode RAM)

Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel


486,[4] se implantó un modo direccionamiento en el que el controlador de memoria
envía una sola dirección y recibe a cambio esa y varias consecutivas sin
necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya
que ciertas operaciones son repetitivas cuando se desea acceder a muchas
posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en
una calle: después de la primera vez no seria necesario decir el número de la calle
únicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y
fueron muy populares en sistemas basados en el 486 y los primeros Pentium.

 EDO-RAM (Extended Data Output RAM)

Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía una mejora


sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones
contiguas pero direcciona la columna que va utilizar mientras que se lee la
información de la columna anterior, dando como resultado una eliminación de
estados de espera, manteniendo activo el búffer de salida hasta que comienza el
próximo ciclo de lectura.

 BEDO-RAM (Burst Extended Data Output RAM)

Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en


1997. Era un tipo de memoria que usaba generadores internos de direcciones y
accedía a más de una posición de memoria en cada ciclo de reloj, de manera que
lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado
que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos
que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades
distintas como señales de reloj.

Módulos de la memoria RAM


Formato SO-DIMM.

Los módulos de memoria RAM son tarjetas de circuito impreso que tienen
soldados integrados de memoria DRAM por una o ambas caras. La
implementación DRAM se basa en una topología de Circuito eléctrico que permite
alcanzar densidades altas de memoria por cantidad de transistores, logrando
integrados de decenas o cientos de Megabits. Además de DRAM, los módulos
poseen un integrado que permiten la identificación de los mismos ante el
computador por medio del protocolo de comunicación SPD.

La conexión con los demás componentes se realiza por medio de un área de pines
en uno de los filos del circuito impreso, que permiten que el modulo al ser
instalado en un zócalo apropiado de la placa base, tenga buen contacto eléctrico
con los controladores de memoria y las fuentes de alimentación. Los primeros
módulos comerciales de memoria eran SIPP de formato propietario, es decir no
había un estándar entre distintas marcas. Otros módulos propietarios bastante
conocidos fueron los RIMM, ideados por la empresa RAMBUS.

La necesidad de hacer intercambiable los módulos y de utilizar integrados de


distintos fabricantes condujo al establecimiento de estándares de la industria como
los JEDEC.

 Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus


de datos de 16 o 32 bits
 Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por
tener un bus de datos de 64 bits.
 Módulos SO-DIMM: Usado en computadores portátiles. Formato
miniaturizado de DIMM.

Relación con el resto del sistema

Diagrama de la arquitectura de un ordenador.

Dentro de la jerarquía de memoria la RAM se encuentra en un nivel después de


los registros del procesador y de las cachés. Es una memoria relativamente rápida
y de una capacidad media: sobre el año 2010), era fácil encontrar memorias con
velocidades de más de 1 Ghz, y capacidades de hasta 8 GB por módulo, llegando
a verse memorias pasando la barrera de los 3 Ghz por esa misma fecha mediante
prácticas de overclock extremo. La memoria RAM contenida en los módulos, se
conecta a un controlador de memoria que se encarga de gestionar las señales
entrantes y salientes de los integrados DRAM. Algunas señales son las mismas
que se utilizan para utilizar cualquier memoria: Direcciones de las posiciones,
datos almacenados y señales de control.

El controlador de memoria debe ser diseñado basándose en una tecnología de


memoria, por lo general soporta solo una, pero existen excepciones de sistemas
cuyos controladores soportan dos tecnologías (por ejemplo SDR y DDR o DDR1 y
DDR2), esto sucede en las épocas transitorias de una nueva tecnología de RAM.
Los controladores de memoria en sistemas como PC y servidores se encuentran
embebidos en el llamado "North Bridge" o "Puente Norte" de la placa base; o en
su defecto, dentro del mismo procesador (en el caso de los procesadores desde
AMD Athlon 64 e Intel Core i7) y posteriores; y son los encargados de manejar la
mayoría de información que entra y sale del procesador.

Las señales básicas en el módulo están divididas en dos buses y un conjunto


misceláneo de líneas de control y alimentación. Entre todas forman el bus de
memoria:

 Bus de datos: Son las líneas que llevan información entre los integrados y
el controlador. Por lo general están agrupados en octetos siendo de 8,
16,32 y 64 bits, cantidad que debe igualar el ancho del bus de datos del
procesador. En el pasado, algunos formatos de modulo, no tenían un ancho
de bus igual al del procesador. En ese caso había que montar módulos en
pares o en situaciones extremas, de a 4 módulos, para completar lo que se
denominaba banco de memoria, de otro modo el sistema no funciona. Esa
es la principal razón de haber aumentar el número de pines en los módulos,
igualando el ancho de bus de procesadores como el Pentium de 64 bits a
principios de los 90.

 Bus de direcciones: Es un bus en el cual se colocan las direcciones de


memoria a las que se requiere acceder. No es igual al bus de direcciones
del resto del sistema, ya que está multiplexado de manera que la dirección
se envía en dos etapas. Para ello el controlador realiza temporizaciones y
usa las líneas de control. En cada estándar de módulo se establece un
tamaño máximo en bits de este bus, estableciendo un límite teórico de la
capacidad máxima por módulo.

 Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss)
que se encargan de entregar potencia a los integrados. Están las líneas de
comunicación para el integrado de presencia que da información clave
acerca del módulo. También están las líneas de control entre las que se
encuentran las llamadas RAS (row address strobe) y CAS (column address
strobe) que controlan el bus de direcciones y las señales de reloj en las
memorias sincrónicas SDRAM.
Entre las características sobresalientes del controlador de memoria, está la
capacidad de manejar la tecnología de canal doble (Dual Channel), tres canales, o
incluso cuatro para los procesadores venideros; donde el controlador maneja
bancos de memoria de 128 bits. Aunque el ancho del bus de datos del procesador
sigue siendo de 64 bits, el controlador de memoria puede entregar los datos de
manera intercalada, optando por uno u otro canal, reduciendo las latencias vistas
por el procesador. La mejora en el desempeño es variable y depende de la
configuración y uso del equipo. Esta característica ha promovido la modificación
de los controladores de memoria, resultando en la aparición de nuevos chipsets (la
serie 865 y 875 de Intel) o de nuevos zócalos de procesador en los AMD (el 939
con canal doble, reemplazo el 754 de canal sencillo). Los equipos de gama media
y alta por lo general se fabrican basados en chipsets o zócalos que soportan doble
canal o superior.

Módulos de memoria instalados de 256 MiB cada uno en un sistema con doble
canal.

Tecnologías de memoria

La tecnología de memoria actual usa una señal de sincronización para realizar las
funciones de lectura-escritura de manera que siempre esta sincronizada con un
reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que
eran asíncronas. Hace más de una década toda la industria se decantó por las
tecnologías síncronas, ya que permiten construir integrados que funcionen a una
frecuencia superior a 66 MHz (A día de hoy, se han superado con creces los 1600
Mhz).
Memorias RAM con tecnologías usadas en la actualidad.

SDR SDRAM

Artículo principal: SDRAM

Memoria síncrona, con tiempos de acceso de entre 25 y 10 ns y que se presentan


en módulos DIMM de 168 contactos. Fue utilizada en los Pentium II y en los
Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy
extendida la creencia de que se llama SDRAM a secas, y que la denominación
SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así,
simplemente se extendió muy rápido la denominación incorrecta. El nombre
correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son
memorias síncronas dinámicas. Los tipos disponibles son:

 PC100: SDR SDRAM, funciona a un máx de 100 MHz.


 PC133: SDR SDRAM, funciona a un máx de 133 MHz.

DDR SDRAM

Artículo principal: DDR SDRAM

Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este
modo trabaja al doble de velocidad del bus del sistema, sin necesidad de
aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos
en el caso de ordenador de escritorio y en módulos de 144 contactos para los
ordenadores portátiles. Los tipos disponibles son:

 PC2100 o DDR 266: funciona a un máx de 133 MHz.


 PC2700 o DDR 333: funciona a un máx de 166 MHz.
 PC3200 o DDR 400: funciona a un máx de 200 MHz.

DDR2 SDRAM
SDRAM DDR2.

Artículo principal: DDR2

Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate),
que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia
del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro
transferencias. Se presentan en módulos DIMM de 240 contactos. Los tipos
disponibles son:

 PC2-4200 o DDR2-533: funciona a un máx de 533 MHz.


 PC2-5300 o DDR2-667: funciona a un máx de 667 MHz.
 PC2-6400 o DDR2-800: funciona a un máx de 800 MHz.
 PC2-8600 o DDR2-1066: funciona a un máx de 1066 MHz.
 PC2-9000 o DDR2-1200: funciona a un máx de 1200 MHz

DDR3 SDRAM

Artículo principal: DDR3

Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan
significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva
consigo una disminución del gasto global de consumo. Los módulos DIMM DDR 3
tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son
físicamente incompatibles, debido a una ubicación diferente de la muesca. Los
tipos disponibles son:

 PC3-8600 o DDR3-1066: funciona a un máx de 1066 MHz.


 PC3-10600 o DDR3-1333: funciona a un máx de 1333 MHz.
 PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.

RDRAM (Rambus DRAM)

Artículo principal: RDRAM


Memoria de gama alta basada en un protocolo propietario creado por la empresa
Rambus, lo cual obliga a sus compradores a pagar regalías en concepto de uso.
Esto ha hecho que el mercado se decante por la tecnología DDR, libre de
patentes, excepto algunos servidores de grandes prestaciones (Cray) y la consola
PlayStation 3. La RDRAM se presenta en módulos RIMM de 184 contactos.

Detección y corrección de errores

Existen dos clases de errores en los sistemas de memoria, las fallas (Hard fails)
que son daños en el hardware y los errores (soft errors) provocados por causas
fortuitas. Los primeros son relativamente fáciles de detectar (en algunas
condiciones el diagnóstico es equivocado), los segundos al ser resultado de
eventos aleatorios, son más difíciles de hallar. En la actualidad la confiabilidad de
las memorias RAM frente a los errores, es suficientemente alta como para no
realizar verificación sobre los datos almacenados, por lo menos para aplicaciones
de oficina y caseras. En los usos más críticos, se aplican técnicas de corrección y
detección de errores basadas en diferentes estrategias:

 La técnica del bit de paridad consiste en guardar un bit adicional por cada
byte de datos, y en la lectura se comprueba si el número de unos es par
(paridad par) o impar (paridad impar), detectándose así el error.
 Una técnica mejor es la que usa ECC, que permite detectar errores de 1 a 4
bits y corregir errores que afecten a un sólo bit. Esta técnica se usa sólo en
sistemas que requieren alta fiabilidad.

Por lo general los sistemas con cualquier tipo de protección contra errores tiene un
costo más alto, y sufren de pequeñas penalizaciones en desempeño, con respecto
a los sistemas sin protección. Para tener un sistema con ECC o paridad, el chipset
y las memorias deben tener soporte para esas tecnologías. La mayoría de placas
base no poseen dicho soporte.

Para los fallos de memoria se pueden utilizar herramientas de software


especializadas que realizan pruebas integrales sobre los módulos de memoria
RAM. Entre estos programas uno de los más conocidos es la aplicación
Memtest86+ que detecta fallos de memoria.

Memoria RAM registrada

Es un tipo de módulo usado frecuentemente en servidores y equipos especiales.


Poseen circuitos integrados que se encargan de repetir las señales de control y
direcciones. Las señales de reloj son reconstruidas con ayuda del PLL que está
ubicado en el módulo mismo. Las señales de datos pasan directamente del bus de
memoria a los CI de memoria DRAM.

Estas características permiten conectar múltiples módulos de memoria (más de 4)


de alta capacidad sin que haya perturbaciones en las señales del controlador de
memoria, haciendo posible sistemas con gran cantidad de memoria principal (8 a
16 GiB). Con memorias no registradas, no es posible, debido a los problemas
surgen de sobrecarga eléctrica a las señales enviadas por el controlador,
fenómeno que no sucede con las registradas por estar de algún modo aisladas.

Entre las desventajas de estos módulos están el hecho de que se agrega un ciclo
de retardo para cada solicitud de acceso a una posición no consecutiva y por
supuesto el precio, que suele ser mucho más alto que el de las memorias de PC.
Este tipo de módulos es incompatible con los controladores de memoria que no
soportan el modo registrado, a pesar de que se pueden instalar físicamente en el
zócalo. Se pueden reconocer visualmente porque tienen un integrado mediano,
cerca del centro geométrico del circuito impreso, además de que estos módulos
suelen ser algo más altos.

TARJETAS GRÁFICAS:
Tarjetas aceleradoras 2D

Una tarjeta gráfica, que también se conoce como adaptador gráfico, tarjeta de
video o acelerador de gráficos, es un componente del ordenador que permite
convertir los datos digitales en un formato gráfico que puede ser visualizado en
una pantalla.

En un principio, la tarea principal de las tarjetas gráficas fue la de enviar píxeles a


la pantalla, así como también una variedad de manipulaciones gráficas simples:

 Mover bloques (como el del cursor del ratón);


 trazado de rayos;
 trazado de polígonos;
 etc.

Las tarjetas gráficas más recientes tienen procesadores fabricados para manipular
gráficos complejos en 3D.
Los componentes de una tarjeta de video son:

 Una Unidad de procesamiento gráfico (GPU, Graphical Processing Unit),


que es el corazón de la tarjeta de gráficos y que procesa las imágenes de
acuerdo a la codificación utilizada. La GPU es un procesador especializado
con funciones relativamente avanzadas de procesamiento de imágenes, en
especial para gráficos 3D. Debido a las altas temperaturas que puede
alcanzar un procesador gráfico, a menudo se coloca un radiador y un
ventilador.
 La función de la memoria de video es la de almacenar las imágenes
procesadas por el GPU antes de mostrarlas en la pantalla. A mayor
cantidad de memoria de video, mayor será la cantidad de texturas que la
tarjeta gráfica podrá controlar cuando muestre gráficos 3D. El término búfer
de trama se utiliza para referirse a la parte de la memoria de video
encargada de almacenar las imágenes antes de mostrarlas en la pantalla.
Las tarjetas de gráficos presentan una dependencia importante del tipo de
memoria que utiliza la tarjeta. Su tiempo de respuesta es fundamental en lo
que respecta a la rapidez con la que se desea mostrar las imágenes. La
capacidad de la memoria también es importante porque afecta el número y
la resolución de imágenes que puede almacenarse en el búfer de trama.
 El Convertidor digital-analógico de RAM (RAMDAC, Random Access
Memory Digital-Analog Converter) se utiliza a la hora de convertir las
imágenes digitales almacenadas en el búfer de trama en señales
analógicas que son enviadas a la pantalla. La frecuencia del RAMDAC
determina a su vez la frecuencia de actualización (el número de imágenes
por segundo, expresado en Hercios: Hz) que la tarjeta gráfica puede
soportar.
 El BIOS de video contiene la configuración de tarjeta gráfica, en especial,
los modos gráficos que puede soportar el adaptador.
 La interfaz: Este es el tipo de bus que se utiliza para conectar la tarjeta
gráfica en la placa madre. El bus AGP está especialmente diseñado para
controlar grandes flujos de datos, algo absolutamente necesario para
mostrar un video o secuencias en 3D. El bus PCI Express presenta un
mejor rendimiento que el bus AGP y en la actualidad, casi puede decirse
que lo ha remplazado.
 Las conexiones:
o La interfaz VGA estándar: La mayoría de las tarjetas gráficas tienen
un conector VGA de 15 clavijas (Mini Sub-D, con 3 hileras de 5
clavijas cada una); por lo general estas son de color azul. Este
conector se utiliza principalmente para las pantallas CRT. Este tipo
de interfaz se usa para enviar 3 señales analógicas a la pantalla.
Dichas señales corresponden a los componentes rojos, azules y
verdes de la imagen.
o La Interfaz de Video Digital (DVI, Digital Video Interface) se
encuentra en algunas tarjetas gráficas y se utiliza para el envío de
datos digitales a los distintos monitores que resultan compatibles con
esta interfaz. De esta manera, se evita convertir los datos digitales
en analógicos o los analógicos en digitales.

o Interfaz S-Video: En la actualidad, son cada vez más numerosas las


tarjetas gráficas que incluyen un conector S-Video. Esto permite
visualizar en una pantalla de televisión lo mismo que se observa en
el ordenador. Por este motivo, generalmente se lo suele llamar
conector "Salida de TV".

Tarjetas aceleradoras 3D

El campo del 3D es bastante reciente, y cada vez más importante. Algunas PC


cuentan con más poder de cómputo que ciertas estaciones de trabajo.

En líneas generales, el cómputo de gráficos en 3D es un proceso que puede


dividirse en cuatro etapas:

 secuencia de comandos: presentación de elementos


 geometría: Creación de objetos simples
 configuración: transformación de los objetos a triángulos 2D
 Renderizado: aplicación de textura a los triángulos.

Cuanto más rápido la tarjeta aceleradora 3D pueda computar estos pasos por sí
misma, mayor será la velocidad con la que se mostrará en pantalla. En un
principio, los primeros chips sólo podían renderizar y le dejaban el resto de la tarea
al procesador. Desde entonces, las tarjetas gráficas suelen incluir un "setup
engine", que permite controlar los últimos dos pasos mencionados anteriormente.
Por ejemplo, un procesador Pentium II de 266 Mhz que computa los tres primeros
pasos, procesa 350.000 polígonos por segundo; cuando computa tan sólo dos,
puede llegar a procesar hasta 750.000 polígonos por segundo. Esto demuestra
cuánta es la carga que las tarjetas gráficas alivian en los procesadores.

Este tipo de bus también es un factor importante. Aunque el bus AGP no mejora
las imágenes 2D, las tarjetas que utilizan ese bus (en lugar de utilizar el PCI)
poseen un mejor rendimiento. Esto se debe a que el bus AGP está conectado
directamente a la memoria RAM, lo que le otorga a su vez un ancho de banda
mayor al del bus PCI.

En la actualidad, estos productos de alta tecnología necesitan ser fabricados con


la misma calidad que los procesadores, como un ancho de canal de entre 0.25 µm
y 0.35 µm.

Glosario de funciones de aceleradoras 3D y 2D

Término Definición

Muestran la representación de una imagen a partir de dos ejes


Gráficos 2D
de referencia (x, y).

Muestran la representación de una imagen a partir de tres ejes


Gráficos 3D
de referencia (x, y, z).

El mundo está formado por objetos opacos, translúcidos y


transparentes. La mezcla alfa se utiliza para añadir información
de transparencia a los objetos translúcidos. Esto se logra al
renderizar polígonos a través de máscaras cuya densidad es
proporcional a la transparencia de los objetos. Como resultado,
Mezcla alfa
el color del píxel resulta de la combinación de los colores del
primer plano y del fondo. A menudo, alfa posee un valor que
oscila entre 0 y 1. Puede calcularse de la siguiente manera:
píxel nuevo=(alfa)*(color del primer píxel)+(1-alfa)*(color del
segundo píxel)

Se trata de un canal adicional para almacenar información de


Búfer alfa
transparencia (rojo, verde, azul y transparencia).

Un técnica para que los píxeles aparezcan más nítidos.


Efecto de
suavizado
Efectos Efectos como niebla o profundidad que logran mejorar el
atmosféricos renderizado del ambiente.

Mapa de bits Imagen píxel por píxel.

Se usa para que un píxel aparezca como más fluido cuando se


Filtro bilineal lo desplaza de un lugar a otro (como por ejemplo, en algún
movimiento de rotación).

Se trata de una de las funciones de aceleración más


importantes. Permite simplificar el desplazamiento de bloques
Transferencia de
de datos al tomar en cuenta las características específicas de la
bloques de bits
memoria de video. Se utiliza, por ejemplo, cuando se mueve
una ventana.

Es la combinación de dos imágenes al agregarlas bit por bit una


Mezcla
a la otra.

Comunicación Esta función del bus PCI se utiliza para recibir información
directa entre directamente de la memoria sin tener que pasar necesariamente
periféricos por el procesador.

Método de asignación de textura. Toma en cuenta el valor Z al


momento de asignar valores a los polígonos. Cuando un objeto
Corrección de se aleja en la distancia, parece que disminuye su altura y su
perspectiva anchura. Mediante la corrección de perspectiva, se asegura que
la frecuencia con la que se cambia el tamaño de los píxeles de
la textura sea proporcional a la profundidad.

Niebla y
Disminuye la intensidad de los objetos a medida que estos se
difuminado de
alejan en la distancia.
profundidad

Permite archivar imágenes con calidad de 24 bits en búferes


Fusionado más pequeños (8 ó 16 bits). El fusionado combina dos colores
para crear uno sólo.

Un método que utiliza dos búfers, uno para la pantalla y el otro


Búfer doble para el renderizado. Una vez que finaliza el renderizado, se
intercambian los dos búferes.

Sombreado plano Asigna un color sólido al polígono. De esta manera, el objeto


o constante renderizado aparece como biselado.

Niebla Utiliza la función de mezcla para un objeto que posee color fijo
(mientras más se lo aleja del primer plano, más se utiliza esta
función).

Las características de una pantalla que utiliza fósforo son no


lineales: un pequeño cambio en el voltaje producirá de
inmediato distintos efectos. Cuando el voltaje resulta bajo, el
Gama
brillo de la pantalla cambia, por el contrario, el alto voltaje no
produce un cambio similar en el brillo. Se denomina Gama a la
diferencia entre lo que se espera y lo que se observa.

Corrección de Antes de mostrar la información, se la debe corregir para


gama compensar el efecto gama.

Es un algoritmo que lleva el nombre del matemático francés que


lo inventó. Este utiliza la interpolación para suavizar los colores.
Sombreado
Asigna un color a cada píxel de un polígono al interpolar los
Gouraud
colores en sus vértices. Simula la apariencia de superficies
plásticas o metálicas.

Es un método matemático para regenerar información perdida o


Interpolación dañada. Por ejemplo, cuando se agranda una imagen, se
regeneran los píxeles perdidos por interpolación.

Búfer Lineal Es un búfer utilizado para almacenar una línea de video.

Es un algoritmo, inventado por Phong Bui-Tong, utilizado para


sombrear colores al calcular la cantidad de luz que caería en
Sombreado Pong varios puntos de la superficie de un objeto y luego poder
cambiar el color de los píxeles basados en esos valores. Utiliza
muchos más recursos que el sombreado de Gouraud.

MIP es una palabra que viene del Latín "Multum in Parvum",


significa "muchos en uno". Este método permite aplicar texturas
con diferentes resoluciones a objetos dentro de una sola
MIP Mapping
imagen, según su tamaño y distancia. Entre otras cosas,
permite la utilización de texturas de mayor resolución a medida
que el objeto se va acercando.

Es la transformación de un espacio tridimensional en uno


Proyección
bidimensional.

Rasterizado Convierte una imagen en píxeles

Renderizado Es la creación de imágenes realistas en la pantalla al utilizar


modelos matemáticos para suavizar, colorear, etc.

Motor de Hardware o software que se utiliza para computar las primitivas


renderizado 3D (por lo general triángulos).

Es el método utilizado para computar gráficos 3D. Puede


Tesselation o dividirse en 3 partes: Facetado, geometría y renderizado. El
facetado paso de "facetado" implica la división de una superficie en
partes más pequeñas (por lo general, triángulos o cuadriláteros)

Se hace referencia al almacenamiento de imágenes hechas de


Asignación de
píxeles (texels), para luego envolver los objetos 3D de esta
textura
textura para que parezcan objetos más realistas.

Se basa en el principio del filtrado bilineal, el filtrado trilineal


Filtrado trilineal
involucra dos niveles de filtrado bilineal.

Es la parte de la memoria que almacena la distancia existente


entre cada píxel y el objetivo. Cuando se muestran los objetos
Búfer Z
renderizados, el motor de renderizado elimina las superficies
ocultas.

Es un método con el cual se logra las superficies ocultas en los


Z-buffering
valores almacenados en el Búfer Z.

[]

HISTORIA

PCI S3 ViRGE

IBM XGA-2 MCA


Apple Display Card 24AC NuBus

Cirrus Logic VESA

AVIEW2E EISA

EGA Paradise Bus ISA

La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando
se pasa de usar impresoras como elemento de visualización a utilizar monitores.
Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero
la aparición de los primeros chips gráficos como el Motorola 6845 permiten
comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades
gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las
primeras en recibir el término tarjeta gráfica.

El éxito del ordenador doméstico y las primeras videoconsolas hacen que por
abaratamiento de costos (principalmente son diseños cerrados), esos chips vayan
integrados en la placa base. Incluso en los equipos que ya vienen con un chip
gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de
80x24 u 80x25 caracteres, principalmente para ejecutar soft CP/M (como las de
los Apple II y Spectravideo SVI-328).

Curiosamente la tarjeta gráfica que viene con el IBM PC, que con su diseño
abierto herencia de los Apple II popularizará el concepto de tarjeta gráfica
intercambiable, es una tarjeta de sólo texto. La MDA (Monochrome Display
Adapter), desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de
representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria
VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se
usaba con monitores monocromo, de tonalidad normalmente verde. [2]

A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la


tabla adjunta.[3] [4] [5] [6]

Modo Modo Colore


Año Memoria
texto gráficos s

MDA 1981 80*25 - 1 4 KiB

CGA 1981 80*25 640*200 4 16 KiB

HGC 1982 80*25 720*348 1 64 KiB

EGA 1984 80*25 640*350 16 256 KiB

IBM
1987 80*25 1024*768 256 -
8514

MCGA 1987 80*25 320*200 256 -

VGA 1987 720*400 640*480 256 256 KiB


SVGA 1989 80*25 1024*768 256 1 MiB

XGA 1990 80*25 1024*768 65K 2 MiB

VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus
Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el
número de colores. Así nació el estándar SVGA (Super VGA). Con dicho estándar
se alcanzaron los 2 MB de memoria VRAM, así como resoluciones de 1024 x 768
pixels a 256 colores.

La competencia de los PC, Commodore Amiga 2000 y Apple Macintosh


reservaron en cambio esa posibilidad a ampliaciones profesionales, integrando
casi siempre la GPU (que batía en potencia con total tranquilidad a las tarjetas
gráficas de los PC del momento) en sus placas base. Esta situación se perpetúa
hasta la aparición del Bus PCI, que sitúa a las tarjetas de PC al nivel de los buses
internos de sus competidores, al eliminar el cuello de botella que representaba el
Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3 ViRGE, lo
que en un PC es una tarjeta gráfica avanzada deviene en acelerador 3D
profesional en los Commodore Amiga con ranura Zorro III), la fabricación masiva
(que abarata sustancialmente los costes) y la adopción por otras plataformas del
Bus PCI hace que los chips gráficos VGA comiencen a salir del mercado del PC.

La evolución de las tarjetas gráficas dio un giro importante en 1995 con la


aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y
ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban
funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia
de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...).
A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas
como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas
tarjetas fue tal, que el puerto PCI donde se conectaban se quedó corto de ancho
de banda. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que
solucionaría los cuellos de botella que empezaban a aparecer entre el procesador
y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas
gráficas (comprando incluso la mayoría de bienes de 3dfx) [7] con su gama
GeForce. En ese período, las mejoras se orientaron hacia el campo de los
algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las
memorias también necesitaban mejorar su velocidad, por lo que se incorporaron
las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo
en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce
4.

La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips


gráficos derivados de los más potentes aceleradores 3D de su momento. Los
Apple Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y los
modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con
BIOS no dependientes de CPU.

En 2006 y en adelante, NVIDIA y ATI (ese mismo año comprada por AMD) se
repartían el liderazgo del mercado[8] con sus series de chips gráficos GeForce y
Radeon, respectivamente.

TARJETAS DE SONIDO:
¿QUE ES LA TARJETA DE SONIDO?
La tarjeta de sonido es un dispositivo que se conecta a la placa base del
ordenador, o que puede ir integrada en la misma. Reproduce música, voz o
cualquier señal de audio. A la tarjeta de sonido se pueden conectar altavoces,
auriculares, micrófonos, instrumentos, etc.
BREVE HISTORIA
El pitido que oímos cuando arrancamos el ordenador ha sido durante muchos
años el único sonido que ha emitido el PC, ya que en un principio no fue pensado
para manejar sonido, el altavoz interno servía únicamente para comunicar errores
al usuario.
Pero el gran cambio surgió cuando empezó a aparecer el software que
seguramente más ha hecho evolucionar a los ordenadores desde su aparición: los
videojuegos. Además de esto, un poco más tarde en plena revolución de la música
digital, cuando empezaban a popularizarse los instrumentos musicales digitales,
apareció en el mercado de los PC compatibles una tarjeta que lo revolucionó, la
tarjeta de sonido SoundBlaster.
Por fin era posible convertir sonido analógico a digital para guardarlo en nuestro
PC, y también convertir el sonido digital que hay en nuestro PC a analógico y
poder escucharlo por nuestros altavoces. Posteriormente aparecieron el resto de
tarjetas, todas más o menos compatibles con la exitosa SoundBlaster original, que
se convirtió en el estándar indiscutible.

TIPOS DE TARJETAS
Podemos clasificar las tarjetas de sonido según los canales que utilizan. Las
tarjetas más básicas utilizan un sistema 2.1 estéreo, con una salida de Jack, a la
que podemos conectar dos altavoces.
Las tarjetas cuadrafónicas permiten la reproducción de sonido envolvente 3D.
Estas tarjetas disponen de dos salidas analógicas, lo que permite conectar
sistemas de altavoces 4.1 o 5.1. También suelen incluir la interfaz S/PDIF, para el
sistema Dolby Digital.
Existen otras tarjetas con conectores para otros dispositivos, que normalmente
tienen un uso profesional o semiprofesional, como los MIDI.
PUNTOS A TENER EN CUENTA
Para saber lo que debemos valorar al comprar una tarjeta de sonido, primero
debemos entender cómo funciona para así saber qué características son las que
necesitamos.
Básicamente, una tarjeta de sonido funciona con un convertidor de sonido que
pasa de analógico a digital (DAC) y otro de digital a analógico (ADC). La mayoría
de ellas cuenta con un procesador de señal (DSP), que trabaja con tablas de o-
ndas, y permite añadir efectos al sonido.
El número de bits refleja la calidad del sonido que es capaz de muestrear la tarjeta
en cuestión. Una tarjeta de 16 bits distingue 32 000 intervalos o matices diferentes
de sonido, lo suficiente para el oído humano.
El muestreo es el proceso que se realiza para registrar sonido (convertir la
información analógica al lenguaje binario), y su frecuencia se mide en kHz. Una
cifra de 44'1 Khz. nos da grabaciones digitales con la misma calidad que tienen los
CD’s de audio. Mayores frecuencias nos permitirán mantener la calidad si vamos a
editar o modificar el sonido posteriormente, ya que en este proceso se podría
perder algo de definición. Eligiendo una tarjeta de más de 44'1 Khz., nos
aseguramos de que podremos conservar una calidad óptima.
Tanto los bits como los Khz., están limitados por la capacidad del oído humano, ya
que aunque pudieran ampliarse, no seríamos capaces de apreciar ese aumento
en la calidad del sonido.
El número de voces es el número de sonidos, instrumentos o voces que una
tarjeta de sonido es capaz de reproducir al mismo tiempo, es como el número de
instrumentos de una orquesta, a mayor número, mejor es el sonido. De esta
manera, una tarjeta con un mayor número de voces nos va a proporcionar más
definición que las demás.
Las conexiones de entrada y salida son un punto importante al que debemos
prestar atención. Una tarjeta de sonido puede tener las siguientes conexiones: una
entrada de línea, entrada para micrófono, salida de línea, salida amplificada,
conector MIDI y conector para Joystick.
Las entradas de línea, salida y micrófono suele ser un minijack, un estándar de
conexión de sonido de calidad media, que es el comúnmente utilizado en los
dispositivos portátiles, como los reproductores de CD.
Otro tipo de conexión es el RCA. Mientras que en el minijack, los dos canales de
estéreo van juntos, en los RCA los canales van por separado, por lo que ofrecen
mayor calidad.
Las entradas y salidas MIDI nos permiten conectar instrumentos digitales, de
manera que son imprescindibles si disponemos de uno de estos aparatos. La
entrada nos permite pasar el sonido al ordenador, y la salida permite que una
melodía se reproduzca en el instrumento, a partir de una partitura que tenemos en
el ordenador.

El conector para Joystick no suele venir integrado en la placa, sino que viene
implementado en las tarjetas de sonido, aunque si nuestra tarjeta no lo trae
incorporado no debemos preocuparnos, ya que solo es importante si utilizamos
juegos porque proporcionan una mayor comodidad en el uso de este tipo de
software.

Una de las características importantes de una tarjeta de sonido es que disponga


del sistema full-duplex, que permite grabar y reproducir sonido al mismo tiempo.
Esto se hace imprescindible, por ejemplo, si utilizamos programas de
videoconferencia.

Las tarjetas estéreo mandan el sonido por dos canales, uno para cada altavoz.
Algunas de ellas recrean el efecto de sonido 3D, en los que el sonido parece que
nos rodea, con lo que la sensación de realidad es mucho mayor, aunque este tipo
de emulaciones con sólo dos canales no suele ser de mucha calidad.

Las tarjetas cuadrafónicas tienen 2 salidas estéreo, con dos canales cada una,
con lo que pueden dar señal a 4 altavoces. Estas tarjetas producen efectos de
sonido 3D como el Dolby Surround, THX, etc. Algunos equipos también contienen
un subwoofer, que contribuye a la recreación de realidad en el sonido. Este quinto
altavoz, suele ser más grande que los demás y reproduce los sonidos más graves,
aunque sólo tengamos 2 salidas desde la tarjeta de sonido.
El Dolby Digital 5.1 es un sistema más avanzado, y estándar que se utiliza en el
DVD. Utiliza 6 canales, por lo que son necesarios 6 altavoces. Cinco de los
canales son de alta frecuencia, y un canal para los efectos de baja frecuencia.

También existen tarjetas de 6.1 canales y algunas tienen hasta salida de 7.1
canales, con lo que el efecto de sonido es de 360 grados, y la calidad es mucho
mayor. Este tipo de tarjetas son las mejores si queremos disfrutar del cine en
casa, y son el complemento perfecto para el DVD.
COMPLEMENTOS

Lo primero que debemos elegir después de comprar la tarjeta de sonido son los
altavoces. Estos van a depender de la tarjeta que tengamos: si la tarjeta es
cuadrafónica, debemos comprar un equipo con 4 altavoces, y subwoofer opcional.
El sistema de altavoces debe ser compatible con los canales de salida de la
tarjeta, y tendremos que elegir entre diferentes modelos y potencias.
El micrófono es un complemento muy útil, y encontramos desde los más sencillos,
que suelen conectarse con el estándar minijack, hasta los de gama alta, de mayor
calidad y con conexión USB.
Unos auriculares con micrófono incorporado son el complemento perfecto si
realizamos llamadas telefónicas o videoconferencias con frecuencia.
Si nos dedicamos a la música, o somos aficionados a ella, podemos adquirir un
teclado MIDI, con el que podremos componer en formato digital.

TEATROS CASEROS Y MONITORES:


 
Un teatro casero es un sonoro y visual sistema de entretenimiento poner juntos a
disfrutar de películas, programas de televisión y música en la comodidad y
conveniencia en su propia casa. A home theater is made up of both audio
components and video components. Un cine en casa se compone de ambos
componentes de audio y vídeo de componentes.
 
Todo Home Theater dispone de los siguientes componentes:
 
Pantalla: Como medio para ver las películas, se utilizan televisores, y aunque los
convencionales no hacen un mal papel, se recomiendan los de pantalla plana y de
formato 16.9 (más achatado, estilo cine).
 
Reproductor: Es el aparato utilizado para leer las películas. Para un Home
Theater de calidad, no hay dudas que se debe utilizar un reproductor de DVD
(muy superior a las videocaseteras).
 
Decodificador Dolby 5.1 o DTS: El decodificador es un aparato que se conecta a
la salida digital del reproductor de DVD (o bien está integrado directamente en él)
y se encarga de procesar el sonido para desviarlo a seis canales independientes,
a fin de generar sonido envolvente.
 
Parlantes: Se pueden utilizar los que vienen incluidos en el televisor (careciendo
del decodificador), aunque lo mejor es un sistema con 5 parlantes.
 
Subwoofer: Es un parlante dedicado exclusivamente al refuerzo de sonidos
graves. Con un buen subwoofer se podrá hacer temblar el piso (ideal para
películas futuristas).

 
MONITORES. El monitor es la pantalla en la que se ve la información suministrada
por el ordenador. En el caso más habitual se trata de un aparato basado en un
tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los
portátiles y los monitores nuevos, es una pantalla plana de cristal líquido (LCD).La
información se representa mediante píxeles, a continuación explicamos lo que es
un píxel:
Es la unidad mínima representable en un monitor. Cada píxel en la pantalla se
enciende con un determinado color para formar la imagen. De esta forma, cuanto
más cantidad de píxeles puedan ser representados en una pantalla, mayor
resolución habrá. Es decir, cada uno de los puntos será más pequeño y habrá más
al mismo tiempo en la pantalla para conformar la imagen. Cada píxel se
representa en la memoria de video con un número. Dicho número es la
representación numérica de un color especifico, que puede ser de 8, 16 o más
bits. Cuanto más grande sea la cantidad de bits necesarios para representar un
píxel, más variedad de colores podrán unirse en la misma imagen. De esta
manera se puede determinar la cantidad de memoria de video necesaria para una
cierta definición y con una cierta cantidad de colores.

6. Elabore un contrato de mantenimiento preventivo y correctivo para una


mediana empresa especificando servicios que ofrece y derechos y
obligaciones de cada una de las partes

RTA:
CONTRATO DE MANTENIMIENTO PREVENTIVO PARA EQUIPOS,
IMPRESORAS Y
UPS SUSCRITO ENTRE EL HOSPITAL PSIQUIÁTRICO UNIVERSITARIO
– EMPRESA SOCIAL DEL ESTADO Y SOLUCIONES TECNICAS S.A.

CONTRATO No. : 0030

CONTRATANTE: CONTRATO DE MANTENIMIENTO PREVENTIVO PARA


EQUIPOS, IMPRESORAS Y UPS SUSCRITO ENTRE EL HOSPITAL
PSIQUIÁTRICO UNIVERSITARIO– EMPRESA SOCIAL DEL ESTADO

CONTRATISTA: SOLUCIONES TECNICAS S.A.

OBJETO: MANTENIMIENTO PREVENTIVO PARA EQUIPOS, IMPRESORAS Y


UPS.

VALOR: DIECISÉIS MILLONES OCHOCIENTOS VEINTE MIL


CUATROCIENTOS PESOS ($ 16.820.400,00) M/CTE (IVA Incluido).

Entre los suscritos GIOVANY GODOY GONZALEZ, mayor de edad identificado


con la Cedula de Ciudadanía numero 11.324.113 expedida en Girardot
(Cundinamarca), obrando en su calidad de Gerente y Representante Legal de
HOSPITAL DEPARTAMENTAL PSIQUIÁTRICO UNIVERSITARIO, EMPRESA
SOCIAL DEL ESTADO, quien para todos los efectos será la parte contratante,
quién se denominara EL CONTRATANTE y YUDU LORENA PEÑA, identificada
con la Cédula de Ciudadanía N°. 1.117.490.811 de Florencia-Caquetá. Actuando
en nombre y Representación de la firma SOLUCIONES TECNICAS S.A., entidad
con domicilio principal en el Municipio de Florencia, matriculada en el registro
mercantil bajo el número 542412-1 desde el 11 de Agosto de 2000, con NIT: No.
1117.490.811-0, firma que matriculó en la Cámara de Comercio bajo el número
526683-2 el establecimiento de comercio SOLUCIONES TECNICAS S.A, quien
para todo los efectos de este contrato será la parte CONTRATISTA, acuerdan
celebrar el presente contrato, previas las siguientes CONSIDERACIONES: a) Que
el CONTRATANTE requiere contratar el mantenimiento preventivo para los
equipos de computo e impresoras de la EMPRESA.

b) Que el CONTRATANTE mediante el proceso de Contratación Directa CD-004


de 2011, invitó a proponer para la contratación del citado suministro) Que para la
apertura de la convocatoria, el CONTRATANTE aplicó lo establecido en el
numeral 6 del articulo 195 de capitulo 3 de la ley 100 del 1993 que consagra, que
las EMPRESAS SOCIALES DEL ESTADO como el HOSPITAL
DEPARTAMENTAL PSIQUIÁTRICO UNIVERSITARIO DEL VALLE, se rigen en su
contratación por las normas de derecho privado y pueden hacer uso de las
cláusulas excepcionales del Estatuto de Contratación Estatal (Ley 80 de 1993). d)
Que igualmente tuvo en cuenta lo consagrado en el Régimen de Contratación del
HOSPITAL. e) Que a la Invitación Pública concurrieron las empresas COPY COM
y SOLUCIONES TECNICAS .S.A. f) Que el Comité de Evaluación en el informe
presentado, recomendó suscribir el presente contrato con la empresa
SOLUCIONES TECNICAS .S.A., teniendo en cuenta que resultaba ser la
propuesta más favorable para el HOSPITAL. g) Que teniendo en cuenta las
anteriores consideraciones, puede procederse a la suscripción y
perfeccionamiento de este contrato, el cual se regirá por las cláusulas que se
enuncian a continuación: PRIMERA: OBJETO: El objeto del presente Contrato
será de MANTENIMIENTO PREVENTIVO Y CORRECTIVO a los equipos,
impresoras y ups del CONTRATANTE y comprende: 1.1. DESCRIPCIÓN
MANTENIMIENTO PREVENTIVO Y CORRECTIVO: Como punto inicial se
realizará el levantamiento de inventario y la apertura de las hojas de vida para
cada uno de los equipo de acuerdo a los estándares de calidad establecidos en el
Formato de Hoja de Vida de Equipos de Computo e Impresoras, confrontándolo
con el inventario de los equipos del HOSPITAL. Este mantenimiento consta de dos
(02) visitas cada seis meses durante la cual se realizará el desensamble de todas
las partes que conforman los equipos, para realizar la limpieza y ajustes
necesarios (interno y externo) de los mismos, se mantendrá además en constante
chequeo el sistema de alimentación eléctrica. Todo este trabajo se realiza con
equipos y materiales de excelente calidad, para no afectar el funcionamiento
normal de estos. También se realizará un chequeo de los equipos tanto a nivel de
hardware como de software dando así los diagnósticos necesarios para prevenir
daños posteriores. La duración de esta labor es de 1 mes cada una, durante el
cual se dispondrán de 2 técnicos en una jornada de 8 horas diarias y de 1
profesional 8 horas a la semana. 1.1.1. PROCESO A SEGUIR EN EL
MANTENIMIENTO PREVENTIVO: 1.1.1.1. UNIDAD CENTRAL DE PROCESO:
Se destapa la CPU, se bajan los drivers para calibrar y limpiar las cabezas; se
retira la suciedad acumulada en las tarjetas, disco duro y en la fuente de poder, se
realiza el chequeo del sistema operativo y partes vitales del disco duro, memoria,
eliminación de temporales y/o basura de fragmentación del disco y actualización
del antivirus. 1.1.1.2. MONITOR: Limpieza general tanto interna como externa;
calibración de Vídeo (sí es necesaria). 1.1.1.3. TECLADO: Limpieza general tanto
interna como externa, revisión de teclas. 1.1.1.4. IMPRESORA: Se destapa la
Impresora, eliminación de suciedad y residuos de papel, limpieza de rodillos,
tractores y cabeza, lubricación de ejes por donde se desplaza la cabeza, test de
prueba. 1.1.2. PROCESO A SEGUIR EN EL MANTENIMIENTO CORRECTIVO:
Se llevarán a cabo visitas semanales (8 horas) de un técnico y (4 horas) de un
profesional para brindar apoyo con los problemas que puedan presentarse con el
hardware de los equipos. Cuándo se necesite la asistencia técnica en las horas
distintas, la respuesta a esta se realizará en un tiempo máximo de 4 horas. Estas
visitas comprenderán el diagnóstico y mano de obra. Dentro de las actividades a
realizar por los ingenieros y técnicos en este tipo de mantenimiento, se
encuentran: La configuración de cada uno de los equipos correspondiente al
software y drivers; asistencia en la parte de cableado estructurado, tanto en la
configuración como en la instalación de puntos de red. Además la inspección y
rastreo de los puntos de red; traslado e instalación de los equipos a las oficinas
que se solicite, el diagnóstico correspondiente al hardware como son: tarjetas de
vídeo, red y madre (board) entre otras se realizará en el laboratorio de electrónica
para encontrar las causas de su mal funcionamiento cuando este ocurra y dar así
un diagnóstico correcto, recuperación de la información que haya sido extraviada
por diferentes causas como son: presencia de virus, daños en el sistema
operativo, desconfiguración de la red ó mala administración de los archivos por
parte de los usuarios, etc; actualización del antivirus en todos los equipos cuando
se requiera; brindar asesoría al personal en el manejo de ciertas aplicaciones de
office y windows en general, además del manejo de la intranet; apoyo y
supervisión en la parte del cableado eléctrico; revisión y reparación de todo tipo de
impresoras y monitores. 1.2. El mantenimiento preventivo y correctivo se realizará
en los siguientes equipos del CONTRATANTE:

ITEM DETALLE DEL EQUIPO CANTIDAD


1 EQUIPO DESKTOP 66 UNIDADES
2 PORTÁTILES 2 UNIDADES
3 IMPRESORAS DE INYECCIÓN 9 UNIDADES
4 IMPRESORAS LÁSER 9 UNIDADES
5 IMPRESORAS MATRIZ DE PUNTO 16 UNIDADES
6 IMPRESORAS MULTIFUNCIONAL 4 UNIDADES
7 UPS 7.5 KVA 1 UNIDAD

1.3. GARANTÍA: 1.3.1. El CONTRATISTA garantiza el respaldo y asistencia con


un tiempo de respuesta máximo de 4 horas en cualquier momento, sin importar
que no se encuentre en el cronograma de actividades durante el año del contrato.
1.3.2. Cuando se necesite hacer reparaciones en el laboratorio del
CONTRATISTA, el traslado y la posterior entrega de los equipos corre por cuenta
de este. 1.4. LOGÍSTICA DEL SERVICIO: Realizar el inventario y la apertura de
las hojas de vida para cada uno de los equipos de acuerdo a los estándares de
calidad establecidos. 1.4.1. De acuerdo al inventario, se realizará con el
PROFESIONAL DE SISTEMAS del HOSPITAL la correspondiente programación
de los mantenimientos preventivos para no alterar el funcionamiento de los
puestos de trabajo. 1.4.2. Se inicia la jornada de mantenimiento preventivo y
correctivo correspondiente a un mes de trabajo, donde se atenderán todas las
necesidades relacionadas con los equipos de cómputo, impresión y ups del
HOSPITAL. 1.4.3. Desarrollo y entrega del informe respectivo a la jornada de
mantenimiento preventivo y correctivo. 1.4.4. En los siguientes meses se trabajará
en forma conjunta con el PROFESIONAL DE SISTEMAS del HOSPITAL, con el
objetivo de subsanar todas las necesidades de soporte presentes en esta área.
1.4.5. Se desarrollará y entregará por cada labor realizada el informe respectivo.
1.4.6. Cuando se requiera la asistencia técnica por parte del HOSPITAL
DEPARTAMENTAL PSIQUIÁTRICO UNIVERSITARIO fuera del horario
establecido en el cronograma, se sugiere realizar el siguiente procedimiento: a)
Realizar una llamada a la empresa (Sysnet). b) Explicar el problema presente y de
acuerdo a éste se programa el tipo de asistencia técnica (telefónica, on-line o en
sitio). c) De acuerdo a lo anterior se realiza el soporte técnico en un tiempo
máximo de 4 horas. 1.5. APOYO PRESENCIAL SEMANAL: El apoyo presencial
semanal se realizará de acuerdo con la siguiente tabla:
Horas Semanales Tipo de Profesional Asistente
4 Profesional
8 Técnico
1.6. CRONOGRAMA: La Prestación de los Servicios de Mantenimiento Preventivo
y Correctivo, lo realizará el CONTRATISTA de conformidad con el cronograma
indicado en la PROPUESTA DE MANTENIMIENTO PREVENTIVO de fecha 26 de
Marzo de 2011.
SEGUNDA: OBLIGACIONES DEL CONTRATISTA: Corresponden al
CONTRATISTA, para el debido cumplimiento del objeto contractual, las siguientes
obligaciones: 2.1. Realizar el Mantenimiento Preventivo de los equipos objeto de
esta contratación, conforme a la propuesta presentada y a las necesidades de
cada equipo. 2.2. Realizar el mantenimiento preventivo en las instalaciones del
CONTRATANTE ubicada en la Calle 5
N° 80-00 de la ciudad de Florencia-Caquetá, o donde el Gerente del HOSPITAL lo
indique. La salida de quipo(s) únicamente se llevará a cabo con la autorización
previa escrita de la del LÍDER DE PROGRAMA DE SERVICIOS
ADMINISTRATIVOS. 2.3. Programar el mantenimiento de según el cronograma
de actividades acordado entre las partes contratantes. 2.4. Cubrir sin costo alguno
para el CONTRATANTE, los eventos esporádicos o fallas que ocurran dentro de
las actividades indicadas en los numerales 1.1.y 1.2. de la cláusula primera, los
cuales serán cubiertos por el CONTRATISTA, sin costo adicional para el
CONTRATANTE. 2.5. Realizar el cambio de aquellos elementos que a su juicio
considere necesario cambiar como consecuencia de la operación normal de los
equipos, limitándose el cambio solo a aquellas que se consideran técnicamente
como propias de un mantenimiento preventivo. 2.6. Presentación al HOSPITAL de
un informe por cada visita de mantenimiento realizada, con las debidas
recomendaciones. 2.7. Garantía de la correcta ejecución del trabajo de
mantenimiento a fin de obtener un mejor rendimiento y por consiguiente cualquier
reparación o ajuste debe ser efectuado únicamente por representantes
autorizados de la firma CONTRATISTA. 2.8. Prestar los servicios estipulados en el
presente contrato, efectuando las revisiones necesarias durante la vigencia del
contrato, en días y horas hábiles es decir de lunes a viernes de
7:30 a.m. a 12 m. y de 1:00 p.m. a 5 p.m. No obstante en cualquier momento en
que se presente una falla, el CONTRATISTA enviará personal especializado para
realizar los correctivos necesarios dentro del horario del CONTRATISTA, esto es
de lunes a viernes de 8:00 a.m. a 12m. y de 2:00 p.m. a 6:00 p.m. y sábados de
8:00 a.m. a 12:00 m. 2.9. EL CONTRATISTA brindará el servicio para llamadas de
emergencia para dar solución técnica por daño del equipo objeto de
mantenimiento, sin costo adicional para el
CONTRATANTE, obligándose a prestarlo en el término de cuatro (4) horas,
contadas desde momento de la notificación de toda emergencia o daño que se
presente en los equipos. 2.10. Atender las visitas que sean necesarias,
independientemente del cronograma de mantenimiento preventivo, a fin de que el
equipo vuelva a prestar su servicio y funcionamiento normal. 2.11. Entregar
reporte de cada visita indicando las reparaciones, correcciones o revisiones
hechas, al igual que las recomendaciones que sean necesarias para un adecuado
funcionamiento de los equipos. 2.12. Garantizar la debida afiliación al sistema de
seguridad social en salud al personal directo e indirecto que comprometa para la
prestación del servicio, para lo cual adjuntará los respectivos documentos que así
lo certifiquen. PARÁGRAFO: La Prestación de los Servicios de Mantenimiento
Preventivo lo realizará el CONTRATISTA, de conformidad con lo establecido en la
PROPUESTA DE MANTENIMIENTO PREVENTIVO de 26 de Marzo de 2011.,
documento que hace parte integral del presente contrato. En todo caso el
CONTRATISTA deberá cumplir con el objetivo perseguido por EL HOSPITAL,
como es que garantice el continuo y perfecto funcionamiento de los equipos objeto
de contratación. TERCERA: VALOR Y FORMA DE PAGO: Para todos los efectos
legales el presente contrato tiene un valor total de DIECISÉIS MILLONES
OCHOCIENTOS VEINTE MIL CUATROCIENTOS PESOS M/CTE ($ 16
´820.400.00) que pagará al CONTRATISTA en cuatro (04) cuotas fijas mensuales
por valor de CUATRO MILLONES DOSCIENTOS
CINCO MIL CIEN PESOS M/CTE ($ 4´205.100.00), pagaderos previa
presentación del documento que acredita el INTERVENTOR del presente contrato
de haber recibido el servicio a entera satisfacción. CUARTA: OBLIGACIONES
DEL HOSPITAL. 4.1. Colocar a disposición del Contratista los equipos de
cómputo e impresoras para la realización del
Mantenimiento Preventivo (Incluido mano de obra de corrección) Calibración y
Verificación de los Equipos de cómputo e impresoras. 4.2. Pagar el valor de este
contrato de conformidad con lo pactado en el mismo. QUINTA. TÉRMINO: Para
efectos del cumplimiento del contrato el término será de un (01) año contado a
partir del perfeccionamiento de este instrumento. PARÁGRAFO: Se entiende que
la ejecución del presente contrato no podrá iniciarse hasta tanto no se haya
aprobado la garantía única y se constituya la disponibilidad presupuestal. SEXTA.
INTERVENTORÍA: Durante la vigencia de este contrato, EL PROFESIONAL DE
SISTEMAS, o quien designe la GERENCIA del HOSPITAL, supervisará la
ejecución del presente contrato y expedirá mínimo dos (02) certificaciones sobre la
calidad, continuidad, suficiencia y el cumplimiento del mismo. Los resultados de
las evaluaciones, serán tenidos en cuenta para estudiar la celebración de un
nuevo contrato, la imposición de sanciones u otras determinaciones en materia
contractual. SÉPTIMA. GARANTÍAS: Para garantizar el cumplimiento del
presente contrato, el CONTRATISTA se compromete a constituir a su costa y a
favor del HOSPITAL, una póliza de garantía que ampare los siguientes riesgos:
7.1. DE CUMPLIMIENTO: Por un valor igual al diez por ciento (10%) del valor del
contrato, con una vigencia igual a la del contrato y tres (03) meses más. 7.2.
CALIDAD DEL SERVICIO PRESTADO Y BUEN FUNCIONAMIENTO DE LOS
EQUIPOS: Por un valor igual al veinte por ciento (20%) del valor total del contrato
y con una vigencia igual a la del contrato y un (1) año más. 7.3. DE
RESPONSABILIDAD CIVIL EXTRACONTRACTUAL: Por un valor igual al veinte
por ciento (20%) del valor del contrato y estar vigente durante el término de este y
seis (06) meses más. 7.4. DE PAGO DE SALARIOS Y PRESTACIONES
SOCIALES E INDEMNIZACIONES: Por un valor igual al veinte (20%) del valor
total del contrato y extenderse por el término de este y tres (03) años más.
PARÁGRAFO: La garantía única hace parte integral del contrato y deberá ser
aprobada por EL HOSPITAL quien se reserva el derecho de prorrogar y/o ampliar
los riesgos amparados en la presente cláusula, por su cuenta, pero con cargo y a
nombre del CONTRATISTA, descontando de los saldos a favor de este el valor de
las primas si este no lo hiciere oportunamente, o cuando fuere necesario prorrogar
el contrato por cualquier causa. Estas pólizas se harán efectivas a favor del
HOSPITAL en caso de que EL CONTRATISTA incumpla alguna o algunas de las
obligaciones que adquiera por razón del contrato. Las pólizas serán irrevocables y
deberán prorrogarse automáticamente en caso de prórroga del contrato y en todo
caso, estar vigentes hasta la prolongación de sus efectos. OCTAVA. MULTAS O
SANCIONES: El incumplimiento parcial del contrato generará para el
CONTRATISTA, multas o sanciones iguales al uno por ciento (1%) del valor total
del contrato por cada día de retardo. NOVENA. CLÁUSULA PENAL: Las partes
acuerdan como cláusula penal una sanción equivalente al veinte (20%) del valor
total del contrato, la cual se impondrá al CONTRATISTA mediante Resolución
motivada, en caso de incumplimiento total de las obligaciones contractuales.
PARÁGRAFO PRIMERO: La imposición de la sanción pecuniaria es
independiente de cualquier otra que pueda derivarse por el incumplimiento del
CONTRATISTA de sus obligaciones contractuales. DÉCIMA. INEXISTENCIA DE
RELACIÓN LABORAL: Las partes dejan expresa constancia que el presente
acuerdo no constituye contrato de trabajo entre ellas, ni entre el hospital y los
dependientes del CONTRATISTA designados para prestar los servicios objeto de
este contrato. Por lo tanto, los costos y riesgos de la contratación de empleados
serán asumidos por EL CONTRATISTA bajo su directa y exclusiva
responsabilidad, quien garantiza la idoneidad del personal comprometido en la
ejecución de este contrato, al igual que la total y exclusiva dependencia del
mismo. DÉCIMA PRIMERA. PRINCIPIO DE COMPENSACIÓN: En virtud del
principio de compensación y para el efecto de poder hacer efectiva la cláusula de
multas o sanciones y/o cláusula penal pecuniaria establecida en el presente
contrato se procederá bien sea descontando del valor que el HOSPITAL adeude
al CONTRATISTA por concepto de Prestación de Servicios derivados de la
ejecución del presente contrato o pudiendo hacer efectiva las pólizas que para
efectos de cumplimiento EL CONTRATISTA se obliga a constituir a su costa y a
favor del HOSPITAL. DÉCIMA SEGUNDA. INHABILIDADES E
INCOMPATIBILIDADES: EL CONTRATISTA manifiesta que no se encuentra
incurso en ninguna de las inhabilidades o incompatibilidades para contratar
señaladas en la Ley, que impidan celebrar y ejecutar este contrato. DÉCIMA
TERCERA. CADUCIDAD ADMINISTRATIVA: EL HOSPITAL podrá declarar la
caducidad administrativa del presente contrato por cualquiera de las causales
contempladas en la Ley 80 de 1993 o similares y que regulen esta materia.
DÉCIMA CUARTA. MODIFICACIONES CONTRACTUALES: Las modificaciones
de este contrato se realizarán cuando se presenten circunstancias especiales
debidamente comprobadas que las justifiquen.
DÉCIMA QUINTA. NORMAS APLICABLES Y CONOCIMIENTO DE ESTAS: Se
entienden incorporadas y el CONTRATISTA expresa su conocimiento de todas las
normas pertinentes de la Ley 80 de 1993 y de sus Decretos reglamentarios,
especialmente lo relacionado con este tipo de contratación, su clasificación,
efectos, responsabilidad, inhabilidades, incompatibilidades, cláusulas
excepcionales, a las cuales se somete integralmente. DÉCIMA SEXTA.
SUSPENSIÓN DEL CONTRATO: Cuando se presenten circunstancias de fuerza
mayor o caso fortuito debidamente demostrados que impidan la continuación del
contrato, las partes suspenderán su ejecución mediante la suscripción de un acta
que exprese las causas de la decisión; el estado del contrato en cuanto a su
desarrollo se refiere y el término de la suspensión, igualmente se adoptaran las
medidas de conservación que sean pertinentes y, si es el caso, se convendrán los
costos de suspensión y su forma de pago. Vencido el término de suspensión las
partes suscribirán un acta de reanudación del contrato. DÉCIMA SÉPTIMA.
ARBITRAMIENTO:
Las diferencias por razón de la celebración de este contrato y de su ejecución,
desarrollo, terminación o liquidación, que no puedan resolverse directamente entre
las partes o a través de cualquiera de los mecanismos extrajudiciales previsto den
la Ley, se someterán a la decisión de un árbitro. El arbitramiento será en derecho.
El árbitro será escogido de común acuerdo por las partes o en su defecto por la
Cámara de Comercio del domicilio contractual. Igualmente podrán acudir a la
Amigable Composición. DÉCIMA OCTAVA. CESIÓN: EL CONTRATISTA no
podrá ceder bajo ningún título el presente contrato a persona alguna, salvo
autorización previa, expresa y escrita del HOSPITAL. DÉCIMA
NOVENA. LIQUIDACIÓN DEL CONTRATO: La liquidación del contrato procederá
en los siguientes casos: 19.1. Cuando venza el plazo contractual o termine la
ejecución del objeto del contrato. 19.2. Cuando el término de suspensión supere
los dos (02) meses, sin que se haya renovado el contrato. 19.3. Cuando haya
operado la condición resolutoria expresa. 19.4. Cuando de común acuerdo lo
decidan las partes. 19.5. En los demás casos en los que no sea posible continuar
con la ejecución del contrato. Para efectos de la liquidación se tendrán en cuenta
previsiones de los Artículos 60 y 61 de la Ley 80 de
1993. VIGÉSIMA. IMPUESTOS Y GASTOS: EL CONTRATISTA se obliga a
pagar todos
los gastos, seguros, impuestos (incluido el de timbre si fuere el caso), derechos,
publicaciones y comisiones relacionados con el presente contrato. PARÁGRAFO:
EL
CONTRATISTA se obliga a cancelar los valores correspondientes al acarreo de
los equipos con los cuales brindará el suministro del servicio contratado, así como
el seguro
de riesgo que pueda ocurrir por este hecho. VIGÉSIMA PRIMERA:
TERMINACIÓN: Este
Contrato terminara entre otras, por las siguientes causas: 21.1. Mutuo acuerdo
entre las partes. 21.2. Vencimiento del término. 21.3. Por incumplimiento del
CONTRATISTA en la presentación del Servicio definido en este contrato.
VIGÉSIMA SEGUNDA.
DISPONIBILIDAD PRESUPUESTAL: EL HOSPITAL pagara al CONTRATISTA el
valor del presente contrato, con cargo a la apropiación presupuestal de
Mantenimiento Hosp. Serv. Ad. con código de aprobación No. 20102001, de la
Vigencia Fiscal 2.006, según certificado de Disponibilidad No. 0478. VIGÉSIMA
TERCERA. ANEXOS: Forman parte integral del presente contrato los siguientes
documentos: 23.1. Pólizas de Garantía. 23.2.
Propuesta. 23.3. Las demás que consideren las partes. VIGÉSIMA CUARTA.
PERFECCIONAMIENTO, PUBLICACIÓN Y EJECUCIÓN: Este contrato se
perfecciona una vez sea suscrito por las partes, el CONTRATISTA lo publique y
constituya las garantías. Para su publicación, el CONTRATANTE entregará copia
del contrato al
CONTRATISTA, para que realice la respectiva publicación del presente contrato
en la
Gaceta Departamental de esta ciudad de Santiago de Cali, requisito que se
entiende surtido con la presentación del recibo de pago de los derechos
correspondientes y, así mismo, adjunte las correspondientes pólizas de garantía,
relacionadas en la cláusula séptima del presente contrato, las cuales deberán ser
aprobadas por el CONTRATANTE.
Para la ejecución se requerirá de la aprobación de la garantía y de la existencia de
las disponibilidades presupuéstales correspondientes. VIGÉSIMA QUINTA.
DOMICILIO
CONTRACTUAL: Para todo efecto legal, las partes acogen como domicilio
contractual la
Ciudad de Santiago de Cali (Departamento del Valle del Cauca). Para constancia
de lo anterior, ser firma en Cali, el 18 de Abril de 2011.

EL CONTRATANTE:
HOSPITAL DEPARTAMENTAL
PSIQUIÁTRICO UNIVERSITARIO
EMPRESA SOCIAL DEL ESTADO
HAROLD ALBERTO SUÁREZ CALLE
Gerente

EL CONTRATISTA:
YUDY LORENA PEÑA G
C.C. N° .111.7490.811 de Florencia-Caquetá.
Gerente

7. Elabore un formato de historia clínica del computador el cual debe reunir


la mayor información disponible de tal manera que se pueda identificar las
fallas que ha presentado y su diagnóstico de reparación.

RTA:

HISTORIA CLINICA DEL COMPUTADOR

Registro de Mantenimiento
Fecha: ___ /____ / _______ Hora

Locación: Sede:

Nombre del técnico:

Nombre del usuario:

Identificación del equipo

Procesador:

Sistema operativo:

Memoria:

Disco duro:

Unidad de CD – DVD:

Floppy:

Tarjeta de red:

Modem:

Tarjeta de video:

Fuente:

Reporte Usuario: ___________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________
_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

Diagnostico Técnico: _______________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

_________________________________________________________________

__________________________________________________________________
__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

Reparación:_______________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

__________________________________________________________________

También podría gustarte