Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fecha: 2009
Actualización 2011
Debido a los cambios en el temario de la oposición al Cuerpo Superior de
Sistemas y Tecnologías de la Información en el año 2013 publicados en
la orden HAP/1952/2013, en este tema se han juntado los temas 46 y 47
de anteriores convocatorias.
Tema 46:
Equipos departamentales y estaciones gráficas de
trabajo.……………………………………………………….Página 1 a 12
Sumario
46.01. Introducción
46.02. Tipos de ordenadores -Definición de conceptos
46.03. Equipos departamentales (Miniordenador)
46.03.01 Características
46.03.02 Funcionalidad
46.03.03 Tendencias
46.03.04 Soluciones comerciales
46.04. Estaciones de trabajo (Workstations)
46.04.01 Características
46.04.02 Funcionalidad
46.04.03 Tendencias
46.04.04 Soluciones comerciales
46.05. de microprocesadores
46.05.01 CISC (Complex Instruction Set Computer)
46.05.02 RISC (Reduced Instruction Set Computer)
Bibliografía
046.01. Introducción
A lo largo del presente tema se establece una visión actualizada, a fecha diciembre de 2008,
sobre la situación del mercado de ordenadores departamentales y estaciones de trabajo.
Asimismo se da una reseña del funcionamiento de las arquitecturas de procesadores más
relevantes.
Hay un grupo intermedio, los ordenadores híbridos, en los que un ordenador digital es
utilizado para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos
anexos.
046.03.01. Características
Hasta finales de la década de 1960, todos los ordenadores eran ordenadores centrales y
eran excesivamente caros, en consecuencia sólo las grandes empresas podían permitirse
adquirir estas máquinas. Sobre esa época, aparecieron los miniordenadores (o simplemente
minis), más pequeños, ligeros y asequibles para pequeñas compañías.
Además de las diferencias obvias en velocidad de proceso de datos, la mayor diferencia entre
miniordenadores y ordenadores centrales es el número de estaciones de trabajo remotas a las
que pueden dar servicio. En general, cualquier ordenador que da servicio a más de 100
estaciones de trabajo remotas no debe ser llamado miniordenador. Los ordenadores centrales
más rápidos y potentes dan servicio a unas
10.000 estaciones de trabajo remotas.
046.03.02. Funcionalidad
046.03.03. Tendencias
Aprovechando las cada vez más potentes prestaciones de las plataformas pequeñas y
medias, se propone la migración de las tradicionales aplicaciones de mainframe a dichas
plataformas (downsizing), utilizando como plataforma lógica los sistemas abiertos.
(http://www.dell.es/content/products/category.aspx/servers?
c=es&cs=RC1077969&l=es&s=pub)
046.04.01. Características
Una estación de trabajo está optimizada para desplegar y manipular datos complejos como
el diseño mecánico en 3D, la simulación de ingeniería, los diagramas matemáticos, etc.
Las estaciones de trabajo fueron un tipo popular de ordenadores para ingeniería, ciencia y
gráficos durante las décadas de 1980 y 1990. Últimamente se las asocia con CPUs RISC,
pero inicialmente estaban basadas casi exclusivamente en la serie de procesadores Motorola
68000. Pueden disponer de más de una CPU.
046.04.02. Funcionalidad
Aplicaciones técnicas
• CAD (Computer Aided Design, Diseño Asistido por Ordenador), destinadas al diseño
y análisis de sistemas de ingeniería y arquitectura.
• AEC (Architecture, Engineering and Construction, Sistemas para la arquitectura /
ingeniería / construcción) aplicables a la edición de planos de construcción y
arquitectura, elaboración de presupuestos y seguimiento de obras.
• CAM (Computer Aided Manufacturing, Fabricación Asistida por Ordenador),
aplicables en la ingeniería de producción, control de procesos y gestión de recursos.
• EDA (Electronic Design Automation, Diseño Electrónico Automatizado), aplicables
en el diseño, análisis y prueba de circuitos integrados, tarjetas y otros sistemas
electrónicos.
• CASE (Computer Aided Software Engineering, Ingeniería de Software Asistida por
Ordenador), que ayudan a la gestión completa de los ciclos de vida de los desarrollos de
aplicaciones lógicas.
Aplicaciones científicas
• GIS (Geographic Information System, Sistemas de Información Geográfica) para
edición, captura y análisis de información sobre determinadas zonas geográficas, con
base en referencias de mapas digitalizados.
• Aplicaciones orientadas a la industria química y farmacéutica, aplicaciones de
laboratorio tales como instrumentación analítica, modelado de experimentos químicos y
sistemas de información de laboratorios químicos.
Aplicaciones comerciales
Existe un gran número de aplicaciones en las que las estaciones de trabajo pueden
aprovechar su mayor potencialidad, entre las que merece la pena destacar las herramientas
CASE, sistemas de información geográfica, desarrollos de ingeniería asistidos por ordenador
y Sistemas de Gestión Documental.
046.04.03. Tendencias
Hoy en día la mayoría de las estaciones de trabajo se basan en tecnologías RISC, aunque
todavía se encuentran instaladas numerosas estaciones de trabajo basadas en tecnología
CISC y existen algunos fabricantes que todavía ofrecen productos basados en esta última
arquitectura. No obstante, el futuro parece dirigirse hacia arquitecturas RISC. Esta
tecnología es la que en este momento ofrece mejores relaciones rendimiento/precio, planes
de diseño más cortos, mayor grado de fiabilidad y mayor potencia de proceso con menores
costes.
• Empleo de la tecnología ULSI (Ultra Large Scale Integration) lo que disminuye los
costes asociados a los circuitos electrónicos.
Las estaciones de trabajo también podrían introducirse en el mercado de los PCs conforme
vayan ganando la batalla de los costes, ofreciendo facilidades de red que permiten compartir
discos, impresoras, etc.
Una importante característica que predice el éxito de las estaciones de trabajo es su diseño
conforme a los estándares lo que asegura, por un lado, el aprovechamiento de las
inversiones realizadas por los usuarios, y por otro, la interoperabilidad con productos de
otros fabricantes.
CISC es una arquitectura que persigue la programación fácil y al mismo tiempo un uso
eficiente de memoria. Las principales características de esta arquitectura son:
Actualmente los ordenadores CISC más conocidos son la familia 8086 de lntel (que se
extiende hasta el Pentium actual, aunque este último empiece a presentar características
RISC). Históricamente ha habido otros como: IBM 3090, NSC 32016, familia MC68000 de
Motorola, VAX.
Todos los estudios realizados para analizar el comportamiento de los programas han
señalado que el 80 por 100 de las operaciones que se realizan en un programa descrito con
un lenguaje de alto nivel utilizan, sólo, un 20 por 100 de las operaciones disponibles en el
repertorio de instrucciones, con lo cual si se reduce dicho repertorio se mantiene la potencia
del ordenador y disminuye la complejidad del diseño y el coste.
• Las instrucciones que más importancia tienen son las de asignación y las sentencias
condicionales.
• Sin embargo, no sólo no hay que encontrar las sentencias más utilizadas, sino
aquellas operaciones descritas en lenguajes de alto nivel que provocan la ejecución de más
instrucciones en lenguaje máquina y, como consecuencia, sean más lentas.
Sumario
046b.1. Introducción
046b.2. Componentes de un PC
046b.2.1. Subsistema Físico
046b.2.1.1. Placa base.
046b.2.1.2. Microprocesador
046b.2.1.2.1. Historia
046b.2.1.2.2. Avances
046b.2.1.2.3. Funcionamiento
046b.2.1.3. Memoria
046b.2.1.4. Buses
046b.2.2. Subsistema de Entrada/Salida
046b.2.2.1. Periféricos de almacenamiento
046b.2.2.1.1. Disco Duro
046b.2.2.1.2. CD, DVD, Blu-ray
046b.2.2.1.3. Memoria Flash
046b.2.2.1.4. Cinta magnética
046b.2.2.2. Periféricos de entrada
046b.2.2.2.1. Teclado
046b.2.2.2.2. Ratón
046b.2.2.2.3. Escáner
046b.2.2.2.4. Pantalla táctil
046b.2.2.3. Periféricos de salida
046b.2.2.3.1. Impresora
046b.2.2.3.2. Monitor
046b.2.2.4. Periféricos de comunicaciones
046b.2.2.4.1. Módem
046b.2.2.4.2. Tarjeta de red
046b.3. PDA
046b.4. Tablet PC
Bibliografía
“Fundamentos de los Computadores”. Pedro de Miguel Anasagasti. Ed: Paraninfo 1990
“Structured Computer Organization”. Tanenbaun. Ed: Prentice-Hall 1998.
"The Indispensable PC Hardware Book", 4th Ed., H.P. Messmer Addison-Wesley, 2002
Fabricantes de procesadores:
Intel: http://www.intel.com/
AMD: http://www.amd.com/es-es/
Información general de novedades en equipos: http://www.idg.es/
Novedades de PDA: http://www.canalpda.com/
Novedades de PocketPC: http://www.todopocketpc.com/
Novedades de Tablet PC: http://www.tabletpcreview.com/
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 13
II: TECNOLOGÍA BÁSICA
046b.1. Introducción
Una computadora (u ordenador) personal (PC, Personal Computer) es un conjunto de hardware (componentes y
dispositivos físicos) y software (programas lógicos que controlan el funcionamiento) utilizado para el tratamiento
automatizado de la información (concepto directamente ligado con el de Informática). En la combinación de tareas de
este tratamiento intervienen, dos procesos importantes, que caracterizan a todo sistema informático: el funcionamiento
de la computadora y las técnicas de procesamiento de los datos (almacenamiento, proceso y control).
Por otra parte, un Sistema Informático es el conjunto formado por una o varias computadoras y sus periféricos
(componentes físicos o hardware), que ejecutan aplicaciones informáticas (componente lógico o software) y que son
controlados por personal especializado (componente humano). Con más detalle se puede decir que:
Componente Físico: constituye el hardware del sistema informático y se encuentra distribuido en el ordenador, los
periféricos y el subsistema de comunicaciones. Los elementos físicos proporcionan la capacidad de proceso y la
potencia de cálculo del Sistema Informático, así como la interface con el mundo exterior.
Componente Lógico: hace referencia a todo aquello que no es material y que, en términos vulgares, se ha
considerado programación. El software se encuentra distribuido en el ordenador, los periféricos y el subsistema de
comunicaciones.
Componente humano: constituido por las personas que participan en la dirección, diseño, desarrollo implantación
y explotación de un Sistema Informático.
La arquitectura de un Sistema Informático define el conjunto de reglas, normas y procedimientos que especifican las
interrelaciones que deben existir entre los componentes del Sistema Informático y las características que deben cumplir
cada uno de estos componentes.
El Sistema Informático ha evolucionado desde una primera situación, en la que todos los componentes del sistema
(físicos, lógicos y humanos) se encontraban centralizados en una sala de ordenadores, a la situación actual en la que los
distintos componentes se encuentran ampliamente distribuidos en diferentes lugares físicos. Este camino hacia la
implantación progresiva de sistemas distribuidos ha pasado por diferentes etapas y no se puede dar por finalizado,
debido a su continua evolución. Hasta este momento actual, se pueden mencionar las siguientes etapas:
1. Etapa 1: los recursos están totalmente centralizados. Coincide con los inicios de los procesos de informatización
en las organizaciones.
2. Etapa 2: se inicia con la distribución de los componentes físicos y en algunos casos humanos del sistema. Esta
etapa se caracteriza por la introducción de los terminales no inteligentes asociados a las primeras redes de tele-
proceso. Toda la capacidad de proceso y almacenamiento se encuentra centralizada, sin embargo, la entrada y
salida de datos se ha distribuido físicamente. Los inconvenientes de este tipo de sistemas eran los costes de las
comunicaciones, la gran complejidad de los sistemas centralizados que soportaban las redes de teleproceso y la
gran cantidad de recursos que consumían en su gestión interna.
3. Etapa 3: se distribuyen además los elementos lógicos, introduciendo cierta inteligencia en los terminales. En
realidad, ésta es una fase de transición porque el abaratamiento de costes de los equipos y el desarrollo tecno-
lógico permitieron pasar rápidamente a la informática distribuida de hoy día. No obstante, este tipo de organiza-
ción en el que existen terminales con cierta capacidad de proceso conectados a un equipo central, se sigue
manteniendo en muchas Organizaciones, ya que es netamente preferible al modelo anterior, sobre todo por el
menor coste de las comunicaciones.
4. Etapa 4: se introduce el modelo Web, en el cual se pretende que a través de un explorador de Internet y desde
cualquier punto que sea visible y utilizable una aplicación Web. NO ENTIENDO
Por otra parte, la clasificación de los Sistemas Informáticos ha sufrido continuas variaciones debido a su rápida evolución
en virtud de la potencia de cálculo. Así, durante los años 70, la clasificación más extendida era:
Microordenador o controlador: dispositivos de propósito muy específico con una misión muy definida.
Miniordenador: originalmente este tipo de máquinas fue desarrollado para manejar tareas específicas, como las de
Ingeniería y cálculos en CAD (Diseño Asistido por Computadora). Con el incremento de potencia del ordenador
personal (PC) se han vuelto menos importantes.
Mainframe: son equipos dedicados principalmente a la gestión, por lo que admiten gran cantidad de trabajos
simultáneos, como por ejemplo controlar una red de terminales en las distintas sucursales de una empresa, o una
red de cajeros automáticos de un Banco.
Superordenador: pueden ser utilizados simultáneamente por muchos usuarios, en cálculos científicos o de
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 14
II: TECNOLOGÍA BÁSICA
simulación. Estas máquinas son utilizadas para trabajos que requieren grandes cantidades de cálculos, como el
pronóstico del tiempo, diseños y pruebas de ingeniería, descifrado serio, pronósticos en la economía, etc. Su
coste, por lo general es de millones de euros y su velocidad de proceso es muy elevada.
En cambio, la clasificación más extendida hoy en día también en función de su potencia de cálculo, es:
Ordenador doméstico o controlador: este tipo de dispositivos están diseñados para controlar el funcionamiento de
determinados mecanismos. Se pueden encontrar en los ascensores, en sistemas de riego, control de alumbrado y
en muchos de los electrodomésticos que se utilizan habitualmente en las casas.
Ordenador personal (PC): equipos ampliamente difundidos, de precio muy reducido y de prestaciones suficientes
no sólo para el nivel personal, sino para pequeñas empresas. Actualmente se conectan entre sí, formando grandes
redes lo cual los hace adecuados para entornos más exigentes, sustituyendo en muchos casos a los
miniordenadores. Dentro de esta categoría se incluyen ordenador portátil (laptop, con peso de 3 a 4 kg; notebook
con peso de 1,5 a 2 kg), PDA’s (Personal Digital Assistant), Tablet PC, Pocket PC, teléfonos inteligentes
(smartphones), etc.
Estación de trabajo: equipos monousuario, dotados de grandes capacidades de cálculo y con posibilidades gráficas
muy elevadas. Se utilizan principalmente en la investigación científica y en aplicaciones técnicas, como por
ejemplo la simulación. Su precio está bajando y actualmente son competitivas con los microordenadores de gama
alta. Estos equipos no sirven para aplicaciones de gestión.
Mainframe
Superordenador
046b.2. Componentes de un PC
Un PC esta formado por los siguientes componentes (sistemas) físicos y lógicos:
1. El sistema Físico consta de los siguientes subsistemas:
a) El subsistema Central: está constituido por la unidad de control, la unidad aritmética lógica, la memoria prin-
cipal, y los buses. Al conjunto formado por la unidad aritmética lógica y la unidad de control se le denomina
Unidad Central de Proceso (UCP).
i. Unidad de Control: dirige todas las actividades del ordenador, generándose señales de control para el
resto de las unidades según el código de operación de la instrucción. La ejecución de la instrucción
supone realizar una serie de operaciones elementales a través de la activación de distintas señales de
control.
ii. Unidad Aritmética Lógica: ejecuta las operaciones aritméticas lógicas que le señala la instrucción resi-
dente en la unidad de control.
iii. Memoria Principal: almacena las instrucciones de los programas, los datos que ha de procesar y los
resultados que obtiene al ejecutar los programas. Esta constituida por celdas o elementos capaces de
almacenar 1 bit de información (elemento de memoria que tiene el estado 0 o el estado 1). La
memoria se organiza en conjuntos de elementos de un tamaño determinado y, a cada palabra, le
corresponde una dirección única.
iv. Buses (1): son los canales de comunicación entre los distintos elementos del subsistema Central. Un
bus es un conjunto de líneas conductoras que permiten transmitir direcciones, datos y señales de
control entre los componentes de un sistema informático. Los buses pueden ser internos (como los
que posee la CPU para interconectar sus componentes internos) o externos (como los que
interconectan los periféricos o la memoria con el microprocesador). Más específicamente se pueden
mencionar los siguientes tipos de buses:
I. De datos: son las líneas de comunicación por donde circulan los datos externos e internos
del microprocesador.
II. De dirección: línea de comunicación por donde viaja la información específica sobre la
localización de la dirección de memoria del dato o dispositivo al que se hace referencia.
III. De control: línea de comunicación por donde se controla el intercambio de información con
un módulo de la unidad central y los periféricos.
(1)
Para una consulta detallada, ver el apartado 046b.2.1.4. Buses
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 15
II: TECNOLOGÍA BÁSICA
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 16
II: TECNOLOGÍA BÁSICA
Arquitectura “Fault Tolerant”: es la arquitectura en la que existe suficiente redundancia y, por tanto, permite
asegurar un funcionamiento correcto del Sistema, aún en caso de fallo de algunos de sus elementos.
ii. Zócalos para la memoria; sirven para la inserción de módulos de memoria y siempre son de tipo SLOT.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 17
II: TECNOLOGÍA BÁSICA
Los zócalos de la memoria pueden ser de tipo DIMM (Dual Inline Memory Module) que son reconocibles
externamente por poseer sus contactos (o pines) separados en ambos lados. Los hay para módulos de
168, 184 y 240 contactos. Antecedentes de los DIMM están los módulos SIMM (Single Inline Memory
Module), que poseen los contactos de modo que los de un lado están unidos con los del otro.
Un DIMM puede comunicarse con el PC a 64 bits (y algunos a 72 bits) en vez de los 32 bits de los
SIMM. En DIMM se insertan módulos de memoria a ambas caras del módulo, en cambio en SIMM sólo
se hace por una cara.
Hay casos en los que no sirve ninguno de los módulos anteriores, entonces se usa SO-DIMM (Small
Outline Dual Inline Memory Module) que consisten en una versión compacta de los módulos DIMM
convencionales. Se usan para dispositivos Tablet PC, impresoras, portátiles, algunas PDAs, etc.
Los módulos SO-DIMM tienen 100, 144 o 200 pines. Los de 100 pines soportan transferencias de datos
de 32 bits, mientras que los de 144 y 200 lo hacen a 64 bits. Estas últimas se comparan con los DIMMs
de 168 contactos (que también realizan transferencias de 64 bits). A simple vista, se diferencian porque
las de 100 tienen 2 hendiduras guía, las de 144 una sola hendidura casi en el centro y las de 200 una
hendidura parecida a la de 144 pero más desplazada hacia un extremo
b) Voltajes: los valores de tensión están entre 3 y 12 Voltios.
c) Batería: es una pequeña pila que viene incorporada en todas las placas base y su función básica es mantener la
alimentación eléctrica del reloj de tiempo real (RTC), así como diversos parámetros (sobre el disco duro y de
configuración de usuario), que son utilizados por la BIOS en el arranque del computador.
d) Frecuencia (velocidad): es la que maneja el elemento de conexión único que existe en la placa base y el FSB
(Front Side Bus). Este bus representa el camino por el cual es posible integrar en la placa base los distintos
componentes hardware para el intercambio de información entre microprocesador, memoria y el subsistema de
Entrada/ Salida (subsistema de E/S).
Para realizar intercambio de información con cualquiera de los elementos microprocesador, memoria y
subsistema de E/S se debe hacer uso del FSB. La velocidad del FSB es siempre inferior a la velocidad interna del
microprocesador.
En todo PC hay que diferenciar dos frecuencias distintas: la frecuencia interna o velocidad de ciclo del
procesador y la frecuencia externa o velocidad del FSB. Hay que ajustar velocidades de los distintos
componentes hardware. El elemento que introduce esa posibilidad de ajuste entre distintas velocidades es el
chipset.
e) Chipset: es un conjunto de circuitos integrados con alta escala de integración diseñado con técnicas similares a
las del microprocesador y que se especializan en la realización de dos técnicas fundamentales:
i. Controlar los intercambios de información entre microprocesador y memoria principal usando el FSB.
ii. Controlar los intercambios de información entre microprocesador y subsistema de E/S haciendo uso del
FSB.
En las placas base antiguas no existían los chipset. En estas placas existía un bus (ISA o EISA) que conectaba
todos los componentes: la memoria, las tarjetas de controladores, tarjetas de video, procesador, teclado, etc.
Todos estos componentes (incluyendo la CPU) funcionaban a la misma velocidad. Cada nueva generación de
procesadores requería unos componentes completamente distintos y el bus, cada vez, era más exigido para
proporcionar mayor velocidad. Algunos fabricantes intentaron construir dispositivos que pudieran funcionar a
distintas velocidades, aunque no lo consiguieron lograr con la suficiente calidad.
Para reducir los problemas de compatibilidad y evitar el consiguiente gasto en cada nueva generación de
procesadores, Compaq (en 1985) separó la velocidad del bus de la velocidad del procesador. De esta forma, se
evitaba que con cada nuevo procesador se tuvieran que construir nuevas versiones de los dispositivos
conectados. Esta mejora fue muy importante, pero requería una nueva interfaz para que todos los dispositivos
pudieran seguir funcionando a distintas velocidades.
Los fabricantes de placas base comenzaron a proporcionar más chips para componentes en vez de la tarjetas de
expansión. Los primeros fueron para los controladores de teclado, a los que se añadieron controladores de
discos flexibles (diskettes), puertos serie, y controladores de disco duro (año 1994). Se había comenzado el
cambio de los componentes integrados en las placas base.
Después de sufrir durante mucho tiempo los buses lentos, Intel introdujo (en 1994) el bus PCI pensado como un
bus de expansión, más que propiamente como solo un bus. Con PCI, se comenzó el uso de un lenguaje propio y
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 18
II: TECNOLOGÍA BÁSICA
único, con un bridge incorporado que permitía la traducción de los comandos PCI al lenguaje de la CPU y de la
memoria RAM. De esta forma, se podía trabajar tanto con el bus PCI como con la CPU y la memoria RAM de una
forma sencilla. Este bridge fue llamado North Brigde. Para conservar la compatibilidad con los buses anteriores
(ISA o EISA) y los componentes no integrados de estos buses, se construyó otro bridge (South Bridge) que se
comunicaba con ellos. Todos estos componentes constituyeron el origen de los chipset’s
En la actualidad, cualquier placa base debería proporcionar, como mínimo, dos chipsets integrados a la placa (no
insertados en zócalos)
i. Chipset1, que vincule microprocesador y memoria principal
ii. Chipset2, que vincule microprocesador y subsistema de E/S
El chipset es un elemento esencial de la placa base. Hace posible que la placa base funcione como eje del
sistema, dando soporte a varios componentes e interconectándolos de forma que se comuniquen entre ellos a
través de diversos buses. Es uno de los pocos elementos que tiene conexión directa con el procesador, gestiona
la mayor parte de la información que entra y sale por el bus principal del procesador, del sistema de vídeo y
muchas veces de la memoria RAM.
El primer grado de obsolescencia de una placa base depende del chipset, ya que no hay posibilidad de modificar
el chipset pues va soldado a ella. El grado de actualización, en cuanto a conectores y buses de E/S, está
condicionado por el chipset2. Algunos fabricantes de chipsets son Intel, AMD, VIA Technologies, NVidia y ALI.
Las diferentes funciones lógicas que suele integrar cualquiera de los chipsets actuales son las siguientes:
Soporte para el microprocesador. Una de las principales funciones del chipset es la detección correcta
del microprocesador y el pleno soporte de todas sus funciones. Esta es una de las principales razones
de la rápida evolución de los chipsets: nuevos procesadores, cada vez más rápidos, necesitan nuevos
chipsets que les proporcionen un soporte completo. Cada chipset se diseña pensando en un procesador
o familia de procesadores concretos. Igualmente, el chipset es el responsable directo de que la placa
base soporte mas de un microprocesador, en el caso de placas base duales o con más de dos
microprocesadores.
Controlador de memoria (MMU, Memory Management Unit). Gestiona la memoria RAM del sistema y en
general todo el subsistema de memoria, incluidos los diferentes niveles de memoria cache.
Controlador IDE/ATAPI para discos duros y otros dispositivos de almacenamiento que cumplan con el
estándar IDE/ATAPI. Esta parte del chipset es la encargada de controlar los dos conectores IDE que
habitualmente suelen integrar todas las placas bases actuales. Directamente relacionados con esta
función, están los modos de transferencia.
Control de los periféricos y del bus de E/S. Las placas base actuales disponen de una serie de buses,
principalmente PCI y AGP. El chipset es el responsable de la gestión de los buses PCI y de ofrecer el
soporte para el bus gráfico AGP. Algunas de las denominaciones de los chipsets históricos de Intel
están en línea directa con esta función, con denominaciones como PCIset y AGPset. Esta función
también incluye el soporte para nuevas tecnologías, como USB 2.0 o IEEE 1394.
Controlador de Interrupciones. Gestiona todo el sistema de interrupciones del PC.
Reloj de Tiempo Real (RTC). Mantiene la hora del sistema.
El soporte para la gestión de energía. Todos los chipsets actuales soportan una serie de funciones para
gestión y ahorro de energía eléctrica
Controlador de Acceso Directo a Memoria (DMA, Direct Memory Access). Permite el acceso directo a la
memoria a determinados dispositivos, sin pasar por el microprocesador, lo que agiliza el rendimiento de
ciertas operaciones con dispositivos específicos como los discos duros. El DMA es controlado por una
parte del chipset denominada controlador de DMA. Igualmente, el driver es el que soporta la función de
arbitraje de bus (bus mastering), que es una mejora del DMA, que permite que un dispositivo tome
directamente el control del bus del sistema para llevar a cabo las transferencias de datos.
Controlador de infrarrojos (IrDA). Controla la conexión de dispositivos que funcionen mediante rayos
infrarrojos.
Controlador tipo PS/2. Controla toda la actividad y el funcionamiento del teclado y de ratones con este
formato.
f) Elementos de expansión: la expansión está asociada con la funcionalidad del Chipset2 y se concreta con buses
de expansión (2) que pueden dar entrada a interfaces de E/S estandarizados y actualizados lo más posible.
(2)
Para una consulta detallada, ver el apartado 046b.2.1.4. Buses
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 19
II: TECNOLOGÍA BÁSICA
g) Puertos y conectores
Conectores externos
Dos puertos serie, controlados por un chip UART (Universal Asynchronous Receiver-Transmitter,
Transmisor Asíncrono Universal) controlador serie de alta velocidad, compatible con el chip UART
16550 original de National Semiconductor. Estos dos puertos se suelen denominar COM1 y COM2
respectivamente. El COM1 se usa habitualmente para la conexión de ratones serie, mientras que el
COM2 queda libre para la conexión de dispositivos serie tales como módems externos. Existen
conectores serie externos de tipo DB9 y DB25 (de 9 y 25 patillas, respectivamente).
Un puerto paralelo multimodo para la conexión de dispositivos paralelos, generalmente impresoras y,
en menor medida, escáneres y otros dispositivos de esta misma naturaleza
El término multimodo hace referencia a que el puerto es capaz de soportar tres modos de funciona-
miento característicos: SPP (Single Paralell Port), ECP (Extended Capabilities Port) y EPP (Enhanced
Paralell Port). Estos suelen ser los tres modos habituales de transmisión del puerto paralelo, en orden
creciente de prestaciones. El conector es de tipo hembra con 25 pines agrupados en dos filas.
Varios puertos USB (Universal Serial Bus). Tienen forma estrecha y rectangular y permiten la conexión
en caliente de dispositivos que cumplan este estándar. Actualmente, la mayoría de placas base soporta
la especificación USB 2.0.
Dos puertos IEEE 1394 (Firewire). Permiten la conexión en caliente de dispositivos que cumplan este
estándar de alta velocidad. Actualmente los principales dispositivos IEEE 1394 son sistemas de video
digital (DV) y unidades de almacenamiento externas.
Dos puertos PS/2, uno para teclado y otro para ratón. Ambos son conectores de tipo mini-DIN de seis
patillas. Este suele ser el tipo habitual de conectores para ratón y teclado en las actuales placas base
ATX.
Puerto para juegos, en el que habitualmente se suelen conectar dispositivos como palancas o mandos
de juegos (Joysticks y Gamepads), o dispositivos de audio, tales como teclados MIDI (Musical
Instrument Digital Interface).
Conectores de audio, generalmente para clavijas de tipo jack estéreo, siendo los más habituales los de
entrada y/o salida de línea (line in/line out), entrada de micrófono (mic in) y salida de altavoces
(speaker out).
Conector VGA para la tarjeta gráfica: es un conector estándar para tarjeta gráfica. Consta de 15 pines
agrupados en tres filas.
Conectores internos.
Conector para disquetera. Donde se inserta la banda de cable para datos de la disquetera.
Conectores IDE. Para la conexión de dispositivos IDE, principalmente discos duros y lectores de CD-
ROM.
Conectores para el refrigerador del microprocesador. Denominados generalmente Fan Power.
Conector para arranque desde red (WakeOn-LAN).
Conector para arranque desde línea telefónica mediante módem (WakeOn-Ring). Permite encender y
apagar remotamente nuestro equipo a través de la línea telefónica mediante un módem que soporte
esta función.
Conector para módulo de infrarrojos (irDA).
Controlador de Entrada/Salida: similar al chipset, es un chip que integra la mayoría de funciones de
entrada y salida de información de la placa base. Dentro de este chip se suelen integrar, entre otros,
los siguientes elementos: Incorporan una UART (controlador de puertos serie), el controlador del
puerto paralelo, la controladora de la disquetera. Muchos chips de E/S incluyen además el reloj de
tiempo real y el controlador de teclado.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 20
II: TECNOLOGÍA BÁSICA
Por último, hay que destacar que la potencia de un microprocesador no se debe medir sólo por su frecuencia de reloj,
sino también por su número de transistores, por su tecnología de fabricación, por sus niveles internos de memoria caché,
etc. Existen además diversos índices mediante los cuales se puede medir la potencia de un ordenador:
MIPS: mide cuántos millones de instrucciones por segundo es capaz de ejecutar un procesador. Este índice no
tiene en cuenta que hay procesadores con instrucciones más potentes que las de otros, por lo que se puede
considerar como una medida simplista.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 21
II: TECNOLOGÍA BÁSICA
MFLOPS: mide cuantos millones de instrucciones de coma flotante por segundo es capaz de ejecutar el
procesador. Análogamente, esta medida no tiene en cuenta las diferencias entre las instrucciones de
procesadores diferentes. Normalmente, los fabricantes de procesadores suelen proporcionar para los índices
MIPS y MFLOPS picos de rendimiento.
SPEC: ejecuta en el procesador un conjunto de programas y combina las medidas de prestaciones de éstos
con la media aritmética o geométrica.
SPECint y SPECfp: son unos índices que miden las velocidades en operaciones con enteros y con coma
flotante. La medida resultante se denomina SPECmarks.
Los microprocesadores suelen tener forma de prisma chato, y se instalan sobre un elemento llamado zócalo (ver
apartado anterior). También, en modelos antiguos, se solía soldar directamente a la placa madre. Aparecieron algunos
modelos donde se adoptó el formato de cartucho, sin embargo no tuvo mucho éxito. Actualmente, se dispone de un
zócalo especial para alojar el microprocesador y el sistema de enfriamiento, que comúnmente es un ventilador ( cooler).
El microprocesador está compuesto por:
a) Banco de Registros
b) Unidad de control
c) Unidad aritmético-lógica
d) Unidad de Coma Flotante (dependiendo del microprocesador)
e) Bus de control
A continuación se explica con más detalle cada uno de estos elementos
a) Banco de Registros
Un registro es una memoria de alta velocidad y poca capacidad, integrada en el microprocesador, que permite
guardar y acceder a valores muy usados, generalmente en operaciones matemáticas.
Los registros están en el punto más alto de la jerarquía de memoria, y son la manera más rápida que tiene el
sistema de almacenar datos. Los registros se miden, generalmente, por el número de bits que almacenan; por
ejemplo, un "registro de 8 bits" o un "registro de 32 bits".
Por otro lado, un procesador puede tener registros de estos tres tipos:
Registros de propósito general: son aquellos que pueden ser usados explícitamente por el programador
mediante el lenguaje ensamblador
Registros de propósito específico: son los que su valor sólo puede modificarse mediante instrucciones
específicas. En este grupo, se encuentra un registro llamado contador de programa (PC, Program
Counter) cuya función es apuntar, en todo momento, a la siguiente instrucción a ejecutar. Dentro de
este grupo de registros también se encuentran otros como el registro de estado (almacena cierta
información sobre las operaciones que tienen lugar en la ALU) y el registro de puntero de pila (contiene
una dirección de memoria a partir de la cual se encuentran una serie de datos).
Registros transparentes: son registros sobre los que el programador no puede ni actuar ni referenciar.
Son utilizados internamente por el procesador. Entre ellos se encuentra un registro muy importante, el
denominado registro de instrucción, que contiene la instrucción que se está ejecutando.
b) Unidad de Control
La Unidad de control es el "cerebro del microprocesador". Es la encargada de activar o desactivar los diversos
componentes del microprocesador en función de la instrucción que el microprocesador esté ejecutando y de la
etapa de dicha instrucción en que se encuentre.
La unidad de control (UC) interpreta y ejecuta las instrucciones almacenadas en la memoria principal y genera
las señales de control necesarias para ello.
Existen dos tipos de diseños para construir una Unidad de Control:
Unidad de control cableada: se construye, en su mayor parte, mediante puertas lógicas. Una puerta
lógica es un pequeño circuito electrónico que se comporta como alguna de las operaciones lógicas vistas
en el tema anterior, con la diferencia de que los valores verdadero y falso son ahora señales eléctricas
con tensión alta o baja. El conjunto de puertas lógicas actuará en función del tipo de instrucción leída.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 22
II: TECNOLOGÍA BÁSICA
Unidad de control microprogramada: está formada por puertas lógicas y por una memoria que
almacena, para cada instrucción, qué señales de control internas se deben activar y desactivar en cada
instante con el fin de realizar la función de dicha instrucción. La información referente a la señales de
control se almacena en esa memoria mediante secuencias de unos y ceros. A cada palabra de esta
memoria formada por unos y ceros se le denomina microinstrucción, la cual define uno de los pasos por
los que está compuesta una instrucción. Cada bit de ésta se referirá a una señal interna específica de la
unidad de control. Al conjunto ordenado de microinstrucciones necesarias para la ejecución de una se le
denomina microprograma.
c) Unidad aritmético-lógica
La Unidad Aritmético Lógica (UAL), o Arithmetic Logic Unit (ALU), es un circuito digital que calcula operaciones
aritméticas (como suma, resta, etc.) y operaciones lógicas (como OR, NOT, XOR, etc.) entre dos números.
Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el
circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual y
comprobando si debe activar el pitido del temporizador, etc.
Con diferencia, los circuitos electrónicos más complejos son los que están construidos dentro de los chips de
microprocesadores modernos como el Pentium. Por lo tanto, estos procesadores tienen en su interior una ALU
más compleja y poderosa. De hecho, un microprocesador moderno (y los mainframes) pueden tener múltiples
núcleos, cada uno con múltiples unidades de ejecución, cada una de ellas con múltiples ALU.
Un bus tiene multitud de características, entre las cuales se destacan las siguientes:
Ancho de banda: número máximo de elementos de información que se pueden transmitir por unidad de
tiempo (por ejemplo, MB/s).
Frecuencia: los buses también poseen una frecuencia de trabajo. Cuanto mayor sea esta frecuencia más
cantidad de información por unidad de tiempo será capaz de transmitir.
Grado de paralelismo: indica cuántas unidades de información, usualmente bits, es capaz de transmitir
el bus simultáneamente. Aquí se encuentran los buses de tipo serie que sólo pueden transmitir bit a bit,
y los buses paralelos que son capaces de transmitir n bits en un determinado instante. A esta
característica también se denomina ancho de bus.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 23
II: TECNOLOGÍA BÁSICA
Función: el bus puede ser de uso general o tener una función específica, como utilizarse solamente para
la transmisión de datos, direcciones o información de control.
Longitud: dependiendo del ámbito de aplicación del bus, éste deberá tener una longitud máxima
establecida.
Físicas y eléctricas: el bus, al estar fabricado con alguno de los materiales conductores, tendrá unas
propiedades eléctricas determinadas.
Los desarrollos comerciales de los tipos de buses se pueden consultar en el apartado 046b.2.1.4 Buses
046b.2.1.2.1. Historia
El primer procesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Los diseñadores fueron Ted
Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde ZiLOG).
A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad,
desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel
Xeon, Intel Itanium II, Transmeta Efficeon o Cell.
En la actualidad, los microprocesadores pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128,
64, 32, 16, 8 y 4 bits. Desde la aparición de los primeras computadoras, en los años cuarenta, muchas fueron las
evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple disminución del
procesador.
Entre estas evoluciones se pueden destacar estos hitos:
ENIAC (Electronic Numeric Integrator And Calculator) Fue una computadora con procesador multiciclo de
programación cableada, esto es, la memoria contenía sólo los datos y no los programas. ENIAC fue el primer
computador que funcionaba según una técnica a la que, posteriormente, se dio el nombre de monociclo.
EDVAC (Electronic Discrete Variable Automatic Computer) fue la primera máquina de Von Neumann. La primera
máquina que contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo.
El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La segmentación siempre
ha sido fundamental en Arquitectura de Computadores desde entonces.
El IBM 360/91 su creación supuso grandes avances en la arquitectura segmentada, introduciendo la detección
dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de reserva.
El CDC 6600 fue otra importante computadora de microprocesador segmentado, a la que se considera el primer
supercomputador.
El último gran hito de la Arquitectura de Computadoras fue la segmentación superescalar, propuesta por John
Cocke, que consiste en ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los primeros
procesadores superescalares fueron los IBM Power-1.
046b.2.1.2.2. Avances
Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en
una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas. Las partes lógicas que
componen un microprocesador son, entre otras: unidad aritmético-lógica, registros de almacenamiento, unidad de
control, Unidad de ejecución, memoria caché y buses de datos control y dirección.
Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a la Arquitectura de
Computadoras que a la miniaturización electrónica. El microprocesador se compone de muchos componentes. En los
primeros procesadores gran parte de éstos estaban ociosos el 90% del tiempo. Sin embargo, hoy en día, los
componentes están repetidos una o más veces en el mismo microprocesador, y los buses están hechos de forma que
siempre trabajan todos los componentes. Por eso, los microprocesadores son tan rápidos y tan productivos.
La fuerte competencia en el mundo de los procesadores, especialmente entre Intel y AMD, ha producido que la
tecnología actual de fabricación de procesadores este llegando a sus límites. Cada vez, la miniaturización de los
componentes del procesador es más difícil (el límite de construcción del silicio ronda los 15-20nm, donde el silicio
empieza a ceder por falta de consistencia, ya se ha llegado a los 65nm), el problema de la generación de calor ha
aumentado, originando una mayor dificultad para aumentar la frecuencia principal del procesador. Todos estos
problemas dificultan el incremento de rendimiento de los procesadores.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 24
II: TECNOLOGÍA BÁSICA
Con la mencionada tecnología, los procesadores actuales no puede sobrepasar la velocidad de los 3.8 GHz y necesitan
grandes disipadores y ventiladores porque generan mucho calor. No se podía continuar fabricando procesadores de la
misma manera, se estaba llegando a un estancamiento; era necesario tomar otro camino, utilizar otra variable que
hiciera que el rendimiento del procesador aumentará. Entonces, se empezaron a construir los procesadores multinúcleo
(a partir del año 2001).
Los procesadores multinúcleo contienen dentro de su empaque varios núcleos o "cerebros". Se basan en los sistemas
distribuidos, la computación paralela, y las tecnologías como el Hyperthreading (tecnología creada por Intel para los
procesadores de la familia Pentium 4), que mostraban como dividir el trabajo entre varias unidades de ejecución.
Cronología del microprocesador
1971: Intel 4004. Primer microprocesador comercial, presentado 15 de noviembre de 1971
046b.2.1.2.3. Funcionamiento
El microprocesador ejecuta instrucciones almacenadas como números binarios en la memoria principal. La ejecución de
las instrucciones se puede realizar en varias fases:
PreFetch, Pre lectura de la instrucción desde la memoria principal.
Fetch, ordenamiento de los datos necesarios para la realización de la operación.
Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer.
Ejecución.
Escritura de los resultados en la memoria principal o en los registros.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 25
II: TECNOLOGÍA BÁSICA
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y
concretamente de su grado de supersegmentación. La duración de estos ciclos viene determinada por la frecuencia de
reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor
coste temporal. El microprocesador dispone de un oscilador de cuarzo capaz de producir pulsos a un ritmo constante, de
modo que genera varios ciclos (o pulsos) en un segundo.
Velocidad
Actualmente se habla de frecuencias de Gigaherzios (GHz), o de Megaherzios (MHz). Lo que supone miles de millones o
millones, respectivamente, de ciclos por segundo. El indicador de la frecuencia de un microprocesador es un buen
referente de la velocidad de proceso del mismo, pero no el único. La cantidad de instrucciones necesarias para llevar a
cabo una tarea concreta, así como la cantidad de instrucciones ejecutadas por ciclo ICP (Instructions per cycle), son los
otros dos factores que determinan la velocidad de la CPU. La cantidad de instrucciones necesarias para realizar una tarea
depende directamente del juego de instrucciones disponible, mientras que ICP depende de varios factores, como el grado
de supersegmentación y la cantidad de unidades de proceso o "pipelines" disponibles, entre otros. La cantidad de
instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones.
Bus de datos
Los modelos de la familia x86 (a partir del 386) trabajan con datos de 32 bits, al igual que muchos otros modelos en la
actualidad. Pero los microprocesadores de las tarjetas gráficas, que tienen un mayor volumen de procesamiento por
segundo, se ven obligados a aumentar este tamaño, y así hoy en día, existen microprocesadores gráficos que trabajan
con datos de 128 ó 256 bits. Estos dos tipos de microprocesadores no son comparables, ya que ni su juego de
instrucciones ni su tamaño de datos son parecidos y, por tanto, el rendimiento de ambos no es comparable en el mismo
ámbito.
La arquitectura x86 se ha ido ampliando a lo largo del tiempo a través de conjuntos de operaciones especializadas
denominadas "extensiones", las cuales han permitido mejoras en el procesamiento de tipos de información específica.
Este es el caso de las extensiones MMX y SSE de Intel, y sus contrapartes, las extensiones 3DNow! de AMD. A partir de
2003, el procesamiento de 64 bits fue incorporado en los procesadores de arquitectura x86 a través de la extensión
AMD64 y, posteriormente, con la extensión EM64T en los procesadores AMD e Intel respectivamente.
046b.2.1.3. Memoria
La memoria es otro elemento importante en el PC que sirve para almacenar los programas y la información que generan
o usan éstos. Dependiendo del tipo de memoria, permite que los datos y los programas permanezcan almacenados aún
cuando el ordenador se encuentre apagado (memorias duraderas o no volátiles), o bien sólo cuando esté encendido
(memorias volátiles).
Existen dos tecnologías de memoria distintas:
1. DRAM (Dinamic Random Access Memory): memoria que necesita refresco, es decir, que se realimente con
tensión su contenido para que no se pierda. Son memorias más lentas y más sencillas de construir (consisten en
una circuitería y elementos más fáciles de integrar) y menos costosa.
2. SRAM (Static Random Access Memory): memoria que no necesita refresco. Se graba una vez la información y
perdura a lo largo del tiempo. El coste es elevado. Su diseño es más complejo y la velocidad más alta. El tiempo
de acceso es notablemente inferior.
Memoria caché
Es una memoria que se intercala entre el procesador y la memoria principal. Está gestionada por hardware, por lo que un
programa convencional no podría hacer referencia a posiciones de esta memoria. Además, es más rápida que la memoria
principal, pero de menor tamaño. Contiene información residente en la memoria principal que está siendo utilizada en un
determinado momento. Se construye utilizando tecnología SDRAM.
El objetivo de esta memoria es que los accesos a la información se realicen a una velocidad muy cercana a la del
procesador. Dicha memoria sólo se usa como caché, debido a que su fabricación resulta cara, y por esta razón muchos
comerciantes abaratan el coste de los microprocesadores quitando alguna caché o reduciendo el tamaño. Ejemplos son
los microprocesadores CELERON de INTEL y DURON de AMD.
Memoria Principal
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 26
II: TECNOLOGÍA BÁSICA
La memoria principal tiene como objeto contener los programas o porciones de éstos. De hecho, estos programas están
almacenados en la memoria secundaria y es el sistema operativo el encargado de copiarlos en la memoria principal para
que el procesador pueda ejecutarlos.
Unos conceptos particulares asociados a este tipo de memoria son el de memoria síncrona y asíncrona. Se dice que una
memoria es síncrona cuando, el intercambio de datos entre la CPU y la memoria, se realiza mediante una señal de reloj
externa a ésta que le indica en qué momentos puede recibir y devolver las peticiones de lectura o escritura, con lo que se
evitan así ciclos de espera. La memoria es asíncrona cuando depende de unos relojes internos que sincronizan el
microprocesador y los buses con el resto de elementos. Todo sistema asíncrono tiene asignado unos tiempos mínimos
para cada una de las operaciones internas, por lo que se pueden tener en accesos diferentes, distintos tiempos de
respuesta del sistema. Esta es una de las desventajas de estos sistemas, pues aunque acaben en medio de un ciclo su
operación, hasta el siguiente no pueden empezar otra, dado que han de resincronizarse con el resto de componentes.
Son memorias que usan tecnología del tipo DRAM, aunque existe gran variedad de tecnologías en cuanto a la memoria
principal. En los siguientes apartados se describen las diferentes alternativas que existen a la hora de dotar a un
ordenador de memoria principal.
Fast Page Mode DRAM (FPM DRAM): su nombre procede del modo en que transfiere los datos. Este tipo de
memoria se utilizó en las placas base fabricadas para montar los procesadores 80386, 80486 y los primeros
Pentium del fabricante de microprocesadores Intel, así como los procesadores de otros fabricantes como AMD y
Cyrix que empleaban una arquitectura semejante. Este tipo de memoria posee, como mínimo, un tiempo de
acceso igual a 60ns. Se presenta en módulos SIMM (Single In-line Memory Module) de 30 pins, que se conectan a
un bus de 16 bits para los 80386 y 80486, y en módulos de 72 pins para las últimas placas 80486 y las placas
para Pentium, con un bus de 32 bits. Su tecnología es de tipo asíncrona.
Extended Data Output DRAM (EDO DRAM): la memoria tipo FPM sólo podía acceder a un sólo byte (una
instrucción o valor) de información en cada acceso. Sin embargo, esto cambió con la memoria EDO, que permitía
mover un bloque completo de memoria hacia la memoria caché interna del procesador, para proporcionar un
acceso más rápido por él al bloque. Su mayor calidad le permitía alcanzar tiempo de acceso de hasta 45 ns,
satisfaciendo las necesidades los ordenadores que incluían los microprocesadores Pentium, Pentium Pro, y los
primeros Pentium II, que demandan mayor velocidad de proceso. Esta memoria se presenta en módulos SIMM de
72 pins, que se conecta a un bus de 32 bits y también en módulos DIMM ( Dual In-line Memory Modules) de 168
contactos para su conexión a un bus de 64 bits. Fue la última en fabricarse con tecnología asíncrona.
Burst Extended Data Output DRAM (BEDO DRAM): fue diseñada originariamente para ciertas placas base que
soportarían mayores velocidades de bus que las que existían en su día. Por diversas estrategias comerciales y
económicas se quedó sólo en un diseño. Esta memoria se diseñó para ser capaz de transferir datos al procesador
en cada ciclo de reloj, pero no de forma continuada, sino a ráfagas en las que se transferirían de una vez varias
palabras, reduciendo, aunque no suprimiendo totalmente, los tiempos de espera del procesador para escribir o
leer datos de memoria.
Synchronous DRAM (SDRAM ó JEDEC SDRAM): con este tipo de memorias nació una nueva forma de proporcionar
mayor velocidad en el acceso.. Se utiliza la tecnología síncrona, de tal forma que al sincronizarse la memoria con
la señal de reloj interna del procesador, éste puede obtener información en cada ciclo de reloj, sin estados de
espera a diferencia de los tipos anteriores. La memoria EDO estaba pensada para funcionar a una velocidad
máxima de bus de 66MHz, llegando a soportar los buses de 75MHz y 83MHz en los módulos de 45ns y 50ns,
aunque con cierta inestabilidad. A pesar de que estos módulos utilizan chips capaces de aceptar frecuencias de
bus a 83MHz (12ns) y 100MHz (10ns), fueron diseñados para adaptarse a uno de 66MHz. A este tipo de memoria
también se le conoce como PC66 y PC100, que son nombres de dos especificaciones de fabricación de este tipo
de memoria, que garantiza unos mínimos de estabilidad y calidad. Se presenta en módulos DIMM de 168 pins
para buses de 64 bits.
Las memorias SDRAM se miden tanto en megahercios como en nanosegundos. Para pasar de MHz a
nanosegundos hay que dividir 1 entre el número de megahercios, y multiplicar el resultado por mil. Por ejemplo,
un módulo SDRAM de 66 MHz corresponde a (1/66) x 1000 = 15ns. El mismo método funciona a la inversa, para
pasar los nanosegundos a megahercios. Un aspecto a destacar es que los nanosegundos de las memorias
asíncronas y síncronas no miden lo mismo. Por ejemplo, un módulo de SDRAM de 100MHz, que corresponde a
10ns, podría ofrecer un rendimiento cercano a un módulo EDO de 50ns.
Una de las limitaciones de diseño de las memorias JEDEC SDRAM sitúa en 125MHz su frecuencia máxima de
trabajo, aunque mediante ciertas optimizaciones, los fabricantes han conseguido que alcancen los 133MHz. Estas
investigaciones propiciaron la aparición de dos nuevos tipos de memoria: la DDR SDRAM y la RDRAM.
Double Data Rate SDRAM (DDR SDRAM): la DDR SDRAM es una mejora de la JEDEC SDRAM convencional.
Permite realizar dos operaciones por ciclo de reloj debido a ciertas mejoras introducidas. Así consigue doblar el
ancho de banda proporcionado por una SDRAM, que ronda los 1,06 GB/s, y lo sitúa en 2,12 GB/s. Esto
proporciona un mayor caudal de información entre el procesador y la memoria a través del bus que los une. Ello
supone un alivio para los procesadores actuales, cuyas frecuencias de trabajo están rondando los 2GHz. La
principal ventaja es ser una extensión de la memoria SDRAM, lo que facilita la implementación por la mayoría de
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 27
II: TECNOLOGÍA BÁSICA
los fabricantes. Además, al ser una arquitectura abierta, los fabricantes de memoria no necesitan pagar derechos
de patente.
Las memorias DDR-SDRAM se usan hoy en día para memoria principal, memoria de tarjetas gráficas, memoria de
impresoras, etc. Las memorias DDR2-SDRAM se insertan en módulos DIMM de 168 o 184 contactos.
Una nueva versión de este tipo de memoria es la DDR2. Los módulos DDR2 son capaces de trabajar con 4 bits
por ciclo, es decir, dos de ida y dos de vuelta (en total cuatro bits) en un mismo ciclo, mejorando sustancialmente
el ancho de banda potencial bajo la misma frecuencia de una DDR SDRAM tradicional. Este sistema funciona
debido a que, dentro de las memorias, hay un pequeño buffer donde se guarda la información para luego
transmitirla fuera del modulo de memoria. Este buffer, en el caso de la DDR convencional, trabajaba tomando los
dos bits para transmitirlos en un sólo ciclo, lo que aumenta la frecuencia final. En las DDR2, el buffer almacena
cuatro bits para luego enviarlos, lo que a su vez, redobla la frecuencia nominal sin necesidad de aumentar la
frecuencia real de los módulos de memoria.
Las memorias DDR2 tienen mayores latencias que las conseguidas con las DDR convencionales, cosa que
perjudicaba su rendimiento. Reducir la latencia en las DDR2 no es fácil. El mismo hecho de que el buffer de la
memoria DDR2 pueda almacenar cuatro bits, para luego enviarlos, es el causante de la mayor latencia, debido a
que se necesita mayor tiempo de "escucha" por parte del buffer y mayor tiempo de trabajo, por parte de los
módulos de memoria, para recopilar esos cuatro bits antes de poder enviar la información.
La última implementación, hasta el momento, de este tipo de memorias es la DDR3. El principal beneficio de
instalar DDR3 es la habilidad de hacer transferencias de datos ocho veces más rápido, esto permite obtener
velocidades pico de transferencia y velocidades de bus más altas que las versiones DDR anteriores. Sin embargo,
no hay una reducción en la latencia, la cual es proporcionalmente más alta. Además la DDR3 permite usar
integrados de 512 megabits a ocho gigabytes, siendo posible fabricar módulos de hasta 16 Gb.
Teóricamente, estos módulos pueden transferir datos a una tasa de reloj efectiva de 800-2600 MHz, comparado
con el rango actual del DDR2 de 533-1200 MHz ó 200-400 MHz del DDR
Direct Rambus DRAM (RDRAM): este tipo de memoria ha sido desarrollada por el fabricante Rambus y es
defendida por uno de los fabricantes más importantes de microprocesadores (Intel). La memoria RDRAM puede
llegar a los 800 MHz. Sin embargo, posee un tamaño de bus de 16 bits, frente a los 64 bits de la memoria DDR
SDRAM. Teóricamente, es capaz de realizar transferencias a 1,6 GB/s y a 3,2 GB/s en modo doble.
Este fabricante ha patentado un bus para hacer una integración directa del microprocesador y la memoria, lo que
se denomina el bus RAMBUS. La memoria principal que se utiliza en ese entorno se denomina RDRAM y el módulo
en que se inserta RIMM (Rambus Inline Memory Module) con 168 contactos
Una desventaja muy importante a la que se enfrentan los fabricantes de memorias es que dado que Rambus es
propietaria de esta tecnología, cualquiera que desee producir memoria de este tipo deberá pagar a la firma en
concepto de patentes. Además, otro de los problemas que posee este tipo de memorias es su latencia, que puede
llegar a ser mayor que las memorias SDRAM
Synchronous Link DRAM (SLDRAM): esta memoria aún está en fase de desarrollo. Puede funcionar sobre buses de
hasta 200 MHz. Además, y al igual que la DDR SDRAM, puede funcionar al doble de reloj. Algunos ingenieros
opinan que podrán alcanzarse, en poco tiempo, los 800 MHz. Esta memoria es capaz de proporcionar 1,6GB/s y
3,2GB/s en modo doble.
Comparada con la memoria RDRAM, la memoria SLDRAM posee diversas ventajas como menor latencia, coste de
fabricación y velocidad de reloj para conseguir la misma velocidad de transferencia. Además, tiene la ventaja para
los fabricantes de que no es necesario pagar patentes. Esta memoria posee un ancho de banda de 3'2 GB/s.
046b.2.1.4. Buses
Como se ha mencionado anteriormente, los buses se pueden clasificar en dos tipos: internos (los que posee la CPU para
interconectar sus componentes internos) o externos (los que interconectan los periféricos o la memoria con el
microprocesador). Dentro de esta clasificación se puede especificar aún más, distinguiendo entre:
Buses paralelos: los datos son enviados por bytes, al mismo tiempo, con la ayuda de varias líneas que tienen
funciones fijas. La cantidad de datos enviada es bastante grande con una frecuencia moderada y es igual al ancho
de los datos por la frecuencia de funcionamiento.
Buses en serie: los datos son enviados, bit a bit, y se reconstruyen por medio de registros o rutinas de software.
Está formado por pocos conductores y su ancho de banda depende de la frecuencia.
Partiendo de esta doble clasificación, se pueden mencionar los siguientes desarrollos comerciales:
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 28
II: TECNOLOGÍA BÁSICA
Buses Internos
i. Paralelos: EV6 (de Athlon y Alpha), GTL+/AGTL+ de Intel ISA, EISA, VESA, MCA, PCI, AGP
ii. Serie: PCI Express (PCIe), I2C, HyperTransport
Buses Externos
(3)
i. Paralelos: ATA (IDE, EIDE, ATAPI), SCSI, PCMCIA
(1)
ii. Serie: SATA , USB, IEEE 1394 (FireWire)
A continuación se describen con más detalle alguno de ellos.
a) Bus EV6 de AMD y GTL+ (Gunning Transceiver Logic) /AGTL+ (Assisted Gunning Transceiver Logic) de
Intel. Ambos son buses Front Side Bus (FSB), bus interfaz entre la CPU y la placa base.
El bus EV6 (creado por Digital Equipment Corporation) es el usado por el sistema AMD Athlon. Funciona a
200MHz, y puede proporcionar un ancho de banda de datos de 1,6 Gb/s, escalable hasta un ancho de banda de
datos de 3,2 Gb/s a 400 MHz.
Para alcanzar los 200Mhz de frecuencia, en el bus se utiliza la tecnología DDR (Double Data Rate), que consiste
en transferir datos en ambos sentidos del bus por cada ciclo, duplicando así el rendimiento. Esta tecnología es
similar a la utilizada en DDR-SDRAM y en la interfaz Ultra ATA 66.
El EV6,más que un bus, se podría entender como un switch (conmutador) de red, ya que cada procesador tiene
conexión completa con el North Bridge ejecutándose a una velocidad efectiva de 200Mhz (un 50% más rápido
que el FSB de Intel).
El bus GTL+ es usado por Intel en sus procesadores Pentium II (100Mhz) y Pentium III (133Mhz). Proporciona
una única conexión al North Brigde que es compartida por todas la CPU’s de la computadora, cuyo ancho de
banda se divide entre todas ellas. El principio del que parte es que casi nunca una CPU necesita el ancho de
banda total. Desafortunadamente, en esta situación de todo o nada de bus compartido, cada CPU debe esperar
su turno para el uso del mismo (apareciendo la latencia de uso del bus). Este problema se agrava con la
situación actual de CPU’s con 800Mhz de velocidad y memorias a 133MHz, donde una CPU tiene que esperar
seis ciclos de procesador para acceder a los datos.
Técnicamente el bus EV6 aporta una serie de ventajas respecto al GTL+, entre ellas, se pueden destacar:
Una topología punto-a-punto (cada procesador es un sistema multiproceso dispone de su propio bus a
200Mhz), en el GTL+ los procesadores comparten este bus a 100Mhz por lo que cuantos más unidades
menos ancho de banda)
Una interfaz de memoria asíncrona (la velocidad de la memoria es independiente a la velocidad del bus y
es determinada solamente por el chipset). Como curiosidad, se puede citar que el bus EV6 soporta
sistemas multiprocesadores de hasta 14 procesadores. El espacio de direcciones del EV6 es también
mayor que el del bus P6, es de 43 bits de profundidad contra los 36-bits del bus P6.
Además, el EV6 permite transferencias de 64bytes en ráfagas, en vez de los 32 soportados por el GTL+,
por lo que el EV6 es capaz de mandar más datos a la vez a través del bus que el GTL+.
El bus EV6 también añade seguridad, ya que añade un byte de ECC (Error Checking Correction) en todas
las transferencias, una característica implementada en el bus GTL+ de Intel, pero que está ausente en
todas las plataformas Super7.
(3)
Para una consulta detallada, ver el apartado 046b.2.2.1.1. Disco Duro (Interfaces)
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 29
II: TECNOLOGÍA BÁSICA
Las evoluciones del ISA son el bus EISA con 32 bits (año 1987) que resuelve la integración de los periféricos y
el bus VESA Local Bus (año 1992) dedicado a sistemas gráficos.
c) Bus MCA (Micro Channel Architecture).
Bus exclusivo mejorado diseñado por IBM en 1987 para utilizar en su línea de equipos PS/2. Este bus de 16 a 32
bits no era compatible con el bus ISA y podía alcanzar un rendimiento de 20 Mb/s.
d) Bus PCI (Peripheral Component Interconnect)
Es un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. A
diferencia del bus ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de
arranque del sistema, las tarjetas PCI y la BIOS interactúan y negocian los recursos solicitados por la tarjeta
PCI. Su velocidad se mueve de los 66Mhz hasta los 133Mhz y da entrada a los conectores o interfaces de
Entrada/Salida siguientes:
Controladora IDE, para el disco duro
Controladora SCSI, para el disco duro
Conector/interfaz Firewire, para video en tiempo real
Tarjeta de red, tarjeta de sonido, etc.
Ha evolucionado a distintas versiones:
PCI-X (PCI eXtended): supera al bus PCI por su mayor ancho de banda, que suele ser exigido por
servidores (en requerimientos de banda ancha: tarjetas Ethernet Gigabit, canal de Fibra, SCSI). Es una
versión con el doble de ancho del PCI, ejecutándose hasta cuadruplicar la velocidad de reloj, estrategia
similar en otras implementaciones eléctricas que usan el mismo protocolo. Fue desarrollado
conjuntamente con IBM, HP y Compaq y presentado para su aprobación en 1998.
PCIe (PCI Express): es un nuevo desarrollo del bus PCI que usa los conceptos de programación y los
estándares de comunicación existentes, pero se basa en un sistema de comunicación serie mucho más
rápido. Este sistema es apoyado principalmente por Intel.
Aunque ambos (PCI-X y PCIe) son buses de alta velocidad para ordenadores y periféricos internos, se diferencian
en muchas cosas. La primera es que PCI-X es un interfaz paralelo que es compatible con versiones anteriores de
los dispositivos PCI a excepción de los que trabajan con 5 voltios. Por el contrario, PCIe es un bus serie con una
interfaz física distinta que fue diseñada para superar a PCI y PCI-X.
Los buses PCI-X y PCI estándar pueden funcionar en un puente PCIe, de forma similar a como lo hacían los buses
ISA, que funcionan en buses PCI normales en algunos ordenadores. PCIe también supera a PCI-X y PCI-X 2.0 en
ancho de banda máximo: PCI-E 1.0 x1 ofrece 250 MB/s en cada sentido, y hasta en 32 líneas, otorgando un
máximo de 8 GB/s en cada sentido.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 30
II: TECNOLOGÍA BÁSICA
necesita una latencia baja, los buses PCI o PCIe salen ganando. Igualmente sucede si la aplicación requiere de
robustez industrial. A favor del bus USB, cabe decir que cuando se conecta un nuevo dispositivo, el servidor lo
enumera y agrega el software necesario para que pueda funcionar (esto dependerá ciertamente del sistema
operativo que esté usando el ordenador).
El USB puede manejar 128 dispositivos compartiendo entre ellos un ancho de banda de 1.5Mbps. Está
constituido por un conector de 4 hilos con las siguientes características:
2 hilos para entrada balanceada, es decir para datos que duplican la información por dos hilos. Se lee
alternativamente de cada hilo, no de los dos hilos a la vez.
1 hilo para la tensión
1 hilo para masa o toma de tierra
En la versión de USB 2.0, la velocidad de transferencia máxima es de 60 Megabytes por segundo, que en la
próxima versión 3.0 se multiplicará por 10, pasando a 600 Megabytes por segundo.
f) Bus AMR (Audio Modem Rise)
Es un bus para dispositivos de audio (como tarjetas de sonido) o módems lanzado en 1998 y presente en placas
de Intel Pentium III, Intel Pentium IV y AMD Athlon. Fue diseñada por Intel como una interfaz con los diversos
chipsets para proporcionar funcionalidad analógica de Entrada/Salida, permitiendo que esos componentes
fueran reutilizados en placas posteriores sin tener que pasar por un nuevo proceso de certificación.
Fue sustituido por CNR, aunque actualmente ninguno de ambos es utilizado en las placas bases.
g) Bus CNR (Communication and Network Riser)
Se trata de una bus para dispositivos de comunicaciones como módems, tarjetas de red o USB. Un poco más
grande que la AMR, CNR fue introducida en febrero de 2000 por Intel para procesadores Pentium y se trataba
de un diseño propietario por lo que no se extendió más allá de las placas que incluían los chipsets de Intel, que
más tarde fue implementada otros chipset.
h) Bus AGP (Accelerated Graphics Port)
Es un bus especializado para la generación de video, desarrollado por Intel en 1996. Todo tratamiento de señal
de video necesita un gran ancho de banda, para ello, AGP constituye un bus dedicado que aísla el sistema de
video.
El puerto AGP es de 32 bit como PCI, pero cuenta con diferencias tales como contar con 8 canales adicionales
para acceso a la memoria RAM. Además, puede acceder directamente a ésta a través del puente norte,
pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus AGP 1X es de 66 MHz con una tasa de
transferencia de 266 MB/s.
La última versión es la AGP 8X, velocidad 533 MHz con una tasa de transferencia de 2 GB/s. Hoy en día se hace
la integración del sistema de video con el bus PCI-X, es decir, las tarjetas gráficas se insertan en el bus PCI-X.
Tiene mayor velocidad, aunque no sea dedicado exclusivamente y sea compartido. Por lo tanto, AGP tiende a
desaparecer, siendo la tendencia el uso de PCI-X para todo.
PCMCIA es una asociación Internacional centrada en el desarrollo de tarjetas de memoria para ordenadores
personales que permiten añadir nuevas funciones.
Se fundó en 1989 con el objetivo de establecer estándares para circuitos integrados y promover la
compatibilidad dentro de los ordenadores portátiles, donde solidez, bajo consumo eléctrico y tamaño pequeño
son los factores más importantes. A medida que las necesidades de los usuarios de ordenadores portátiles han
ido cambiado, lo ha hecho también el estándar de las tarjetas de PC.
En 1991 PCMCIA había definido una interfaz I/O (entrada/salida) para el mismo conector de 68 pines que
inicialmente se usaba en las tarjetas de memoria. A medida que los diseñadores se daban cuenta de la
necesidad de un software común para aumentar la compatibilidad, se fueron añadiendo primero las
especificaciones de servicios de socket, seguidos de los servicios de especificación de tarjeta.
Los interfaces desarrollados bajo este estándar son los siguientes:
PCCard (originalmente PCMCIA), es un periférico diseñado para computadoras portátiles. En un principio
era usado para expandir la memoria, pero luego, se extendió a diversos usos como disco duro, tarjeta de
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 31
II: TECNOLOGÍA BÁSICA
red, tarjeta sintonizadora de TV, puerto paralelo, puerto serial, módem, puerto USB, etc. Fue diseñado
por la industria estadounidense para competir con las tarjetas japonesas JEIDA.
CardBus: es el nombre que reciben las tarjetas pertenecientes al estándar PCMCIA 5.0 o posteriores
(JEIDA 4.2 o posteriores). Todas ellas son dispositivos de 32 bits y están basadas en el bus PCI de 33
MHz (a diferencia de las PC Card que pueden ser de 16 o 32 bits)-
Incluye Bus Mastering, que admite la comunicación entre su controlador y los diversos dispositivos
conectados a él sin que intervenga el CPU. Muchos chipsets están disponibles tanto para PCI y CardBus,
como los que soportan Wi-Fi.
ExpressCard: es un estándar de hardware que reemplaza a las tarjetas PCMCIA / PC Card / CardBus. El
dispositivo host soporta conectividad PCIe y USB 2.0 en el slot ExpressCard, y cada tarjeta utiliza el
modo de conectividad que el diseñador considere más apropiado para la tarea. Las tarjetas pueden
conectarse al ordenador encendido sin necesidad de reiniciarlo (soportan hot swap o conexión en
caliente). Es un Estándar abierto de la organización internacional ITU-T
El beneficio principal de la tecnología ExpressCard sobre CardBus es un gran aumento del ancho de
banda, causado porque ExpressCard tiene una conexión directa al bus del sistema sobre una conexión
PCI-Express x1 o USB 2.0, mientras que CardBus utiliza un controlador de interface que sólo interactúa
con PCI.
ExpressCard tiene un rendimiento de procesamiento máximo de 2,5 Gb/s sobre PCIe ó 480
Megabits/segundo sobre USB 2.0 dedicado para cada ranura, mientras que CardBus debe compartir un
ancho de banda de 1.066 Megabits/segundo.
La tecnología ExpressCard no es compatible con los dispositivos CardBus, lo cual puede representar un
problema para quienes compren un nuevo sistema y quieran mantener sus dispositivos anteriores.
j) Bus I2C (Inter Integrated Circuit)
Es un bus de comunicaciones en serie. La versión 1.0 data del año 1992 y la versión 2.1 del año 2000, su
diseñador es Philips. La velocidad es de 100Kbits por segundo en el modo estándar, aunque también permite
velocidades de 3.4 Mbit/s. Es un bus muy usado en la industria, principalmente para comunicar microntroladores
y sus periféricos en sistemas integrados (Embedded Systems) y generalizando más para comunicar circuitos
integrados entre si que normalmente residen en un mismo circuito impreso.
Su principal característica es que utiliza dos líneas para transmitir la información: una para los datos y por otra la
señal de reloj. También es necesaria una tercera línea, pero ésta sólo es la referencia (masa). Como suelen
comunicarse circuitos en una misma placa que comparten una misma masa, esta tercera línea no suele ser
necesaria
Los dispositivos conectados al bus tienen una dirección única para cada uno. También pueden ser maestros o
esclavos. El dispositivo maestro inicia la transferencia de datos y, además, genera la señal de reloj, pero no es
necesario que el maestro sea siempre el mismo dispositivo. Esta característica se la pueden ir pasando los
dispositivos que tengan esa capacidad y confiere a este bus la denominación de multimaestro.
k) HyperTransport (HT), también conocido como Lightning Data Transport (LDT).
Es una tecnología de comunicaciones bidireccional, que funciona tanto en serie como en paralelo, y ofrece un
gran ancho de banda en conexiones punto a punto de baja latencia. Se publicó el 2 de abril de 2001. Esta
tecnología se aplica en la comunicación entre chips de un circuito integrado, ofreciendo un enlace (ó bus) de
conexión universal de alta velocidad y alto rendimiento para aplicaciones incorporadas y facilitando sistemas de
multiprocesamiento altamente escalables. Esta conexión universal está diseñada para reducir el número de
buses dentro de un sistema.
Existen tres versiones de HyperTransport (1.0, 2.0 y 3.0) que pueden funcionar desde los 200MHz hasta 2.6GHz
(mientras el bus PCI corre a 33 o 66 MHz). También soporta tecnología DDR ( Double Data Rate), lo cual permite
alcanzar un máximo de 5200 MT/s (2600MHz hacia cada dirección: entrada y salida) funcionando a su máxima
velocidad (2.6GHz).
l) Bus IEEE 1394 (conocido como FireWire por Apple Inc. y como i.Link por Sony):
Es un estándar multiplataforma para entrada/salida de datos en serie a gran velocidad. Se suele utilizar para la
interconexión de dispositivos digitales como cámaras digitales y videocámaras a computadoras. Tiene una
velocidad máxima de 800 Megabits por segundo (IEEE 1394b).
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 32
II: TECNOLOGÍA BÁSICA
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 33
II: TECNOLOGÍA BÁSICA
duro.
Velocidad de Rotación: es la velocidad a la que gira el disco duro, más exactamente, la velocidad a la
que giran el/los platos (se detalla más adelante) del disco, que es donde se almacenan
magnéticamente los datos. La regla es: a mayor velocidad de rotación, más alta será la transferencia
de datos, pero mayor será el ruido y mayor el calor generado por el disco duro. Se mide en RPM
(Revoluciones Por Minuto).
Memoria Caché (tamaño del buffer): es una memoria que va incluida en la controladora interna del
disco duro, de modo que todos los datos que se leen y escriben a disco duro se almacenan
primeramente en el buffer.
Tasa de transferencia: indica la cantidad de datos que un disco duro puede leer o escribir en la parte
más externa del disco o plato en un período de un segundo. Normalmente se mide en Mbits/s.
b) Componentes Físicos:
Los discos (platters)
Están elaborados de compuestos de vidrio, cerámica o aluminio pulidos y revestidos por ambos lados
con una capa muy delgada de una aleación metálica. Los discos están unidos a un eje y un motor que
los hace guiar a una velocidad constante entre las 3600 y 7200 RPM. Convencionalmente los discos
duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre
un eje central. Estos discos, normalmente, tienen dos caras que pueden usarse para el almacenamiento
de datos, si bien suele reservarse una para almacenar información de control. Cada uno de los lados de
un disco es una cara.
Los datos se graban en forma de flujos magnéticos escritos en círculos, alrededor del anillo central del
disco. Cada uno de los círculos concéntricos forma una pista y cada pista está dividida en un número
igual de segmentos, llamados sectores. Un sector es la mínima unidad de información direccionable en
un disco duro. En la mayoría de los discos duros, un sector tiene un tamaño de 512 bytes. Cada pista
normalmente está dividida en una cantidad de sectores que oscila entre 100 y 300. La cabeza de
lectura/escritura se mueve del borde exterior del disco hacia el anillo central, deteniéndose sobre la
pista que contiene la información que necesita el ordenador. Una vez en la posición adecuada, la
cabeza espera a que el sector correcto de la pista se encuentre debajo de ella, y a continuación lee o
escribe datos a medida que éste pasa por debajo.
Otro concepto importante es la densidad de grabación. Ésta se mide en bits por pulgada (BPI, Bits Per
Inch) y la densidad de pistas en cada plato se mide en pistas por pulgada (TPI, Tracks Per Inch). Multi-
plicando ambos factores se obtiene la densidad de área, que generalmente se calcula en bits por pul-
gada cuadrada (BPSI, Bits Per Square Inch).
La densidad hace referencia a la separación que existe en los bits de información almacenados en el
disco duro. Mientras mayor sea la densidad de grabación, mayor cantidad de datos se podrán
almacenar en una misma superficie. Existen dos formas de conseguir una mayor densidad de datos:
- Almacenando los bits más juntos unos de otros o
- Haciendo que la distancia entre pistas sea menor, con lo que se consiguen introducir más pistas
en un mismo plato aumentando así la capacidad de almacenamiento.
Las Cabezas (Heads)
Están ensambladas en pila y son las responsables de la lectura y la escritura de los datos en los discos.
La mayoría de los discos duros incluyen una cabeza Lectura/Escritura a cada lado del disco, sin
embargo, algunos discos de alto rendimiento tienen dos o más cabezas sobre cada superficie, de
manera que cada cabeza atiende la mitad del disco reduciendo la distancia del desplazamiento radial.
Las cabezas de Lectura/Escritura no tocan el disco cuando éste gira a toda velocidad; por el contrario,
flotan sobre una capa de aire extremadamente delgada (10 millonésima de pulgada). Esto reduce el
desgaste en la superficie del disco durante la operación normal. Cualquier polvo o impureza en el aire
puede dañar suavemente las cabezas o el medio. Su funcionamiento consiste en una bobina de hilo que
se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una
pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco. Las cabezas
convierten, por tanto, señales eléctricas en señales magnéticas y viceversa, según la operación a
realizar sea de escritura o de lectura.
Todos los discos duros actuales incorporan una memoria caché (buffer) para agilizar las operaciones de
lectura y escritura. Generalmente esta caché suele ser de lo 16 o 32Mb.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 34
II: TECNOLOGÍA BÁSICA
Cilindros
El par de pistas en lados opuestos del disco se llama cilindro. Se puede ver como el conjunto de varias
pistas. Son todas las circunferencias que están alineadas verticalmente (una de cada cara). Si el HD
contiene múltiples discos (sean n), un cilindro incluye todos los pares de pistas directamente uno
encima de otra (2n pistas). Los HD normalmente tienen una cabeza a cada lado del disco. Dado que las
cabezas de Lectura/Escritura están alineadas unas con otras, la controladora puede escribir en todas las
pistas del cilindro sin mover el rotor. Como resultado, los HD de múltiples discos se desempeñan
levemente más rápido que los HD de un solo disco.
Tarjeta controladora:
Para controlar el funcionamiento del motor y gestionar la forma en que se graba y lee la información,
todos los discos actuales cuentan con una tarjeta controladora integrada en la propia unidad. Dicha
controladora se suele alimentar a 5 voltios, mientras que el motor lo hace a 12 voltios. De ahí que el
conector de alimentación tenga cuatro cables: uno de 5 y otro de 12 voltios, con sus respectivas masas.
Entre las principales funciones que realiza la tarjeta controladora están las siguientes:
- El control del motor de giro del disco duro, incluyendo el control de la velocidad de giro.
- El control del brazo actuador para la ubicación en la pista correcta.
- El control del tiempo necesario para realizarlas operaciones de lectura y escritura.
- El control de la gestión de la energía (en leer y amplificar las señales de bajo voltaje proceden-
tes de las cabezas del disco duro).
Finalmente, la tarjeta controladora incorpora un firmware o software de control. Esto no son más que
una serie de rutinas encargadas de ser procesadas por el microprocesador que generalmente todos los
discos duros actuales incorporan.
Estas rutinas suelen estar grabadas en una memoria ROM en la propia controladora del disco duro. Mu-
chos discos duros ya incorporan para estas funciones una memoria ROM de tipo flash, que permite su
actualización mediante software.
c) Procesos de codificación de la información:
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 35
II: TECNOLOGÍA BÁSICA
Según los elementos citados, en un disco duro los datos se grabarán en forma de flujos magnéticos escritos en
círculos, alrededor del anillo central del disco. Cada uno de los círculos concéntricos forma una pista y cada pista
está dividida en un número igual de segmentos, llamados sectores.
La información digital se almacena en forma de cadenas de ceros y unos. En un disco duro, esos ceros y unos
que componen la información se almacenan codificados en forma de pulsos magnéticos
FM (Frecuency Modulation – Modulación de Frecuencia): es la codificación más sencilla. Consiste en la
grabación de un cambio de flujo para cada uno, y en omitir el cambio de flujo para cada cero. Este
procedimiento se puede realizar con una electrónica de control relativamente simple, pero tiene el
inconveniente de que cada bit de datos consume dos cambios de flujo, limitando mucho la capacidad
del disco.
MFM (Modify Frecuency Modulation – Modulación de Frecuencia Modificada): en comparación con FM,
no necesitaba almacenar tantos cambios por bit, lo que al final redundaba en una mayor capacidad de
almacenamiento de información en el disco. Aunque MFM ya se abandonó en los discos duros al usarse
métodos mucho más eficientes, en los disquetes éste es el método de codificación que se sigue
utilizando.
RLL (Run Length Limited – Longitud de recorrido limitado): este método trabaja con grupos de bits, en
lugar de hacer la codificación para bits individuales, operando con dos parámetros: la longitud y el
límite del recorrido, de ahí su denominación. La longitud del recorrido es el mínimo espacio entre dos
cambios de fase, mientras que el límite del recorrido es la máxima longitud entre dos cambios de fase.
Gran parte de los discos duros actuales utilizan alguna variedad de codificación RLL.
d) Interfaces
La interfaz de un disco duro comprende la forma que usa para relacionarse con los demás elementos que
componen una computadora. Hace también referencia, por tanto, al tipo de conexión que utiliza el disco duro.
Actualmente la interfaz puede ser de tipo IDE o SCSI, pero la evolución que ha sido la siguiente:
ST-506/ST-412:
Ya obsoletos. Creados por Seagate Technology. A los discos que usaban esta interfaz se les
denominaba MFM, debido a que éste era el método de codificación magnética que empleaban. La
principal diferencia de estos discos duros respecto a los actuales es que no incorporaban ningún circuito
lógico, sino que toda la circuitería lógica residía en la controladora que estaba insertada en la placa
base. Esto presentaba problemas de rapidez, ya que el disco duro se comunicaba con la controladora a
través de un cable, y no directamente, con lo que se perdía en velocidad de transferencia entre disco
duro y controladora. Los discos duros ST-506/ST-412 tenían un cable formado por dos bandas, una de
20 hilos que transportaba los datos y otra de 34 hilos que transmitía señales de control.
ESDI (Enhanced Small Device Interface):
A mediados de los 80’s, apareció este estándar para solventar algunos de los problemas que habían
surgido con el anterior. Trasladaba algunas funciones de control ya al propio disco duro, incrementando
así la tasa de transferencia de datos y produciéndose un ligero aumento de prestaciones en general.
IDE (Integrated Drive Electronics):
Creado por Western Digital. Su característica más representativa era la implementación de la
controladora en el propio disco duro, de ahí su denominación. Igualmente se eliminó la necesidad de
disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus
al disco duro.
IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar
estos movimientos de datos. La interfaz IDE supuso la simplificación en el proceso de instalación y
configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado.
IDE/ATA son unas siglas que responden a Integrated Drive Electronics /AT Attachment, y es el estándar
en los discos duros actuales, en los cuales, la mayor parte de la circuitería de control del disco duro se
integra en la propia unidad. ATA es un conjunto de reglas que deben cumplir todos los dispositivos IDE.
En la práctica, tanto IDE como ATA viene a hacer referencia al mismo estándar y al mismo concepto. La
especificación IDE/ATA es la base original sobre la que se han desarrollado las especificaciones
posteriores. La interfaz IDE/ATA original, utilizada en los originales IBM AT, era una interfaz de 16 bits.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 36
II: TECNOLOGÍA BÁSICA
El ATA es una interfaz estandarizada por la ANSI (American Nacional Standard Institute) cuyas
características principales son las siguientes:
- Dos discos duros. La especificación ATA original sólo da soporte a dos discos duros ambos
montados sobre un mismo canal, y configurados como maestro (master) y esclavo (slave) res-
pectivamente.
- Modos de transferencia. El ATA soporta los modos de transferencia PIO (Entrada/Salida Pro-
gramada) en modo O, 1 y 2. PIO es entrada/Salida programable. Es el componente encargado
de ejecutar las instrucciones dirigidas
- Modos DMA. También soporta la transferencia en modo DMA 0, 1 y 2 y DMA multiword en
modo 0. DMA es Acceso Directo a Memoria. Es el componente integrado en un periférico que
libera al procesador en la tarea de transferir datos entre dispositivos y memoria. Debido a esto
no requiere atención del procesador (a diferencia de PIO).
Inicialmente, el estándar ATA fue desarrollado para ser empleado con discos duros. Pero,
posteriormente, se desarrollaron otros dispositivos que hacían uso de la misma interfaz, por lo que
surgieron nuevos estándares para darles soporte. Entre ellos se puede destacar:
- ATA/100, ATA/133. Se denominan también UltraDMN100 y UltraDMN133, respectivamente.
Hacen referencia a la máxima tasa de transferencia de datos teórica que pueden soportar los
discos duros conectados a esa placa base, que viene a ser de 100 y 133 MB/seg
respectivamente, de ahí las denominaciones. En función de que un chipset sea más ó menos
reciente soporta un modo de transferencia u otro.
- UltraDMA/33 (Ultra ATA-33) totalmente compatible con todos los estándares anteriores. Es una
extensión de la interfaz de disco duro ATA que, teóricamente, permite velocidades de
transferencia de datos en ráfagas de 33,3 Megabytes (MB) por segundo. Esto duplica la
velocidad del estándar ATA-2/ATA-3 de 16,6 MB por segundo. El uso de Ultra DMA puede
provocar un incremento en el rendimiento del 40 por ciento sobre el estándar ATA-2/ATA-3. La
mejora del rendimiento es el resultado de la mejora en la velocidad de datos de la propia
unidad.
- ATAPI (AT AttachmentPacket Interface) es un estándar que permite implementar dispositivos
con características propias de SCSI sobre interfaces ATA, tales como lectores de CD-ROM y
unidades de cinta. Para el correcto funcionamiento de los dispositivos ATAPI se requiere el uso
de drivers específicos.
Lo que determina poder usar PIO o DMA es la BIOS. La BIOS juega un papel muy importante en el
funcionamiento de un disco duro. Proporciona, además, los servicios de acceso al disco duro mediante
una interfaz común para acceder a los discos duros, sean del tipo que sean, lo que ofrece una gran
comodidad y sencillez para las aplicaciones. Por otra parte, la BIOS permite la detección y configuración
de los discos duros.
Cuando una aplicación accede al disco duro, generalmente lo hace a través de la BIOS, mediante la
interrupción 13h (19 en notación decimal). Esta interrupción es estándar y se ha venido utilizando en el
PC desde hace mucho tiempo para el acceso a disco duro. El uso de la interrupción 13h necesita que,
previamente, se le proporcione determinada información, como la cabeza, el cilindro y el sector exactos
a los que se va a acceder para que las rutinas de acceso puedan realizar dicho acceso. Concretamente,
la interrupción 13h utiliza 24 bits para determinar la zona del disco duro a la que se va a acceder:
- 10 bits para especificar el número de cilindro, lo que permite un total de 1.024 cilindros.
- 8 bits para especificar el número de cabeza, lo que permite un total de 256 cabezas.
- 6 bits para indicar el número de sector, lo que permite un total de 63 sectores.
Combinando estos parámetros, se tiene que la BIOS puede soportar discos que contengan un máximo
de 16,5 millones de sectores, con 512 bytes por sector, lo que supone un máximo de 7.875 Gb de
información. Los discos de mayor capacidad que ésta necesitan un sistema operativo que sobrepase
esta limitación de la BIOS sin utilizar la interrupción 13h, ó bien una BIOS que soporte las extensiones
añadidas a la interrupción 13h que también permite romper esta barrera.
EIDE (Enhanced IDE):
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 37
II: TECNOLOGÍA BÁSICA
Esta interfaz, propuesta también por Western Digital, logra una mejora de flexibilidad y prestaciones.
Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a
partir de los 10 Megas por segundo. Permite instalar 4 unidades al mismo tiempo (frente a dos del
interfaz IDE). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un
menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo
espacio.
SCSI (Small Computer System Interface):
Los discos duros tipo SCSI se han utilizado, sobre todo, debido a que se pueden conectar siete
dispositivos por controladora y que la velocidad de transferencia es considerablemente más alta que la
de los discos duros IDE. La evolución de la interfaz SCSI ha sido la siguiente:
- SCSI-1. Corresponde al bus SCSI original. Se implementó en 1986, permitía la conexión de un
máximo de 7 dispositivos de 8 bits con una velocidad máxima de 5 Mb/s.
- SCSI-2. Esta especificación fue una ampliación del SCSI-I. Se terminó de desarrollar en 1992 y
es compatible con los dispositivos anteriores. Permite conectar dispositivos tales como unidades
de CD-ROM escáneres. Asimismo, se incluyen dos nuevas especificaciones: Fast SCSJ y Wide
SCSI que permitían duplicar la velocidad y el número de dispositivos, respectivamente. Las uni-
dades disponen de un bus de 16 bits y se diseñaron nuevos conectores más compactos.
- SCSI-3. Estas especificaciones, aún no se han terminado de diseñar completamente, aunque
entre sus nuevas mejoras está el aumento del número de dispositivos hasta 32. También da
soporte a canales de fibra y aumenta las prestaciones con la especificación "Ultra".
Con una interfaz SCSI se pueden conectar hasta 7 dispositivos, o bien 15 si es Wide SCSI. Los
dispositivos SCSI pueden ser discos duros, lectores de CD-ROM o DVD-ROM, escáneres, etc.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 38
II: TECNOLOGÍA BÁSICA
Por el contrario en cada puerto EIDE, los dos dispositivos conectados tienen que turnarse en la
utilización del bus.
- SCSI es más caro que IDE y algo más complejo de configurar.
SATA (Serial ATA)
Es una interfaz de transferencia de datos en serie que permite la conexión de dispositivos de
almacenamiento y ópticos. Fue diseñada para sustituir a las anteriores ATA y EIDE.
La primera versión ofrecía transferencias de datos de 150Mb/s (frecuencia 1500Mhz), mejorada en las
sucesivas versiones de SATA v2.0 con 300Mb/s (frecuencia 3000Mhz) y SATA v3.0 (frecuencia
6.000Mhz) con 600Mb/s.
Ofrece nuevas características: reducción del número de cables (tan solo 7), mejor y más eficiente
transferencia de datos y conexión y conexión/desconexión rápida. Con cada nueva versión han ido
aumentando las prestaciones, mejorando la calidad del servicio de video streaming y las interrupciones
de alta prioridad. Por otra parte, las altas tasas de transferencia de datos requieren un mayor consumo
de potencia.
SATA es una arquitectura "punto a punto", es decir, la conexión entre puerto y dispositivo es directa.
Cada dispositivo se conecta directamente a un controlador SATA y, por tanto, disfruta de todo el ancho
de banda de la conexión.
Una variante de esta interfaz (año 2004) es el eSata (external SATA) en directa competencia con USB y
FireWire. Actualmente, la mayoría de las placas bases han empezado a incluir conectores eSATA.
También es posible usar adaptadores de bus o tarjetas PC-Card y CardBus para portátiles que aún no
integran el conector.
SAS (Serial Attached SCSI):
Es una interfaz de transferencia de datos en serie, sucesora del SCSI paralelo, aunque sigue utilizando
comandos SCSI para interaccionar con los dispositivos SAS. Proporciona una arquitectura punto a punto
más simple y robusta que su antecesora paralela, un mejor rendimiento (de 3Gb a 12 Gb) y mayor
escalabilidad.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 39
II: TECNOLOGÍA BÁSICA
Latencia: cada pista en un disco duro contiene múltiples sectores como ya hemos comentado
anteriormente. Una vez que la cabeza de Lectura/Escritura encuentra la pista correcta, las cabezas
permanecen en el lugar, e inactivas hasta que el sector pasa por debajo de ellas. Este tiempo de espera
se llama latencia.
Command Overhead: tiempo que le toma a la controladora procesar un requerimiento de datos.
Transferencia: se refiere al tiempo en el que los datos pueden ser leídos o escritos en el drive, que es
afectado por la velocidad de los discos, la densidad de los bits de datos y el tiempo de acceso.
f) Fabricantes: Western Digital, Maxtor, Samsung, Hitachi, Fujitsu, Quantum, Toshiba, Seagate, Zac.
Una lectora de CD es un dispositivo óptico electrónico que permite la lectura de estos CD-ROM mediante el empleo de un
haz de un rayo láser y la posterior transformación de estos en impulsos eléctricos que la computadora interpreta. Está
compuesta por los siguientes elementos:
a) Un cabezal, en el que hay un emisor de rayos láser, que dispara un haz de luz hacia la superficie del disco, y
que tiene también un fotorreceptor (foto-diodo) que recibe el haz de luz que rebota en la superficie del disco
b) Un motor que hace girar el disco compacto, y otro que mueve el cabezal radialmente. Con estos dos
mecanismos se tiene acceso a todo el disco y se regula la velocidad de acceso (CLV o CAV, consultar más
adelante)
c) Un DAC (Digital to Analogical Converter), en el caso del CD-audio, y en casi todos los CD-ROM. Es decir, un
convertidor de señal digital a señal analógica, la cual es enviada a los altavoces. DAC’s también hay en las
tarjetas de sonido, que en su gran mayoría, tienen también un ADC (Analogical to Digital Converter), que hace
el proceso inverso, de analógico al digital.
Los CD-ROM’s están escritos por grabadoras de CD, dispositivo similar a la lectora de CD, con la diferencia que hace lo
contrario a la lectora, es decir, transformar impulsos eléctricos en un haz de luz láser que almacenan en el CD datos
binarios en forma de pozos (pits) y valles (lands)
Para esto, la grabadora crea los pozos y los valles cambiando la reflectividad de la superficie del CD. Los primeros son
zonas donde el láser quema la superficie con mayor potencia, creando ahí una zona de baja reflectividad. Los segundos,
son justamente lo contrario, son zonas que mantienen su alta reflectividad inicial, justamente porque la potencia del láser
se reduce.
Uno de los parámetros más importantes para medir la calidad de un CD-ROM es el tiempo de acceso. Este es la cantidad
de tiempo que le lleva al dispositivo, desde que comienza el proceso de lectura, hasta que los datos comienzan a ser
leídos y se calcula como la conjunción:
a) La latencia: tiempo que tarda en pasar el dato por debajo del cabezal de lectura.
b) El tiempo de búsqueda: tiempo que lleva mover el cabezal de lectura hasta la posición del disco en la que están
los datos.
c) El tiempo de cambio de velocidad, con alguno de estos dos tipos:
CLV (Constant Linear Velocity, Velocidad Lineal Constante): la velocidad de giro del motor dependerá
de la posición que el cabezal de lectura ocupe en el disco, más rápido cuanto más cerca del centro.
Esto implica un tiempo de adaptación para que este motor tome la velocidad adecuada una vez que
conoce el punto en el que se encuentran los datos.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 40
II: TECNOLOGÍA BÁSICA
CAV (Constant Angular Velocity, Velocidad Angular Constante): velocidad variable según la posición del
dato. En este caso la velocidad de rotación es siempre la misma, así que la velocidad de acceso se verá
beneficiada por esta característica y será algo menor.
Este tiempo de acceso depende directamente de la velocidad de la unidad de CD-ROM, ya que los componentes de ésta
también dependen de ella. La razón por la que el tiempo de acceso es mayor en los CD-ROM respecto a los discos duros
se encuentra en su construcción, ya que su disposición de cilindros reduce considerablemente los tiempos de búsqueda.
Por su parte, los CD-ROM no fueron inicialmente ideados para el acceso aleatorio, sino para el secuencial de los CD de
audio. Los datos se disponen en espiral en la superficie del disco, y el tiempo de búsqueda es por lo tanto mucho mayor.
Un CD-R es un formato de disco compacto grabable (Compact Disc Recordable, Disco Compacto Grabable). Se pueden
grabar en varias sesiones, sin embargo, la información agregada no puede ser borrada ni sobrescrita, en su lugar, se
debe usar el espacio libre que dejó la sesión inmediatamente anterior.
Actualmente las grabadoras llegan a grabar CD-R a 52x, unos 7.800 KB/s. Para muchos ordenadores es difícil mantener
esta tasa de grabación y, por ello, las grabadoras tienen sistemas que permiten retomar la grabación ante un corte en la
llegada de datos.
La capacidad total de un CD-R suele ser:
650 MB = 681,57 millones de bytes
700 MB = 734 millones de bytes. El más común.
800 MB = 838 millones de bytes.
900 MB = 943 millones de bytes.
Un CD-RW es un formato de disco compacto regrabable ( Compact Disc ReWritable. Disco Compacto Regragable). Se
trata de un soporte digital óptico utilizado para almacenar cualquier tipo de información. Este tipo de CD puede ser
grabado múltiples veces, ya que permite que los datos almacenados sean borrados. Fue desarrollado conjuntamente en
1980 por las empresas Sony y Philips, y comenzó a comercializarse en 1982. Hoy en día, tecnologías como el DVD han
desplazado en parte esta forma de almacenamiento, aunque su uso sigue vigente.
En el disco CD-RW la capa que contiene la información está formada por una aleación cristalina de plata, indio, antimonio
y telurio. Esta aleación presenta una interesante cualidad: cuando es calentada hasta cierta temperatura, al enfriarse se
convierte en cristalina; pero si al calentarse se alcanza una temperatura aún más elevada, al enfriarse queda con
estructura amorfa. La superficie cristalina permite que la luz se refleje bien en la zona reflectante, mientras que la zona
con estructura amorfa absorbe la luz. Por ello el CD-RW utiliza tres tipos de luz:
Láser de escritura: se usa para escribir. Calienta pequeñas zonas de la superficie para que el material se torne
amorfo.
Láser de borrado: se usa para borrar. Tiene una intensidad menor que el de escritura con lo que se consigue
el estado cristalino.
Láser de lectura: se usa para leer. Tiene menor intensidad que el de borrado. Se refleja en zonas cristalinas y
se dispersa en las amorfas.
DVD
Al comienzo de los años 90, se estaban desarrollando dos estándares de almacenamiento óptico de alta densidad: uno
era el Multimedia Compact Disc (MMCD), apoyado por Philips y Sony; el otro era el Super Density Disc (SD), apoyado por
Toshiba, Time-Warner, Matsushita Electric, Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC.
Philips y Sony abandonaron su formato MMCD y acordaron con Toshiba adoptar el SD, pero con una modificación: la
adopción del EFM (Eight-to-Fourteen Modulation) Plus de Philips, creado por Kees Immink, que a pesar de ser un 6%
menos eficiente que el sistema de codificación de Toshiba (de ahí que la capacidad sea de 4,7 GB en lugar del los 5 GB
del SD original), cuenta con la gran ventaja de poseer gran resistencia a los daños físicos en el disco (como arañazos o
huellas).
El resultado fue la creación del Consorcio del DVD, fundada por las compañías anteriores, y la especificación de la versión
1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el consorcio DVD (DVD
Consortium) fue reemplazado por el foro DVD (DVD Forum)
Un DVD tiene una cuantificación de 24 bits, una velocidad de muestreo de 48MHz y un rango dinámico de 144 dB. El
disco puede tener una o dos caras (estos últimos apenas se utilizan), y una o dos capas de datos por cada cara (el
número de caras y capas determina la capacidad del disco). Los de capa simple tienen una capacidad de 4,7Gb y los de
doble capa 8,5Gb. Esta capacidad esta expresada en base decimal (la proporcionada por los fabricantes) pero la
capacidad real sería, por ejemplo para los de simple cara, de aproximadamente 4,38 gigabytes reales en base binaria o
gibibytes (se lo conoce como DVD-5),
El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de errores
utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed Solomon - Product Code (RS-
PC), así como la codificación de línea EMF, que fue reemplazada por una versión más eficiente, EFM Plus, con las
mismas características que el EFM clásico. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que
emplea una tercera capa de corrección de errores.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 41
II: TECNOLOGÍA BÁSICA
A diferencia de los discos compactos, donde el sonido se guarda de manera fundamentalmente distinta que los datos, un
DVD correctamente creado siempre contendrá datos siguiendo los sistemas de archivos UDF (Universal Disk Format), con
estándar ISO 9660 publicado en 1986 que define el sistema de archivos de un CD. Igualmente, puede usar Joliet,
extensión del estándar ISO 9660 especificado por Microsoft.
Los DVD se pueden clasificar:
Según su contenido:
o DVD-Video: películas (vídeo y audio).
o DVD-Audio: audio de alta fidelidad.
o DVD-Data: todo tipo de datos.
Según su capacidad de regrabado:
o DVD-ROM: sólo lectura, manufacturado con prensa.
o DVD-R y DVD+R: grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de
grabación y de codificación de la información: los +R los pozos son 1’s lógicos mientras que en los -R
los pozos son 0’s lógicos.
o DVD-RW y DVD+RW: regrabable.
o DVD-RAM: regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los da-
tos siempre activa tras completar la escritura.
o DVD+R DL (dual layer): grabable una sola vez de doble capa
o El DVD-ROM almacena desde 4,7 GB hasta 17 GB.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 42
II: TECNOLOGÍA BÁSICA
Actualmente, la mayor parte de unidades DVD tienen una velocidad de rotación constante (CAV). La máxima velocidad de
transferencia de datos especificada para una cierta unidad y disco se alcanza, solamente, en los extremos del disco. Por
tanto, la velocidad media de la unidad lectora equivale al 50-70% de la velocidad máxima para la unidad y el disco.
Aunque esto puede parecer una desventaja, tales unidades tienen un menor tiempo de búsqueda, pues nunca deben
cambiar la velocidad de rotación del disco
Blu-ray
El Blu-ray es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para
vídeo de gran definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 25Gb a
una capa y a 50Gb a doble capa, aunque existen de mayor capacidad. Este formato se impuso a su competidor, el HD
DVD (abandonado en el año 2008), en la guerra de formatos iniciada para cambiar el estándar DVD.
El disco Blu-ray hace uso de un rayo láser de color azul con una longitud de onda de 405 nanómetros, a diferencia del
láser rojo utilizado en lectores de DVD, que tiene una longitud de onda de 650 nanómetros. Esto, junto con otros
avances tecnológicos, permite almacenar sustancialmente más información que el DVD en un disco de las mismas
dimensiones y aspecto externo. Blu-ray obtiene su nombre del color azul del rayo láser (blue ray significa ‘rayo azul’).
El DVD ofreció en su momento una alta calidad, ya que era capaz de dar una resolución de 720x480 (NTSC) o 720x576
(PAL), lo que es ampliamente superado por la capacidad de alta definición ofrecida por el Blu-ray, que es de 1920x1080
(1080p).
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 43
II: TECNOLOGÍA BÁSICA
En las memorias flash de tipo NOR, cuando los electrones se encuentran en FG, modifican (prácticamente anulan) el
campo eléctrico que generaría CG en caso de estar activo. De esta forma, dependiendo de si la celda está a 1 ó a 0, su
campo eléctrico existe o no. Entonces, cuando se lee la celda poniendo un determinado voltaje en CG, la corriente
eléctrica fluye o no en función del voltaje almacenado en ella. La presencia/ausencia de corriente se detecta e interpreta
como un 1 ó un 0, reproduciendo así el dato almacenado. En los dispositivos de celda multinivel, se detecta la intensidad
de la corriente para controlar el número de electrones almacenados en FG e interpretarlos adecuadamente.
Para programar una celda de tipo NOR (asignar un valor determinado) se permite el paso de la corriente desde el
terminal fuente al terminal sumidero, entonces se coloca en CG un voltaje alto para absorber los electrones y retenerlos
en el campo eléctrico que genera. Este proceso se llama hot-electrón injection. Para borrar (poner a “1”, el estado
natural del transistor) el contenido de una celda, expulsar estos electrones, se emplea la técnica de Fowler-Nordheim
tunnelling, un proceso de tunelado mecánico – cuántico. Esto es, aplicar un voltaje inverso bastante alto al empleado
para atraer los electrones, convirtiendo al transistor en una pistola de electrones que permite, abriendo el terminal
sumidero, que los electrones lo abandonen.. Este proceso es el que provoca el deterioro de las celdas, al aplicar sobre un
conductor tan delgado un voltaje tan alto.
Es necesario destacar que las memorias flash están subdivididas en bloques (en ocasiones llamados sectores) y por lo
tanto, para el borrado, se limpian bloques enteros para agilizar el proceso, ya que es la parte más lenta del proceso. Por
esta razón, las memorias flash son mucho más rápidas que las EEPROM convencionales, ya que borran byte a byte. No
obstante, para reescribir un dato es necesario limpiar el bloque primero para después reescribir su contenido.
Las memorias flash basadas en puertas lógicas NAND funcionan de forma ligeramente diferente: usan un túnel de
inyección para la escritura y para el borrado un túnel de ‘soltado’. Estas memorias tienen, además de la evidente base en
otro tipo de puertas, un coste bastante inferior y unas diez veces más resistencia a las operaciones, pero sólo permiten
acceso secuencial (más orientado a dispositivos de almacenamiento masivo), frente a las memorias flash basadas en
NOR que permiten lectura de acceso aleatorio. Sin embargo, han sido las NAND las que han permitido la expansión de
este tipo de memoria, ya que el mecanismo de borrado es más sencillo (aunque también se borre por bloques) lo que ha
proporcionado una base más rentable para la creación de dispositivos de tipo tarjeta de memoria. Las populares
memorias USB o también llamadas Pendrives, utilizan memorias flash de tipo NAND.
Para comparar estos tipos de memoria, se consideran los diferentes aspectos de las tradicionalmente valorados.
La densidad de almacenamiento de los chips es actualmente bastante mayor en las memorias NAND.
El coste de NOR es mucho mayor.
El acceso NOR es aleatorio para lectura y orientado a bloques para su modificación. Sin embargo, NAND ofrece
tan solo acceso directo para los bloques y lectura secuencial dentro de los mismos.
En la escritura de NOR se puede llegar a modificar un solo bit. Esto destaca con la limitada reprogramación de las
NAND que deben modificar bloques o palabras completas.
La velocidad de lectura es muy superior en NOR (50-100 ns) frente a NAND (10 µs de la búsqueda de la página +
50 ns por byte).
La velocidad de escritura para NOR es de 5 µs por byte frente a 200 µs por página en NAND.
La velocidad de borrado para NOR es de 1 s por bloque de 64 KB frente a los 2 ms por bloque de 16 KB en NAND.
La fiabilidad de los dispositivos basados en NOR es realmente muy alta, es relativamente inmune a la corrupción
de datos y tampoco tiene bloques erróneos frente a la escasa fiabilidad de los sistemas NAND que requieren co-
rrección de datos y existe la posibilidad de que queden bloques marcados como erróneos e inservibles.
En resumen, los sistemas basados en NAND son más baratos y rápidos, pero carecen de una fiabilidad que los haga
eficientes, lo que demuestra la necesidad imperiosa de un buen sistema de archivos. Dependiendo de qué sea lo que se
busque, merecerá la pena decantarse por uno u otro tipo.
046b.2.2.1.4. Cinta magnética.
La cinta magnética es un soporte de almacenamiento de información que se graba en pistas sobre una banda plástica
con un material magnetizado, generalmente óxido de hierro o algún cromato. El tipo de información que se puede
almacenar en las cintas magnéticas es variado, como vídeo, audio y datos.
Estos dispositivos informáticos de almacenamiento masivo de datos son utilizados, principalmente, para respaldo de
archivos y para el proceso de información de tipo secuencial, como en la elaboración de nóminas de las grandes
organizaciones públicas y privadas. Al almacén donde se guardan estos dispositivos se le denomina cintoteca.
La grabación magnética conlleva registrar sobre la plástica impulsos magnéticos en forma de señales análogas o digitales
por codificar, de forma que la información puede ser accedida repetidamente. Una característica de este medio es que la
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 44
II: TECNOLOGÍA BÁSICA
cabeza codificadora debe estar en contacto directo con la superficie magnética y provocar un movimiento constante para
ser leída a través de movimiento mecánico, es decir, manualmente o a través de un motor.
Los métodos de grabación son una forma de clasificar la tecnología y cada cambio ha reutilizado la cinta magnética para
aprovechar el medio de almacenamiento:
Grabación Lineal: con este tipo de grabación de señales análogas y digitales registradas en la cinta magnética
como audio o datos codificados, se puede observar en las primeras cintas la traza de la señal en forma de línea
horizontal, de acuerdo a las necesidades de ingenieros en audio video o datos. Hubo variantes como la grabación
en pistas que comprenden múltiples trazas horizontales grabadas con diferentes cabezas que podían ser
reproducidas al mismo tiempo o el Lineal serpentine que, en el momento de llegar al final de la cinta, la cabeza
graba en dirección opuesta trazando una segunda línea paralela, esto requirió contar con una mayor capacidad de
almacenamiento.
Grabación Transversal: para aprovechar la superficie grabable de la cinta magnética se diseñó un tambor
giratorio, con cuatro cabezas de grabación, para almacenar video. Éste requiere mayor cantidad de información
almacenada a lo ancho de la cinta, mientras las cinta estaban en constante movimiento, cada pista está
ligeramente inclinada. Muy pocos equipos utilizaron este método de grabación, como las grabadoras Mark I y
Mark II de Ampex, que nombraron esta tecnología de grabación como "Quádruplex”
Grabación Helical: para perfeccionar el modo de grabación transversal se redujeron de cuatro cabezas a dos que
rotan en diferentes ángulos hacia la dirección en la que la cinta se transporta. Para lograr una secuencia de
grabación continua y mayor superficie de cinta aprovechada, se pueden apreciar las trazas de la cinta grabadas
diagonalmente a lo largo de ésta.
046b.2.2.2 Periféricos de Entrada
Estos periféricos son los que permiten introducir datos (de distintas fuentes) a la computadora para su posterior
tratamiento por parte de la CPU. Entre los más importantes se pueden destacar: Teclado, Ratón, Escáner, Pantalla táctil,
Lápiz óptico, Cámara web, Dispositivos para juegos (Joystick, Gamepad). Micrófono, Conversor Analógico digital, Escáner
de código de barras. A continuación se describe con más detalle alguno de ellos.
046b.2.2.2.1. Teclado
Un teclado es un periférico o dispositivo que permite introducir información en una computadora. Está formado por una
matriz de interruptores, cada uno de los cuales envía una señal al PC cuando la tecla correspondiente es pulsada.
Básicamente, existen dos tipos de teclados, diferenciados por la tecnología que emplean para responder ante la pulsación
de sus teclas: teclados mecánicos y los de membrana de goma. Los teclados mecánicos emplean un sistema mecánico
basado en muelles, muy fiable y de larga vida; y se distinguen fácilmente por su tacto más duro y su click característico
al pulsar las teclas.
Las teclas de un teclado están conectadas en forma de matriz, de manera que cada vez que se pulsa una se envía el
valor de fila y columna al circuito microcontrolador del teclado, generando el correspondiente código (scan code)
resultado de la pulsación. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al
administrador de teclado, que no es más que un programa de la BIOS cuya función es determinar qué carácter le
corresponde a la tecla pulsada, comparándolo con una tabla de caracteres que existe en el kernel. Una vez identificada,
se genera una interrupción por hardware y se envían los datos al procesador. El microcontrolador también posee cierto
espacio de memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan
leer a causa de la velocidad de tecleo del usuario
El microcontrolador está montado sobre una placa de circuito impreso en el interior del teclado y es el encargado de
interpretar las señales eléctricas que recibe a consecuencia de la pulsación de las teclas, gracias a un programa
implantado en su firmware. Este firmware, con el tiempo se ha vuelto más sofisticado, de tal forma que los fabricantes
implementan teclas programables, para lo cual el teclado incorpora una memoria ROM interna que permite almacenar la
programación de determinadas teclas. En otros casos, el control de todas estas funciones programables se hace
directamente por software.
Igualmente, el microcontrolador del teclado es la parte responsable de negociar con el controlador de teclado de la placa
base, lo que permite entre otras cosas, detectar si el teclado está conectado o no, así como controlar los diferentes
indicadores LED del mismo. Los dos controladores, el microcontrolador del teclado y el controlador de teclado de la placa
base, se comunican a través del cable del teclado, de tipo AT o PS/2, de forma asíncrona.
Por último, cabe destacar las siguientes variaciones de teclados sobre los ya mencionados:
Teclado ergonómico: diseñados para dar una mayor comodidad al usuario permitiéndole mantener una la postura
natural de las manos a la hora de trabajar con el ordenador, ayudándole a tener una posición más relajada de los
brazos.
Teclado multimedia: añade teclas especiales de acceso directo que llaman a algunos programas en el
computador, como pueden ser el programa de correo electrónico, la calculadora, el reproductor multimedia.
Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el computador y el periférico se
realiza a través de rayos infrarrojos, ondas de radio o mediante bluetooth.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 45
II: TECNOLOGÍA BÁSICA
Teclado flexible: estos teclados son de plástico suave o silicona y se puede doblar sobre sí mismos. Durante su
uso, pueden adaptarse a superficies irregulares, y son más resistentes a los líquidos que los teclados estándar.
También pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser
completamente sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser
desinfectados.
046b.2.2.2.2. Ratón
En el comienzo del desarrollo del PC, el dispositivo de entrada más habitual era el teclado. A finales de los ochenta, sin
embargo, entraba en escena otro dispositivo apuntador usado para el manejo del entorno gráfico del computador que se
fue extendiendo cada vez más hasta formar parte de la configuración habitual de cualquier PC: el ratón ( mouse).
Las tecnologías que se usan para los ratones son las siguientes:
Mecánica: es la más habitual, y su mecanismo consta de una bola de acero recubierta de goma que al rotar por
efecto del arrastre del ratón mueve unos rodillos, uno para el desplazamiento horizontal y otro para el vertical. Un
tercer rodillo se encarga de mantener la bola en contacto permanente. Así, en función de esta información el
ratón detecta la dirección del movimiento.
Optoelectrónica: es una variante que carece de la bola de goma, evitando el frecuente problema de la
acumulación de suciedad en el eje de transmisión. Ello debido a que, por sus características ópticas, es menos
propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente.
Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra, y
detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. Puede
ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una
pulgada); a menor cifra peor actuará el sensor de movimientos. En superficies pulidas o sobre determinados
materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso
de una alfombrilla o superficie que, para este tipo, no debe ser brillante y mejor si carece de grabados
multicolores que puedan "confundir" la información luminosa devuelta.
Láser: este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y
los jugadores de videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero
el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2.000 ppp, lo que se
traduce en un aumento significativo de la precisión y sensibilidad.
Trackball: el concepto de trackball es una idea que parte del hecho de que se debe mover el puntero, no el
dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima, se
pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más (no toda la mano como en las
tecnologías mencionadas anteriormente). De esta manera se reduce el esfuerzo y la necesidad de espacio,
además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo,
no les termina de resultar realmente cómodo. Este tipo ha sido muy útil, por ejemplo, en la informatización de la
navegación marítima.
En cuanto a la conexión de los ratones al PC existen dos tipos:
Por cable: es el formato más popular y económico, sin embargo, existen multitud de características añadidas que
pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente
se distribuyen con dos tipos de conectores posibles, tipo USB y PS/2 (en modelos antiguos también era posible
usar el puerto serie). La velocidad de transmisión de datos por cable entre el ratón y el ordenador es óptima en
aplicaciones (juegos) que requieren de una gran precisión.
Inalámbricos: en este caso, el dispositivo carece de un cable que lo comunique con el computador, en su lugar
utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que
produce el ratón mediante baterías. El receptor normalmente se conecta al ordenador a través de un puerto USB
o PS/2. Según la tecnología inalámbrica empleada pueden distinguirse varias posibilidades:
- Radio Frecuencia (RF): es el tipo más común y económico. Funciona enviando una señal a una frecuencia
de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE
802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros
equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.
- Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos,
popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía
celular. A diferencia de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como
el receptor, deben estar en una misma línea visual de contacto directo ininterrumpido para que la señal
se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a desaparecer del mercado.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 46
II: TECNOLOGÍA BÁSICA
- Bluetooth (BT): esta tecnología es la más reciente como transmisión inalámbrica (estándar IEEE
802.15.1). Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar
Bluetooth).
Finalmente, el ratón presenta dos o tres interruptores, uno por cada botón, y un microcontrolador que interpreta las
señales de los sensores y los interruptores y se encarga de trasladarlas en forma de paquetes de datos al PC a través del
puerto al que esté conectado el ratón.
046b.2.2.2.3. Escáner
Un escáner es un dispositivo de entrada en el ordenador. Hace una captura de una imagen, documento de texto o
fotografía, y lo transfiere en bits de información que pueden ser procesados por un ordenador. De la misma manera, una
imagen de un documento escaneado, puede ser convertido en un formato editable con un software OCR ( Optical
Character Recognition) que identifica automáticamente símbolos o caracteres que pertenecen a un determinado alfabeto
a partir de una imagen.
El software de reconocimiento del OCR usa un algoritmo con las siguientes 4 etapas:
1. Binarización
La mayor parte de algoritmos de OCR parten como base de una imagen binaria (dos colores), por lo tanto, es
conveniente convertir una imagen de escala de grises (o una de color), en una imagen en blanco y negro,
conservando las propiedades esenciales de la imagen. Una forma de hacerlo es mediante el histograma de la
imagen, donde se muestra el número de píxeles (puntos de color) para cada nivel de grises que aparece en la
imagen. Para “binarizarla” se tiene que elegir el umbral adecuado, a partir del cual todos los píxeles que no lo
superen se convertirán en negro y el resto en blanco.
Mediante este proceso se obtiene una imagen en blanco y negro donde quedan claramente marcados los
contornos de los caracteres y símbolos que contiene la imagen. A partir de aquí, se pueden aislar las partes de
la imagen que contienen texto.
2. Fragmentación o segmentación de la imagen
Este es el proceso más costoso aunque necesario para el posterior reconocimiento de caracteres. La
segmentación de una imagen implica la detección mediante procedimientos estadísticos de etiquetado
determinista o estocástico de los contornos o regiones de la imagen, basándose en la información de intensidad
o información espacial.
Permite la descomposición de un texto en diferentes entidades lógicas, que han de ser suficientemente
invariables, para ser independientes del escritor, y suficientemente significativas para su reconocimiento.
No existe un método genérico para llevar a cabo esta segmentación de la imagen que sea lo suficientemente
eficaz para el análisis de un texto. Aunque, las técnicas más utilizadas son variaciones de los métodos basados
en proyecciones lineales.
Una de las técnicas más clásicas y simples para imágenes de niveles de grises consiste en la determinación de
los modos o agrupamientos (“clusters”) a partir del histograma, de tal forma que permitan una clasificación o
“umbralización” de los píxeles en regiones homogéneas.
Otros métodos son: el detector de contornos de Sobel, el operador de Kirsch, el detector de contornos de Marr-
Hilderth o el detector de contornos de Canny.
3. Adelgazamiento de las componentes
Una vez aislados los componentes conexos de la imagen, se les tendrá que aplicar un proceso de
adelgazamiento para cada una de ellas. Este procedimiento consiste en ir borrando sucesivamente los puntos de
los contornos de cada componente de forma que se conserve su tipología.
La eliminación de los puntos ha de seguir un esquema de barridos sucesivos para que la imagen continúe,
teniendo las mismas proporciones que la original, y así conseguir que no quede deforme.
Se tiene que hacer un barrido en paralelo, es decir, señalar los píxeles borrables para eliminarlos todos a la vez.
Este proceso se lleva acabo para hacer posible la clasificación y reconocimiento, simplificando la forma de los
componentes.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 47
II: TECNOLOGÍA BÁSICA
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 48
II: TECNOLOGÍA BÁSICA
o EPP). Por ejemplo, para una imagen A4 que puede ocupar 25 MB o más, resulta evidente que un escáner
SCSI es la opción a utilizar para escanear imágenes grandes con una cierta resolución y calidad de color.
La otra cualidad de SCSI incide también en la velocidad, aunque de otra forma. No se trata sólo de que se
puedan transmitir 10 ó 20 MB/s, sino que además dicha transferencia se realiza sin que el microprocesador
realice apenas trabajo; esto permite ir escaneando imágenes mientras realizamos otras tareas, agilizando
mucho la tarea. En un escáner paralelo resulta muy normal que, mientras se realiza el escaneado, el
rendimiento del ordenador baje tanto que no merezca la pena intentar hacer nada hasta que haya finalizado el
proceso.
La única desventaja de los escáneres SCSI (y en general todos los dispositivos SCSI) es su precio elevado,
justificable por el aumento de prestaciones que suponen y por la necesidad de incluir una tarjeta controladora
SCSI, ya que muy pocos ordenadores traen una incorporada (mientras que todos tienen puerto paralelo). Para
economizar un poco, en muchas ocasiones dicha tarjeta es un modelo de prestaciones reducidas, capaz de
controlar únicamente el escáner y no los 7 ó 15 dispositivos que pueden manejar las tarjetas normales.
Puerto USB
E lo último en escáneres; tanto, que hace poco sencillamente no existía ningún escáner en el mercado con
este tipo de conexión. Los puertos USB están presentes en la mayoría de ordenadores modernos.
En general, se puede decir que los escáneres USB se sitúan en un punto intermedio de calidad/precio. La
velocidad de transmisión ronda los 1,5 MB/s, algo más que el puerto paralelo pero bastante menos que el
SCSI. La facilidad de instalación es casi insuperable, ya que se basa en Plug and Play (enchufar y listo) que
casi siempre funciona y todos los ordenadores modernos tienen el USB incorporado.
En cuanto a los estándares de los interfaces existentes en el mercado de PC se pueden mencionar:
TWAIN (Technology Without An Interesting Name): es un estándar destinado a la adquisición de imágenes de
un escáner de imagen: una API de captura de imágenes para los sistemas operativos Microsoft Windows y
Apple Macintosh.
El estándar fue liberado por primera vez en 1992. Actualmente está ratificado en la versión 2.0 el 28 de
noviembre de 2005 y es mantenido por el Grupo de Trabajo TWAIN.
TWAIN se utiliza normalmente como una interfaz entre la aplicación de procesado de imágenes y un escáner o
cámara digital. Originalmente se utilizaba para uso doméstico o de bajo coste. Actualmente se usa también
para el escaneado de gran volumen.
ISIS (Image and Scanner Interface Specification): creado por Pixel Translations (hoy EMC Captiva), en 1990,
que utiliza SCSI-II, se emplea en máquinas grandes destinadas a empresas
ISIS es un estándar abierto para el control de escáneres y un entorno de trabajo completo para procesamiento
de imágenes. Está soportado por un amplio número de aplicaciones y vendedores de escáneres, llegando a
convertirse rápidamente en un estándar industrial de facto. ISIS permite a los desarrolladores de aplicaciones
crear complicados sistemas de captura de imágenes de forma rápida y eficaz empleando cualquier controlador
certificado por ISIS.
SANE (Scanner Access Now Easy): es una interface de programación de aplicaciones (API) que proporciona
acceso estandarizado a cualquier dispositivo de escaneo (escáner de sobremesa, escáner de mano, cámaras y
videocámaras, etc.). El API de SANE es de dominio público y su discusión y desarrollo está abierto a todo el
mundo.
SANE difiere de TWAIN en que diferencia claramente los frontends (programas de usuario) y los backends
(controladores de los escáneres), disminuyendo el tiempo de desarrollo y la duplicación de código. Mientras
que el controlador TWAIN maneja tanto la interfaz de usuario como las comunicaciones con el escáner, el
controlador de SANE sólo proporciona una interfaz con el dispositivo y describe un número de "opciones" que
controla cada escaneo. Estas opciones especifican parámetros tales como la resolución de escaneo, el área de
escaneo, modelo de color, etc.
WIA (Windows Image Acquisition): es un modelo de driver e interface de programación de aplicaciones (API)
para los sistemas operativos más modernos de Microsoft Windows, que permite a las aplicaciones de gráficos
comunicarse con dispositivos de imagen tales como escáneres, cámaras digitales y equipos de Vídeo digital.
Fue introducido por primera vez en el año 2000 como parte de Windows Me, y continúa siendo el estándar de
dispositivos de imagen y modelo API a través de las sucesivas versiones de Windows. Se implementa como un
servicio bajo-demanda en Windows XP y posteriores sistemas operativos Windows.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 49
II: TECNOLOGÍA BÁSICA
En comparación con TWAIN, WIA es más flexible, porque es un interface estandarizada que no requiere una
unión fuerte entre el software del escáner y el controlador. La mayoría de los escáneres recientes soportan
WIA.
046b.2.2.2.4. Pantalla táctil
Una pantalla táctil (touchscreen en inglés) es una pantalla que mediante un toque directo sobre su superficie permite la
entrada de datos y órdenes al dispositivo (a su vez, actúa como periférico de salida, mostrando los resultados obtenidos).
El toque también se puede realizar con un dedo, con un lápiz óptico u otras herramientas similares
Las pantallas táctiles se han ido popularizando a partir de la invención de la interfaz electrónica táctil en 1971 por el Dr.
Samuel C. Hurst. Han llegado a ser comunes en TPVs, en cajeros automáticos, en PDAs, Tablet PC, en teléfonos
inteligentes (smartphones), vídeo consolas portátiles, navegadores de automóviles etc.
Para implementar estas pantallas se pueden utilizar las siguientes tecnologías:
Resistiva: está formada por varias capas. Las más importantes son dos finas capas de material conductor entre
las cuales hay una pequeña separación. Cuando algún objeto toca la superficie de la capa exterior, las dos
capas conductoras entran en contacto en un punto concreto. De esta forma, se produce un cambio en la
corriente eléctrica que permite a un controlador calcular la posición del punto en el que se ha tocado la
pantalla midiendo la resistencia. Algunas pantallas pueden medir, aparte de las coordenadas del contacto, la
presión que se ha ejercido sobre la misma.
Este tipo de pantallas son, por norma general, más accesibles pero tienen una pérdida de aproximadamente el
25% del brillo debido a las múltiples capas.. Otro inconveniente que tienen es que pueden ser dañadas por
objetos afilados. Por el contrario, no se ven afectadas por elementos externos como polvo o agua, razón por la
que son el tipo de pantallas táctiles más usado en la actualidad.
De Onda Acústica Superficial (SAW, Surface Acoustic Wave): utiliza ondas de ultrasonidos que se transmiten
sobre la pantalla táctil. Cuando la pantalla es tocada, una parte de la onda es absorbida. Este cambio en las
ondas de ultrasonidos permite registrar la posición en la que se ha tocado la pantalla y enviarla al controlador
para que pueda procesarla.
El funcionamiento de estas pantallas puede verse afectado por elementos externos. La presencia de
contaminantes sobre la superficie también puede interferir con el funcionamiento de la pantalla táctil.
Capacitivas: está cubierta con un material, habitualmente óxido de indio y estaño que conduce una corriente
eléctrica continua a través del sensor. El sensor, por tanto, muestra un campo de electrones controlado con
precisión tanto en el eje vertical como en el horizontal, es decir, adquiere capacitancia.
Cuando el campo de capacitancia normal del sensor (su estado de referencia) es alterado por otro campo de
capacitancia como puede ser el dedo de una persona, los circuitos electrónicos situados en cada esquina de la
pantalla miden la “distorsión” resultante en la onda senoidal característica del campo de referencia y envía la
información acerca de este evento al controlador para su procesamiento matemático.
Los sensores capacitivos deben ser tocados con un dispositivo conductivo en contacto directo con la mano o
con un dedo, al contrario que las pantallas resistivas o de onda superficial en las que se puede utilizar
cualquier objeto.
Las pantallas táctiles capacitivas no se ven afectadas por elementos externos y tienen una alta claridad, pero
su complejo procesado de la señal hace que su coste sea elevado. La mayor ventaja que presentan sobre las
pantallas resistivas es su alta sensibilidad y calidad.
Infrarrojos: consisten en una matriz de sensores y emisores infrarrojos horizontales y verticales. En cada eje
los receptores están en el lado opuesto a los emisores, de forma que al tocar con un objeto la pantalla, se
interrumpe un haz infrarrojo vertical y otro horizontal, permitiendo de esta forma localizar la posición exacta
en que se realizó el contacto. Este tipo de pantallas son muy resistentes, por lo que son utilizadas en muchas
de las aplicaciones militares que exigen una pantalla táctil.
Galga Extensiométrica: la pantalla tiene una estructura elástica de forma que en ella se pueden utilizar
sensores basados en la piezorresisitivad (galgas extensiométricas). Esta es una característica de algunos
materiales, conductores y semiconductores, cuya resistencia cambia por la presión. Por ello, se pueden utilizar
para determinar la posición en que ha sido tocada la pantalla a partir de las deformaciones producidas en la
misma. Esta tecnología también puede medir el eje Z o la presión ejercida sobre la pantalla.
Imagen Óptica: es un desarrollo relativamente moderno en la tecnología de pantallas táctiles, en ella dos o
más sensores son situados alrededor de la pantalla, habitualmente en las esquinas. Emisores de infrarrojos
son situados en el campo de vista de la cámara en los otros lados de la pantalla. Un toque en la pantalla
muestra una sombra, de forma que cada par de cámaras, puede triangularizarla para localizar el punto de
contacto. Esta tecnología está ganando popularidad debido a su escalabilidad, versatilidad y asequibilidad,
especialmente para pantallas de gran tamaño.
Tecnología de Señal Dispersiva: introducida en el año 2002, este sistema utiliza sensores para detectar la
energía mecánica producida en el cristal debido a un golpe. Unos algoritmos complejos se encargan de
interpretar esta información para obtener el punto exacto del contacto. Esta tecnología es muy resistente al
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 50
II: TECNOLOGÍA BÁSICA
polvo y otros elementos externos, incluidos arañazos. Como no hay necesidad de elementos adicionales en la
pantalla, también proporciona unos excelentes niveles de claridad. Por otro lado, como el contacto es
detectado a través de vibraciones mecánicas, cualquier objeto puede ser utilizado para detectar estos eventos,
incluyendo el dedo o uñas. Un efecto lateral negativo de esta tecnología es que, tras el contacto inicial, el
sistema no es capaz de detectar un dedo u objeto que se encuentre parado tocando la pantalla.
Reconocimiento de Pulso Acústico: introducida en el año 2006, estos sistemas utilizan cuatro transductores
piezoeléctricos situados en cada lado de la pantalla para convertir la energía mecánica del contacto en una
señal electrónica. Esta señal es posteriormente convertida en una onda de sonido, que es comparada con el
perfil de sonido preexistente para cada posición en la pantalla. Este sistema tiene la ventaja de que no
necesita ninguna malla de cables sobre la pantalla y que la táctil es de cristal, proporcionando la óptica y la
durabilidad de este material. También presenta las ventajas de funcionar con arañazos y polvo sobre la
pantalla, de tener unos altos niveles de precisión y de que no necesita ningún objeto especial para su
utilización.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 51
II: TECNOLOGÍA BÁSICA
considerablemente mayor que la velocidad con que la impresora imprime físicamente. Lógicamente, mientras
mayor sea el buffer o cantidad de memoria intermedia, más rápida y fluida será la impresión. Esta cantidad suele
ir desde unas 256 Kb hasta varios megabytes de memoria en impresoras láser y grandes impresoras
departamentales.
Interface de Conexión.
La mayoría de las impresoras se suelen conectar al ordenador a través del puerto paralelo, también conocido
como LPT1. En caso de que existan varios puertos paralelos adicionales, éstos se denominan LPT2, LPT3 y así
sucesivamente. El puerto paralelo de las placas base actuales suele tener varios modos de funcionamiento. El
modo original, el más antiguo, se denomina SPP (Single Parallel Port, Puerto Paralelo Sencillo). Este modo
proporciona una velocidad de transferencia de datos bastante lenta, aproximadamente unas 150 Kb/s. Debido a la
lentitud de este modo, se desarrollaron nuevos modos de funcionamiento: ECP (Extended Capability Port, Puerto
de Capacidad Extendida) y EPP (Enhanced Parallel Port, Puerto Paralelo Mejorado ), con velocidades de hasta 3
Mb/s. Ambos modos, además de ser más rápidos, añaden capacidad bidireccional a la comunicación, es decir,
permiten la comunicación de datos entre el PC y la impresora en los dos sentidos. Esto hace posible que la
impresora se pueda comunicar con el PC y al contrario, en lugar de como se había hecho tradicionalmente, donde
el PC se comunicaba con la impresora, pero no al revés.
Otra forma de conexión se consiguió poniendo la impresora en red Ethernet mediante conexiones RJ 45 basadas
en el estándar IEEE 802.3. Las velocidades conseguidas superan los 10 Mb/segundo basada en el manejo de
paquetes. No hay que confundirla con una impresora compartida, ya que las impresoras en red operan como un
elemento de red con dirección IP propia.
La conexión más actual es por medio de puertos USB (Universal Serial Bus). La velocidad vuelve a mejorar con
480Mb/segundo con las ventajas que conlleva el puerto USB: compatibilidad con varios sistemas y la posibilidad
de usarla en dispositivos portátiles.
Finalmente, la conexión inalámbrica wifi, mediante el protocolo IEEE 802.11, está siendo la más novedosa.
Alcanza 300 Mb/segundo y funciona tanto para impresoras de tinta, láser o multifunción.
Se pueden clasificar las impresoras según el tipo de tecnología de impresión empleada. Los dos principales tipos serían:
Las impresoras de impacto (matriciales principalmente, aunque existen otros tipos ya obsoletos, como las de
margarita). La impresión se realiza mediante algún tipo de dispositivo mecánico que golpea una cinta
impregnada de tinta y de ahí al papel, de la misma forma que lo hacen las máquinas de escribir tradicionales
Impresoras sin impacto, principalmente las de inyección de tinta, láser y las de transferencia térmica. No existe
elemento mecánico: la impresión se hace mediante otros sistemas, diferentes en función de cada tipo concreto
de impresoras. Una de las ventajas que presentan es su silencio, frente a las de impacto que por lo general
suelen ser bastante más ruidosas.
Con estas tecnologías, los tipos más comunes de impresoras son los siguientes:
a) Impresoras matriciales
Son las más antiguas en cuanto a tecnología se refiere, pero todavía se usan bastante. Se denominan "de
impacto" porque la impresión se lleva acabo mediante el impacto de unas piezas mecánicas, la cabeza de
impresión, sobre una cinta impregnada en tinta.
Según como sea el cabezal de impresión, se dividen en dos grupos principales:
De margarita: incorporan una bola metálica en la que están en relieve las diversas letras y símbolos a
imprimir, la bola pivotea sobre un soporte móvil y golpea la cinta de tinta, con lo que se imprime la letra
correspondiente. El método es absolutamente el mismo que se usa en muchas máquinas de escribir
eléctricas, con la única diferencia de no tener teclado. Las impresoras de margarita están en completo
desuso debido a que sólo son capaces de escribir texto; además, para cambiar de tipo o tamaño de
letra se debería cambiar la matriz de impresión (la bola) cada vez.
De agujas: disponen de una matriz de agujas (9 o 24 según los modelos) en la cabeza de impresión,
que impactan sobre una cinta de tinta que a su vez imprime directamente sobre el papel, formando los
caracteres o la imagen deseada. Mientras más agujas incorporen la cabeza de impresión mayor será la
calidad de impresión, que se suele situar entre 150 y 300 puntos por pulgada. Estas impresoras
permiten la impresión de gráficos, aunque de calidad no demasiado alta y generalmente en blanco y
negro. Otra característica inherente a este tipo de impresoras es el ruido que hacen debido al impacto
de las agujas sobre el papel. Suelen incorporar en su mayoría un carro con tractor para papel continuo.
b) Impresoras de inyección de tinta
La tecnología de inyección de tinta es la más extendida en la actualidad, debido a su bajo costo y excelente
calidad. El sistema de impresión más general que suele emplear una impresora de inyección de tinta es el
denominado DOD (Drop On Demand, Inyección Bajo Demanda), que produce pequeñas gotas cuando se
necesitan.
Son dos los métodos que utilizan las impresoras de inyección de tinta para lograr que las gotas se arrojen con
rapidez:
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 52
II: TECNOLOGÍA BÁSICA
Térmico: el chorro es iniciado calentando la tinta para crear una burbuja que genera una presión que la
fuerza a emerger y golpear el papel. Luego la burbuja colapsa y el vacío resultante arrastra nueva tinta
hacia la recámara para reemplazar a la que fue expulsada. Éste método (buble jet) es el favorito de
Canon y Hewlett-Packard. El principal inconveniente que presenta este sistema de inyección térmica es
la corta vida de los inyectores, sometidos constantemente a condiciones físicas extremas. Es por esto,
por lo que se optó por integrar los inyectores en el propio cartucho de tinta. De esta forma, cada vez
que se cambia un cartucho, se deben estrenar inyectores nuevos. Sin embargo, esto hace que aumente
el precio de los cartuchos considerablemente.
Piezoeléctrico: es una estrategia alternativa, desarrollada por Epson, a la tecnología térmica. Los
cristales piezoeléctricos tienen una propiedad única y singular. Si se aplica una fuerza física en ellos,
pueden generar una carga eléctrica. El proceso también funciona a la inversa: si se aplica una carga
eléctrica al cristal, podrá hacer que se mueva, creando una fuerza mecánica.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 53
II: TECNOLOGÍA BÁSICA
La tecnología láser funciona mediante un proceso electrográfico a través una digitalización láser. En primer
lugar, se calcula la imagen que genera documento y ésta es convertida en una sucesión de líneas mediante
mecanismos electrónicos, de manera que el láser pueda tratar estas líneas una tras de otra., El haz de luz
generado por el láser, reflejado adecuadamente mediante un sistema de espejos, realiza cuatro pasadas
completas, una por cada color (negro, cyan, magenta y amarillo), sobre un dispositivo en forma de cilindro
denominado tambor. Este tambor queda cargado eléctricamente y es pasado por encima de cada depósito de
tóner, que está compuesto por partículas imantadas coloreadas. La diferencia de potencial hace que estas
partículas se vean atraídas por el tambor, quedándose pegadas al mismo. El tambor, en realidad, realiza una
pasada y se carga con el primer color, luego hace una segunda con el segundo color, y así sucesivamente hasta
completar los cuatro básicos de la imagen. Una vez que el tóner se encuentra en el tambor, se pasa al papel
simplemente mediante presión. Finalmente, se lleva acabo un proceso de fusión mediante calor y generalmente
se usa un aceite o silicona adicional que completa la operación. El resultado es una hoja caliente perfectamente
impresa, y con un brillo característico.
Existe una alternativa económica a las impresoras láser, y son aquellas basadas en LED. Emplean el mismo
sistema que una impresora láser, pero a diferencia de éstas, sustituyen el láser por una fila de diodos LED,
diodos emisores de luz. Así, por ejemplo, si la impresora tiene una resolución de 300 puntos por pulgada (dpi),
tendrá una fila a lo ancho de todo el tambor, formada por 300 diodos LED, con la ventaja de que una fila de
LED es más fácil y económica de fabricar que el láser, además de que se elimina el sistema de espejos que
tienen las impresoras láser, con lo que disminuye el coste de producción. Ésta suele ser la tecnología empleada
en muchas de las impresoras láser de bajo precio que se pueden encontrar en el mercado.
d) Impresoras de sublimación de tinta
Las impresoras de sublimación de tinta son dispositivos especializados que presentan una altísima calidad y
coste. Son ampliamente usadas en aplicaciones fotográficas y de artes gráficas. Estas impresoras trabajan
calentando la tinta hasta convertirla en gas. El elemento térmico puede generar diferentes temperaturas, lo que
permite controlar la cantidad de tinta que es ubicada en una mancha. En la práctica, esto significa que el color
es aplicado como un tono continuo más que como puntos.
e) Impresoras de tinta sólida (XEROX)
Comercializada casi exclusivamente por Tektronix, las impresoras de tinta sólida son impresoras de página
completa que usan varillas de tinta encerada sólida en un proceso "phase change" (cambio de fase). Trabajan
licuando las varillas de color en depósitos, y luego volcando la tinta dentro de un tambor de transferencia, desde
donde es fusionada en frío en el papel en una sola pasada. No usan por tanto cartuchos.
Estas impresoras están hechas para ser dejadas encendidas en un área segura y compartidas a través de una
red, para este fin vienen con puertos Ethernet, paralelo y SCSI permitiendo una conexión para cualquier
necesidad.
Las impresoras de tinta sólida son generalmente más baratas que las láser color de especificaciones similares.
La calidad de impresión es buena, con puntos multinivel soportados por modelos " high-end", o de alta calidad
de salida, pero generalmente la calidad no es tan buena como las mejores impresoras láser color para texto y
gráficos, o las mejores de inyección de tinta para fotografías. La resolución comienza en unos 300 dpi nativos,
llegando a un máximo de 850 x 450 ppp. La velocidad color típica es de 4 ppm en el modo estándar, llegando a
6 ppm en el modo de resolución reducida.
Su conectividad, sus costos relativamente bajos y el hecho de que son capaces de usar una amplia variedad de
medios de cualquier tecnología de impresión a color, las convierte en una buena opción utilizarlas en negocios
en general y en algunas tareas de especialistas como la impresión de transparencias a alta velocidad y en gran
formato.
f) Impresoras de cera térmica: emplea láminas de color (CYM) y no cartuchos.
La cera térmica es otra tecnología especializada (muy similar a la de sublimación de tinta) preparada para
imprimir transparencias. En este caso se usan cilindros CMY o CMYK (cyan, magenta, amarillo y negro)
conteniendo paneles del tamaño de la página de película plástica recubierta con colorantes basados en cera.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 54
II: TECNOLOGÍA BÁSICA
Trabajan derritiendo puntos de tinta (generalmente binarios aunque algunos modelos "high-end" son capaces
de producir puntos en multinivel) en un papel térmico especial. Al igual que las anteriores no usan cartuchos.
La resolución y la velocidad de impresión son bajas (típicamente 300 ppp y alrededor de 1 ppm) reforzando la
característica de esta tecnología de ser utilizada por aplicaciones especializadas.
046b.2.2.3.2 Monitor
Es el periférico más utilizado en la actualidad para obtener la salida de las operaciones realizadas por la computadora.
Las pantallas de los sistemas informáticos muestran una imagen del resultado de la información procesada por la
computadora.
La imagen formada en la pantalla de la computadora tiene una unidad elemental llamada píxel. Los píxeles de la pantalla
del sistema informático forman una matriz de puntos de luz que dibuja la imagen de cada uno de los caracteres que
aparecen en la pantalla de la computadora. Cada píxel no es más que un punto de luz, sin forma definida y sin
diferenciación entre el color del punto formado en primer plano y el de fondo. El término píxel es una contracción de la
expresión inglesa "picture element" y se puede traducir (libremente) por elemento o punto de imagen. Los puntos de luz
forman una matriz donde se proyecta la imagen de la información de salida de la computadora, tanto si esta información
de salida es de tipo carácter o gráfico.
El paso, llamado en inglés dot pitch, es el espacio entre los dos puntos más cercanos medidos desde su centro. Cuanto
menor sea esa distancia mayor es la nitidez. La resolución se caracteriza por los píxel representadlos en horizontal y
vertical; un ejemplo es la resolución 800X600: 800 píxels horizontal y 600 píxels vertical. A más resolución más píxels
representados. La tasa de refresco es la frecuencia con la que el haz de electrones barre la pantalla. Cuanto mayor sea el
valor menor parpadea la pantalla (por ejemplo: 75 Hz equivale a 75 barridos por segundo). Las dimensiones de los tubos
están representadas en pulgadas. Se trata de una medida inglesa. Hay que saber que 1 pulgada equivale a 2,54
centímetros. Existen monitores de varias pulgadas: 13, 14, 15, 17, 20, 21 y más grandes aún.
Un punto determinado de la pantalla del sistema informático se localiza mediante el «mapeo» de la pantalla de la
computadora. El mapeo consiste en identificar cada uno de los diferentes píxeles que componen la pantalla de la
computadora, con unas determinadas coordenadas. Posteriormente, estas coordenadas se almacenan en una zona de la
memoria principal que se utiliza por el sistema informático para localizar cada uno de los píxeles.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 55
II: TECNOLOGÍA BÁSICA
Dependiendo de la tarjeta gráfica que se utilice, se almacenará mayor o menor cantidad de información sobre cada uno
de los píxeles y los atributos (color, luminosidad, etc.) que tenga asociados.
La práctica totalidad de los monitores actuales emplean tecnología analógica, aunque la circuitería que los controla es
digital. Es decir, la señal que recibe el monitor desde la tarjeta de vídeo es la que realmente es analógica. El resto, tanto
la placa controladora como los propios botones de control suelen ser digitales, en la actualidad, en la mayoría de
monitores. Esto es algo que hay que tener muy en cuenta a la hora de hablar de las características de un monitor.
Los principales tipos de monitores son los siguientes:
a) Monitor de rayos catódicos.
El tubo de imagen, o tubo de rayos catódicos (CRT), es una especie de botella de cristal cerrada al vacío, con
tres cañones de electrones, una máscara o rejilla y una pantalla de vidrio, recubierta en su parte interna por una
película de fósforo que se ilumina al recibir el impacto de los electrones. La pantalla de fósforo está formada por
una espesa matriz de puntos que, a su vez, se componen de tres burbujas de color verde, rojo y azul. Cuando
se activa la señal de vídeo, los cañones disparan un flujo de electrones, cada cañón a la burbuja de su color
correspondiente, obteniéndose así la luz del color deseado con una mayor o menor intensidad. La mezcla de
todos estos pequeños puntos de color genera la imagen total que se ve en el monitor. A este fenómeno se le
suele denominar mezcla aditiva del color. La distancia entre las burbujas de color es tan pequeña que el ojo
humano no puede apreciarla, y en realidad, cada grupo de tres burbujas se aprecia como un solo punto.
Para que los electrones lleguen al lugar deseado se aplican fuertes campos electromagnéticos que los desvían
hasta hacerles llegar al lado de la pantalla que les corresponda. El rayo de electrones recorre toda la pantalla,
comenzando por la esquina superior izquierda hasta barrer toda la superficie de izquierda a derecha y de arriba
a abajo.
El número de veces que el cañón consigue recorrer la pantalla entera en un segundo determina la velocidad o
frecuencia de refresco del monitor.
Este tipo de pantallas de computadora son, externamente, similares a las pantallas de los aparatos de televisión,
pero se diferencian de manera importante en su modo de funcionamiento.
Las pantallas de las computadoras proporcionan una mayor calidad de imagen, mostrándola entre 50 y 80 veces
por segundo para evitar el “efecto parpadeo”, que causa fatiga visual al usuario.
El número de barridos de líneas por segundo que realizan las pantallas de las computadoras es también
considerablemente mayor que el de las pantallas de televisores convencionales. En algunos casos, se llega a
multiplicar por cinco el número de barridos por segundo que realizan las pantallas de sistemas informáticos de
alta calidad con respecto al número de barridos que realizan las pantallas de los televisores.
Las razones por las que se han ido sustituyendo en la actualidad son:
Son pesados y voluminosos.
Consumen mucha energía eléctrica.
La tecnología de barrido que emplean provocan parpadeo de las imágenes y causan sobreesfuerzo y
fatiga en los ojos.
La forma cilíndrica o esférica de la superficie visible provoca distorsiones en los extremos de la pantalla,
lo que afecta a la calidad de las imágenes.
b) Monitor de cristal líquido (LCD).
Comparados con las pantallas de tubo de rayos catódicos, se puede decir que las pantallas LCD son más
delgadas, livianas y consumen menos energía.
El llamado cristal líquido no es sólido ni líquido, sino algo intermedio. Son cristales sumamente sensibles a la
temperatura, a los que les afecta la corriente eléctrica.
Para los monitores se emplean dos tipos de LCD:
LCD de matriz activa: utilizan transistores de película delgada (thin film transistors, TFTs). Los TFTs son
transistores y capacitores conmutables. Se organizan en una matriz sobre un sustrato de vidrio.
LCD de matriz pasiva: utilizan una malla simple para proveer carga a un píxel específico en la pantalla.
Para el efecto se utilizan 2 capas de vidrio transparente y conductivo llamados sustratos. El cristal líquido
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 56
II: TECNOLOGÍA BÁSICA
se ubica entre los dos sustratos. Los problemas de esta tecnología son la lenta respuesta a cambios y el
control impreciso del voltaje.
Pese a todo, los monitores LCD no pueden competir en algunos aspectos con los clásicos CRTs. Entre otras
cosas por: distorsiona los colores cuando el ángulo de visión cambia, incluso dentro de los márgenes previstos,
son sensibles a las bajas temperaturas, necesitan retroiluminación, y sus tamaños son limitados. Por eso,
mientras los fabricantes de pantallas se enfrascaron en una carrera por resolver estos problemas (que se han
mejorado notablemente en los productos actuales), otros diseñadores empezaron a buscar alternativas.
c) Monitor de plasma.
Son el tipo de pantallas que se están imponiendo actualmente en los sistemas informáticos portátiles, puesto
que tienen las mismas ventajas que las anteriores, alcanzando, además, una mayor definición y la posibilidad
del color.
Se basan en el principio de que haciendo pasar un alto voltaje por un gas a baja presión se genera luz. Estas
pantallas usan fósforo como los CRT, pero emiten menos que las LCD y frente a éstas consiguen una gran
mejora del color y del ángulo de visión.
Estas pantallas son como fluorescentes, y cada píxel es como una pequeña bombilla de color, el problema de
esta tecnología es la duración y el tamaño de los píxeles, por lo que su implantación más común es en grandes
monitores.
Están conformadas por miles y miles de píxeles que constituyen la imagen, y cada píxel está compuesto por tres
píxeles, uno con fósforo rojo otro con verde y el último con azul, cada uno de estos subpixeles tienen un
receptáculo de gas (una combinación de xenón, neón y otros gases).
Un par de electrodos en cada píxel ioniza al gas volviéndolo plasma, generando luz ultravioleta que excita al
fósforo que a su vez emite luz que en su conjunto forma una imagen.
El tamaño físico de la pantalla de los sistemas informáticos se expresa en pulgadas de diagonal, de la misma
manera que las pantallas de los televisores normales.
El tamaño de pantalla de computadora más habitual entre los actuales sistemas microinformáticos suele ser el
de 14 pulgadas, si bien existen tamaños de pantalla diferentes para sistemas informáticos especializados, por
ejemplo 21 pulgadas para sistemas informáticos de autoedición, etc.
Los sistemas informáticos portátiles suelen tener, en la actualidad, tamaños de pantalla de entre 9 y 14
pulgadas.
d) Monitor OLED (Organic Light Emitting Diode, Diodos emisores de luz orgánicos):
Las dos diferencias básicas con los LCDs son “emisor de luz” y ”orgánico”. El hecho de que estos dispositivos
emitan luz supone una primera diferencia crucial, pues los sistemas LCD en sí se limitan a dejar pasar o
bloquear la luz producida por lámparas convencionales situadas detrás de ellos. Estas lámparas ocupan buena
parte del grosor de la pantalla, por lo que, al no existir en una pantalla hecha con OLED’s, permite que éstas
sean mucho más finas.
La misma naturaleza de OLED provee de él muchas ventajas sobre el LCD:
Su uso de los materiales plásticos u orgánicos (mejor que los compuestos cristalinos o metálicos) prevé
una pantalla que sea más ligera y más flexible que las pantallas del LCD.
Los materiales orgánicos usados para OLED también significan una exhibición más brillante con menos
consumo de energía.
Las pantallas de OLED también tienen campos visuales mucho más grandes comparados a otros sistemas
de visualización (alrededor 170 grados, que significa que un espectador puede mirar una pantalla de
OLED de casi cualquier ángulo confortablemente), en comparación con las pantallas del LCD que
requieren al espectador mirar de frente para apreciar completamente el cuadro exhibido.
e) Monitor SED (Surface-conduction Electron-emitter Display).
Ofrece la calidad del clásico tubo de rayos catódicos junto al tamaño de los televisores LCD.
Funciona de forma parecida a la tecnología tradicional de rayos catódicos (CRT), a través de la emisión de
electrones que excitan una capa de fósforo, proyectando luz y mostrando la imagen. La diferencia entre SED y
CRT es que mientras CRT utiliza un solo tubo para proyectar los electrones, SED tiene tantos mini-proyectores
como puntos de luz en pantalla.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 57
II: TECNOLOGÍA BÁSICA
Combinando las ventajas del LCD y del CRT se obtendrían las ventajas de SED. Mientras que los monitores LCD
compiten por ofrecer un tiempo de respuesta cada vez más bajo que, hoy en día, puede estar entre los 2 y los 3
milisegundos, el SED ofrece un tiempo de respuesta inferior a 1 milisegundo, lo que permite mostrar imágenes
más claras y con más definición.
El ángulo de visión que ofrece SED es de 180 grados, es decir, se pueden ver las imágenes desde cualquier
lugar que se mire la pantalla (desde detrás no, claro). Además, el ratio de contraste es de 100.000:1 y el nivel
de negro es muy bueno, al contrario que muchos LCDs que no muestran un negro completo, sino un poco
aclarado.
Además, el consumo energético de SED es mucho menor que el del plasma, cosa buena para el medioambiente
y para nuestros bolsillos.
f) Monitor FED (Field Emission Technology)
En estos monitores se mezclan conceptos básicos de la televisión de tubo de rayos catódicos (CRT) y de las
pantallas LCD. El FED es igualmente una tecnología similar a la SED, pero utilizando un conjunto de nanotubos
de carbono para emitir los electrones necesarios que muevan los puntos de fósforo y así crear la imagen.
Los FED funcionan básicamente de la misma manera que los tubos CRT, es decir, un haz de electrones incide
sobre fósforo produciendo luminiscencia, lo cual bien combinado permite reproducir imágenes en la pantalla. La
diferencia esencial entre estas tecnologías está precisamente en el tubo, que pasa de ser un elemento
objetivamente grande a ser una agrupación de pequeñísimos tubos catódicos. Éstos están dispuestos sobre una
superficie plana a pocos milímetros de la pantalla de fósforo, y el efecto visual que producen es el de los
mejores CRT, pero con la “finura” de las pantallas LCD (son monitores planos).
Por último, tan solo comentar que los monitores utilizan su propia fuente de alimentación, integrada en el interior de la
carcasa del monitor. Unos toman la alimentación directamente del enchufe correspondiente desde la red eléctrica y otros,
sin embargo, emplean un conector que viene directamente desde la fuente de alimentación del PC. La principal ventaja
de esta opción es que cuando se apaga el PC, lo hace el monitor al mismo tiempo.
046b.2.2.4. Periféricos de Comunicaciones
Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro periférico
externo a la computadora. Entre ellos se pueden destacar: módem, tarjeta de red, tarjeta Wireless, tarjeta Bluetooth,
controladores de puertos (serie, paralelo, infrarrojo, etc.), Hub USB,. A continuación se describe con más detalle alguno
de ellos.
046b.2.2.4.1. Módem
La necesidad de comunicarse entre ordenadores distantes condujo al empleo de la red telefónica para el transporte de
datos, al margen de su tradicional uso para la transmisión de voz. La mayoría de las líneas telefónicas están diseñadas
para transmisión de información analógica, principalmente de voz, mientras que los ordenadores trabajan con
información digital. Por lo tanto, se hacía necesario un sistema de conversión entre señales analógicas y digitales. Es aquí
donde entra en juego un dispositivo fundamental: el módem.
Módem es una palabra formada por la unión de otras dos: modulador y demodulador (MOdulador/DEModulador). Se
emplea para designar a todo aquel dispositivo que es capaz de convertir información digital de nuestro ordenador en
información analógica y transmitirla a través de una línea de teléfono de la Red Telefónica Básica (RTB), también
denominada Red Telefónica Conmutada (RTC). En el otro extremo de la línea, otro módem se encarga de volver a
convertir de nuevo esta información analógica en información digital. De esta forma es posible transmitir todo tipo de
información a través de la red telefónica: voz, correo electrónico, imágenes, archivos, documentos, etc.
Los primeros módems eran dispositivos asíncronos, es decir, no disponían de una señal de reloj para sincronizar la
transmisión. Operaban a velocidades muy bajas, unos 18 Kbps. Los datos asíncronos no iban acompañados de ninguna
señal de reloj y los módems que establecían la comunicación únicamente conocían la velocidad de transmisión nominal.
Los bits se agrupaban en tramas de caracteres, con bits de comienzo y de parada. Generalmente se utilizaba el código
ASCII de 7 bits con paridad impar para representar la información. Los actuales módems son síncronos, ya que disponen
de un reloj que sincroniza la transmisión de los datos, y funcionan habitualmente a velocidades de 56 Kbps.
Cuando se habla de módem es muy frecuente escuchar términos como baudio bps (bits por segundo), bytes y cps
(caracteres por segundo). Concretamente:
Baudio: una unidad que debe su nombre al inventor francés Baudot, expresa el número de cambios que sufre la
señal en una línea de comunicaciones en un segundo.
Bit: mínima unidad con la que codificar información, se puede representar un cero o un uno.
Byte u octeto: cada grupo de bits en los que se puede agrupar la información. En líneas generales, un byte sirve
para codificar un carácter (una letra, un número o un símbolo), por lo que se puede asimilar un byte con una
letra, un número ó cualquier otro carácter.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 58
II: TECNOLOGÍA BÁSICA
Bits por Segundo (bps): unidad habitual empleada para medir la velocidad de transferencia de un módem. Tal y
como su nombre indica es el número de bits, unos o ceros, que el módem es capaz de enviar (recibir en un
segundo). Dividiendo esta cantidad por 8 se obtiene 12, cantidad correspondiente de bytes que puede ser
enviada o recibida en un segundo.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 59
II: TECNOLOGÍA BÁSICA
b) Módems telefónicos
Su uso más común y conocido es en transmisiones de datos por vía telefónica.
Los ordenadores procesan datos de forma digital; sin embargo, las líneas telefónicas de la red básica sólo transmiten
señales analógicas.
Los métodos de modulación y otras características de los módems telefónicos están estandarizados por el UIT-T (el
antiguo CCITT) en la serie de Recomendaciones "V". Estas Recomendaciones también determinan la velocidad de
transmisión. Destacan:
V.32. Transmisión a 9.600 bps.
V.32 bis. Transmisión a 14.400 bps.
V.34. Transmisión a 33.600 bps. Uso de técnicas de compresión de datos.
V.90. Transmisión a 56'6 Kbps de descarga y hasta 33.600 bps de subida.
V.92. Mejora sobre V.90 con compresión de datos y llamada en espera. La velocidad de subida se incrementa,
pero sigue sin igualar a la de descarga.
Existen, además, módems DSL (Digital Subscriber Line), que utilizan un espectro de frecuencias situado por encima
de la banda vocal (300 - 3.400 Hz) en líneas telefónicas o por encima de los 80 KHz ocupados en las líneas RDSI, y
permiten alcanzar velocidades mucho mayores que las de un módem telefónico convencional. También poseen otras
cualidades, como es la posibilidad de establecer una comunicación telefónica por voz al mismo tiempo que se envían
y reciben datos.
En función del tipo de módem, la conexión se realizará de una forma u otra.
La conexión de los módems telefónicos con el ordenador se realiza generalmente mediante uno de los puertos
serie (ya que todos los módems son dispositivos serie) tradicionales o COM (de COMunicaciones). El chip de la
placa base del PC encargado de controlar estos puertos es el denominado UART ( Universal Asinchronous
Transmisor/Receiver, Transmisor/Receptor Universal Asíncrono), y es el que condiciona, en gran parte, la
velocidad y el rendimiento que va a ofrecer el módem. La UART es un chip diseñado originalmente por National
Semiconductor en el momento del lanzamiento del IBM PC original. Hoy en día existen varios fabricantes que
integran una UART compatible con la original.
Generalmente, la UART va integrada dentro del chip de entrada/salida de la placa base formando parte de ésta.
Las UART más antiguas eran de tipo 8250. Concretamente, su denominación era INS8250-B (8 bits), o bien INS
16450 (16 bits), algo más nuevas.
Actualmente, todas las placas base integran como mínimo una UART NS 16550A o compatible, de alta velocidad,
con un buffer adicional para datos de 16 bytes, lo que les permite tener 16 caracteres de datos en espera de ser
enviados, evitando así la limitación del módem debido a la velocidad de comunicación de éste con el puerto serie.
La UART del ordenador deberá ser capaz de proporcionar la suficiente velocidad de comunicación. La UART debe
ser de 16550 o superior para que el rendimiento de un módem de 28.800 bps, o más, sea el adecuado. Estos
módems necesitan un enchufe para su transformador.
Modems PC Card: son módems en forma de tarjeta, que se utilizaban en portátiles, antes de la llegada del USB,
que puede ser utilizado tanto en los ordenadores de sobremesa como en los portátiles. Su tamaño es similar al de
una tarjeta de crédito, algo más gruesa, pero sus capacidades pueden ser igual o más avanzadas que en los
modelos normales.
Existen modelos para puerto USB (conexión también de tipo serie, pero con mayor velocidad), de conexión y
configuración aún más sencillas, que no necesitan toma de corriente. Hay modelos tanto para conexión mediante
telefonía fija, como para móvil.
Conexión directa a la línea telefónica mediante un conector estándar tipo RJ -11, con cuatro hilos o conexiones.
Por último comentar, que existen una serie de factores que limitan la velocidad del módem, entre las cuales se pueden
mencionar:
El propio ordenador, y más concretamente el puerto serie. En este sentido, es fundamental el tipo de UART que
integre la placa base, como ya hemos comentado. El primero de los cuellos de botella que puede limitar la
velocidad de un módem es la UART, es decir, el chip que controla el puerto serie del PC. El bus PCI de la mayoría
de las arquitecturas de PC existentes opera con bloques de 32bits, mientras que un cable serie transmite los bits
de uno en uno. La UART, por lo tanto, tiene que manejar todo ese tráfico a la máxima velocidad.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 60
II: TECNOLOGÍA BÁSICA
El estado de la línea telefónica. En función de la calidad de la misma, el módem podrá enviar y recibir datos a
mayor o menor velocidad. El sistema telefónico actual, aunque es digital en gran parte, sigue manteniendo
elementos analógicos, concretamente las líneas, lo que conlleva una serie de limitaciones, como el ancho de
banda y la posibilidad de ruido en la línea. Para evitar estos problemas se desarrollaron sistemas específicos. Uno
es el denominado handshaking o establecimiento de la comunicación. Mediante este método, los dos módem a
comunicar establecen una velocidad de transmisión aceptable en función de las condiciones de la línea en ese
momento.
El tipo de módem conectado al otro extremo limitará la velocidad de nuestro módem. En una conexión entre dos
módems, la velocidad de comunicación siempre se adaptará a la del más lento.
046b.2.2.4.2 Tarjeta de red
Una tarjeta de red permite la comunicación (preparar, enviar y controlar los datos) entre diferentes aparatos conectados
entre sí mediante un cable de red y también compartir recursos entre dos o más computadoras (discos duros, CD-ROM,
impresoras, etc.) A las tarjetas de red también se les llama adaptador de red o NIC (Network Interface Card, Tarjeta de
interfaz de red).
Para asegurar la compatibilidad entre el ordenador y la red, la tarjeta debe adaptarse a la arquitectura del bus de datos
del ordenador y poseer un tipo de conexión adecuado al cable. Cada tarjeta está diseñada para funcionar con un tipo de
cable específico. Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red
(coaxial fino, coaxial grueso, Token Ring, etc.), pero actualmente el más común es del tipo Ethernet utilizando una
interfaz o conector RJ-45.
En general, el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de una
computadora o impresora, pero también se suele utilizar para referirse también a dispositivos integrados en la placa base
del equipo o para expansiones con el mismo fin, que en nada recuerdan a la típica tarjeta con chips y conectores
soldados (las PCMCIA ó Secure Digital SIO de las PDA’s).
Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado dirección MAC (Media
Access Control). Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical
Engineers (IEEE). Los tres primeros octetos del número MAC son conocidos como OUI (Organizationally Unique
Identifier) e identifican a proveedores específicos y son designados por la IEEE.
Las tarjetas de red presentan configuraciones que pueden modificarse. Algunas de estas son: los interruptores de
hardware (IRQ) la dirección de E/S y la dirección de memoria (DMA).
Interrupción (IRQ): en la mayoría de los casos, las tarjetas de red utilizan las IRQ 3 y 5. Se recomienda utilizar la
IRQ 5 (si está disponible); la mayoría de las tarjetas la utilizan de manera predeterminada.
Dirección base de entrada/salida (E/S): cada dispositivo debe tener una dirección diferente para el puerto
correspondiente.
Dirección de memoria: designa la ubicación de la memoria RAM en el ordenador. La tarjeta de red utiliza esta
ranura como búfer para la información que entra y sale. Esta configuración puede denominarse Dirección de inicio
de RAM. Por lo general, la dirección de la memoria de la tarjeta es D8000. En algunas tarjetas se suele omitir el
último 0. Se ha de tener cuidado en no elegir una dirección que ya esté siendo utilizada por otro dispositivo. Sin
embargo, debe tenerse en cuenta que, en ocasiones, algunas tarjetas de red no poseen una dirección de memoria
configurable porque no usan las direcciones de la memoria RAM del equipo.
046b.3. PDA
Una PDA (Personal Digital Assistant) es un dispositivo móvil del tamaño de la palma de una mano que integra una serie
de servicios para procesar datos e información de todo tipo (audio, video, texto, etc.) y que dispone de un sistema
operativo con versiones reducidas de software de los PC’s de sobremesa.
La aparición de la primera PDA corrió a cargo de la compañía Apple Computers. Su presidente, John Sculley, presentó el
primer prototipo en una feria tecnológica estadounidense a comienzos del año 1992, una propuesta que no solo no llamó
la atención del público, sino que además supuso uno de los fracasos más notables de su historia (tanto a nivel financiero
como a nivel de crítica), porque, a pesar de que ya incorporaba la mayoría de características que tiene cualquier PDA
moderna (conexión a redes, reconocimiento de escritura, etc.), , estaban poco desarrolladas aún y presentaban ciertos
fallos.
En 1995, con la aparición de la empresa Palm, Inc., comenzó la etapa de crecimiento y desarrollo tecnológico para el
mercado de estos dispositivos, con la presentación de las Palm Pilot en 1996. Tal fue el éxito que las PDA son a veces
llamadas Palm o Palm Pilot, lo cual constituye un caso de una marca registrada que se transforma en el nombre genérico
del producto.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 61
II: TECNOLOGÍA BÁSICA
El éxito de las Palm radicó en que sus diseñadores no trataron de crear un computador completo. Dando por hecho que
éstos ya existían, crearon la Palm como un “satélite” o un complemento del PC de la oficina o de casa, que permitía
intercambiar (sincronizar) rápida y fácilmente la información más importante y que se podía llevar consigo en todo
momento. Algunas de las características principales de las Palm (y por extensión a todas la PDA) son las siguientes:
Bajo Costo.
Alta duración de sus baterías.
Sincronización simple con el PC, incluso de forma remota a través de un módem.
Software de calidad con aplicaciones de fácil desarrollo.
Microsoft no pudo resistir ante la tentación de fabricar y comercializar un dispositivo que comenzaba a tener futuro, y así,
en 1998, la compañía de Bill Gates irrumpió en el mercado de las PDAs con su modelo Palm PC, que introducía una
variante adaptada del sistema operativo Windows, y que paso a llamarse Pocket PC tras la demanda de su principal
competidor. La irrupción en el sector con Microsoft Windows CE (2000) y Windows Mobile (2003) las dotó de mayores
capacidades multimedia y conectividad, y sobre todo, incorporó a un público ya acostumbrado al uso de sus programas y
que los podían encontrar en versión reducida.
Con la llegada de los Smartphones (teléfonos inteligentes), híbridos entre PDA y teléfono móvil, se incorporaron nuevos
competidores al mercado y nuevos usuarios avanzado de móviles al mercado.
La PDA, originalmente, fue diseñada como agenda electrónica (calendario, lista de contactos, bloc de notas y
recordatorios) con un sistema de reconocimiento de escritura, pero actualmente, una PDA puede realizar muchas de las
funciones que hace una computadora de escritorio (ver películas, crear documentos, juegos, correo electrónico, navegar
por Internet, reproducir archivos de audio, cámara digital, etc.) con la ventaja de ser portátil.
Una PDA típica tiene una pantalla táctil para introducir información, un slot de memoria para almacenarla (para el uso de
tarjetas SD, miniSD o microSD), una conexión de cable a través de interfaz USB, una conexión inalámbrica a través de
Bluetooth o WiFi y acceso a redes o Intranet.
Una de las funciones más importantes de las PDA’s es la sincronización con los ordenadores personales. Esto permite la
actualización de los datos, haciendo que la información del computador y del PDA’s sea la misma. La sincronización
también evita la pérdida de la información almacenada en caso de que la PDA se pierda, sea robada o destruida. Otra
ventaja es que se puede introducir información mucho más rápido desde el computador y transmitirla luego al
dispositivo.
Ya que las PDA están diseñadas para complementarse con el PC, necesitan trabajar con la misma información en ambos
lugares. El software de sincronización de la PDA trabaja en conjunto con software que se instala en el PC. Los
dispositivos Microsoft Pocket PC usan Active Sync y los dispositivos Palm OS usan HotSync.
El proceso de sincronización tiene dos pasos importantes:
Los usuarios móviles envían los cambios realizados en las copias locales (en las PDA) de los datos fuente.
Los usuarios reciben los cambios realizados en los datos fuente que residen en PC desde la última sincronización
Los sistemas operativos de las PDA’s son sencillos, intuitivos y tienen la capacidad de guardar mucha información en
poco espacio. Por ello, la eficiencia es un requisito crítico especialmente en el uso del espacio de memoria y
almacenamiento secundario. Se pueden mencionar los siguientes sistemas operativos de acuerdo al fabricante que los
patrocina:
Android: sistema operativo de Google basado en el núcleo Linux. Permite controlar dispositivos por medio de
bibliotecas desarrolladas o adaptadas por Google mediante el lenguaje de programación Java. Sus principales
características son:
- Framework de aplicaciones: permite el reemplazo y la reutilización de los componentes.
- Navegador integrado: basado en el motor Open Source Webkit.
- SQlite: base de datos para almacenamiento estructurado que se integra directamente con las aplicaciones.
- Multimedia: Soporte para medios con formatos comunes de audio, video e imágenes planas (MPEG4, H.264,
MP3, AAC, AMR, JPG, PNG, GIF).
- Máquina virtual Dalvik: Base de llamadas de instancias muy similar a Java.
- Telefonía GSM: dependiente del terminal.
- Bluetooth, EDGE, 3g y Wifi: dependiente del terminal.
- Cámara, GPS, brújula y acelerómetro: dependiente del terminal
- Pantalla Táctil.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 62
II: TECNOLOGÍA BÁSICA
Todas las aplicaciones creadas con la plataforma Android incluyen como base un correo electrónico, calendario,
programa de SMS, mapas, navegador, contactos, y algunos otros servicios mínimos. Todas ellas escritas en el
lenguaje de programación Java.
Es el nuevo competidor del iPhone OS con la gran ventaja de ser Open Source. El fabricante HTC (conjuntamente
con Google) desarrolló el primer dispositivo basado en Android y, posteriormente, muchos han sido los que han
apostado por el nuevo entorno.
Blackberry: este sistema operativo escrito en Java se remonta a la aparición de los primeros dispositivos que
permitían el acceso a correo electrónico, navegación web y sincronización con programas como Microsoft
Exchange o Lotus Notes, aparte de poder hacer las funciones usuales de un teléfono móvil.
Esta claramente orientado a su uso profesional como gestor de correo electrónico y agenda. Desde la última
versión se puede sincronizar el dispositivo con el correo electrónico, el calendario, tareas, notas y contactos de
Microsoft Exchange Server, además es compatible también con Lotus Notes y Novell GroupWise.
La principal ventaja de los sistemas Blackberry es que permite el acceso en tiempo real al correo electrónico. Este
es el motivo por el que mucha gente opta por este e sistema, que esta dirigido principalmente a la empresa, y
que a pesar de haber visto como competidores como Symbian, Palm o Windows Mobile avanzaban rápidamente,
se ha mantenido en primera línea.
iOS (anterior iPhone OS): sistema operativo de Apple basado en Mac OS X y que se usa en los dispositivos iPhone,
iPod touch e iPad.
Su principal característica es la rapidez, tanto del menú como de sus aplicaciones e Internet, ausencia de virus y
troyanos en el dispositivo móvil, y capacidad para multitud de distintas aplicaciones, eso sí, firmadas por Apple.
Actualmente estamos ante la versión 3.X de Iphone, aunque en breve saldrá la versión 4.0 con el nuevo
dispositivo de Apple, con una nueva posibilidad multitarea, algo que se añora en las versiones actuales.
Symbian OS: sistema operativo producto de la alianza de varios fabricantes de telefonía móvil (Nokia, Sony
Ericsson, Samsung, Siemens AG).
Las aplicaciones compatibles con Symbian se desarrollan a partir de lenguajes de programación orientados a
objetos como C++, Java y Visual Basic para dispositivos móviles, entre otros, incluyendo algunos lenguajes
disponibles en versión libre. La extensa variedad de aplicaciones que se pueden desarrollar van desde
administradores de archivos, hasta visualizadores de películas, guías de ciudades, mapas, diccionarios, emuladores
de juegos, por mencionar algunas.
Cada aplicación se puede instalar en el dispositivo con la ayuda de una computadora, una interfaz USB o firewire,
dependiendo del modelo y el cable correspondiente. Las aplicaciones se graban en la memoria flash del dispositivo
dentro del proceso de sincronización de archivos, contactos y correos electrónicos.
Symbian es actualizable. Esta tarea puede realizarla el usuario, dependiendo del modelo de su equipo, a través de
los sitios en Internet de los fabricantes de teléfonos, o bien, al obtener el disco compacto o tarjeta de memoria
flash de los distribuidores autorizados. Adicionalmente, Symbian proporciona una interfaz gráfica fácil de
comprender, llena de iconos y opciones, con lo cual se evita que el usuario deba aprender manuales inmensos
para explotar las capacidades de su equipo de comunicación móvil.
Entre las principales ventajas de este sistema operativo ya maduro y bien conocido por todos, está su facilidad de
comprensión por los usuarios y su multitud de aplicaciones disponibles. Como principal desventaja se puede citar
la lentitud respecto a otros sistemas operativos, y el incordio de tener que firmar algunas aplicaciones para
disponer de ellas en el equipo.
Palm OS: sistema operativo de PalmSource Inc (actual Acces Ltd.). En la versión actual incorpora mejoras con
soporte a nuevos procesadores, al color, a nuevos puertos de expansión, a la telefonía, comunicaciones y
seguridad. Ha adoptado la arquitectura ARM.
Se podría decir que es un sistema intermedio entre Blackberry y Windows Mobile, más parecido a este segundo.
Es un sistema que, debido a la competencia de Windows Mobile, ve como su mercado se hace cada día más
pequeño. A pesar de esto, Palm es un sistema operativo 100% recomendable para los amantes de las PDA´s.
Windows Mobile (anterior Windows CE y Windows Phone): sistema operativo basado en el núcleo del sistema
operativo Windows CE que cuenta con un conjunto de aplicaciones básicas utilizando las API de Microsoft
Windows. Originalmente apareció bajo el nombre de Pocket PC, como una ramificación de desarrollo de Windows
CE para equipos móviles con capacidades limitadas.
Está diseñado para ser estéticamente similar a las versiones de escritorio de Windows. Además, existe una gran
oferta de software de terceros disponible para Windows Mobile, la cual se puede adquirir a través de Windows
Marketplace for Mobile.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 63
II: TECNOLOGÍA BÁSICA
Originalmente apareció bajo el nombre de Pocket PC, como una ramificación de desarrollo de Windows CE para
equipos móviles con capacidades limitadas. Windows Mobile ha evolucionado y cambiado de nombre varias veces
durante su desarrollo, siendo la última versión la llamada Windows Phone 7.
La principal ventaja de Windows Mobile es su gran adaptabilidad de formatos en cuanto a procesadores de texto,
tablas, multimedia se refiere, pudiendo tener un pequeño ordenador dentro del dispositivo móvil. Su
inconveniente quizá sea su complejidad y, en ocasiones, complicada interfaz.
Sharp Zaurus (con Linux): es el nombre de una serie de PDA hechas por la corporación Sharp. Zaurus fue la más
popular PDA durante la década de 1990 en Japón. La primera Sharp PDA en usar una variante del núcleo Linux
fue la SL-5000.
Generalizando las características de una PDA se pueden mencionar las siguientes:
Son ligeras y de reducido tamaño: ofrecen gran movilidad y ubicuidad.
Cuentan con una pantalla táctil: accesible mediante un pequeño puntero.
Cuentan con servicios multimedia: altavoz, micrófono y grabadora de voz. Por tanto, cuenta con una interfaz, por
tanto enriquecida: a nivel táctil, vocal.
Permiten la conexión con periféricos: gracias a un slot”‘secure digital”.
Permiten las siguientes conexiones inalámbricas:
- Bluetooth: es un estándar de protocolo de radio y comunicación diseñado para consumir poca energía, con
corto alcance, y basado en micro chips barato. Debido a que usa un sistema de comunicación de radio, no es
necesario que un dispositivo esté frente al otro para poder comunicarse. Es suficiente con que estén en el
área de alcance uno de otro, pudiendo estar incluso en habitaciones diferentes si la señal es lo
suficientemente fuerte. La configuración de estos dispositivos es muy simple, a diferencia del Wi-Fi, por lo
tanto de más fácil acceso para la población que no está habituada a la tecnología
- Wi-Fi: es una “red de área local inalámbrica” (WLAN) que permite conectarse a Internet en dispositivos
móviles, siempre y cuando esté cerca de un punto de acceso, o Hotspot. También permite la conexión entre
dos dispositivos con Wi-Fi. En un principio, cuando esta tecnología apareció en el mercado, hubo muchos
problemas debido a que algunos dispositivos no funcionaban de manera correcta cuando interactuaban entre
si, para esto se formó la Wi-Fi Alliance, que creó normas que deben cumplir todos los productos que utilicen
Wi-Fi, actualmente se utiliza la especificación IEEE 802.11. Esta tecnología es más potente que el Bluetooth,
y tiene mas alcance, aunque consume mucha mas batería, y necesita ser configurada, lo que representa una
dificultad para a los usuarios que no están acostumbrados a relacionarse con la tecnología.
- IrDA (Infrared Data Assocation): este es otro protocolo para intercambio de datos, esta vez, a través de luz
infrarroja, entre dos dispositivos, se utiliza en redes de área personal. Esta tecnología es de muy corto
alcance (1metro aprox.), lo que permite ser usados en lugares que requieren seguridad, consume muy poca
energía, los sensores deben estar alineados para que se transfiera la información. Antes se utilizaba en PDAs
y celulares, pero ahora se está dejando de usar para dar paso al Wi-Fi, y Bluetooth.
Funcionan con baterías (de ION/Litio).
Las baterías de iones de litio que no sufren el llamado efecto memoria y cuentan con una gran capacidad
específica. Las PDAs vienen con baterías basadas en esta tecnología, por varias ventajas:
- Una elevada densidad de energía. Acumulan mucha mayor carga por unidad de volumen.
- Poco peso.
- Poco espesor. Esto las hace especialmente interesantes para integrarlas en dispositivos portátiles que deben
tener poco espesor.
- Carecen de efecto memoria (pérdida en la capacidad de la batería debido a repetidas cargas y descargas que
se efectúen en la batería sin haberla descargado por completo previamente)
- Descarga lineal. Durante toda la descarga, el voltaje de la batería apenas varía, lo que evita la necesidad de
ineficaces circuitos reguladores. Esto puede ser una desventaja, ya que hace difícil averiguar el estado de
carga de la batería.
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 64
II: TECNOLOGÍA BÁSICA
DEC fabricó varios microprocesadores StrongARM basados en el núcleo de procesador RISC a 32 bits, que se
utilizaban en terminales de redes. A finales del año 1997, Intel compró la tecnología StrongARM, y poco después,
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 65
II: TECNOLOGÍA BÁSICA
anunciaba su intención de utilizar los procesadores de StrongARM en dispositivos personales como los entonces
emergentes PDA.
Fue sustituido por el Intel XScale, que es la quinta generación de la arquitectura ARM. Está basado en el ISA v5TE
sin las instrucciones de coma flotante. El XScale usa un entero de 7 niveles y 8 niveles de memoria Superpipeline
de arquitectura RISC. Es el sucesor de la línea de microprocesadores y microcontroladores Intel StrongARM, que
Intel adquirió de la división de Semiconductores Digitales de DEC como efecto colateral de un pleito entre las dos
compañías. Intel usó el StrongARM para sustituir su propia línea de anticuados procesadores RISC, el i860 y el
i960.
Tradicionalmente no tienen capacidad de teléfono ni de envío de fax.
Igualmente, se pueden mencionar las siguientes limitaciones:
Potencia de computación.
Capacidad de almacenamiento.
Duración de las baterías (una de sus principales limitaciones)
No conectan con ciertos periféricos.
Capacidad de visualización.
Los dispositivos Pocket PC son PDA’s que ejecutan el sistema operativo Windows CE o Windows Mobile (versión Pocket
PC). Microsoft sacó esta línea al mercado en 1998, con el nombre Palm PC. Debido a una demanda de Palm, el nombre
fue cambiado a PocketPC.
Cualquier dispositivo que sea clasificado como un PocketPC debe:
Ejecutar el sistema operativo Microsoft Windows CE o Windows Mobile (versión Pocket PC)
Tener un conjunto de aplicaciones en ROM
Incluir una pantalla táctil.
Incluir un dispositivo apuntador, llamado stylus o estilete
Incluir un conjunto de botones de hardware para activar aplicaciones
Algunas de las aplicaciones que se incluyen con estos dispositivos son versiones reducidas de Microsoft Outlook, Internet
Explorer, Word, Excel, Windows Media Player, etc.
Actualmente hay pocos fabricantes y se concentran la gran mayoría en el continente asiático. Entre ellos, el más
importante, y que recientemente se convirtió en distribuidor, es HTC (antiguo proveedor de HP) Acer o Fujitsu entre
otros. Otros fabricantes de dispositivos Pocket PC son Quanta, Foxcon, Inventec, Asus o Compal, concentrados todos
ellos en Taiwan, y dedicados también a la fabricación de otros equipos electrónicos, como portátiles o dispositivos GPS.
En cuanto a los distribuidores, sin embargo, hay bastantes más: HP, Fujitsu Siemens, Garmin, Acer, Casio y un largo
etcétera, que encargan a los fabricantes antes mencionados el diseño de sus equipos y a los que sólo les ponen su marca
y se encargan de distribuirlos y dar soporte técnico.
Sin embargo, y aunque el funcionamiento interno de los dos sistemas (Palm vs. Pocket PC) es radicalmente distinto,
ambos convergen hacia un interfaz muy similar, orientado a la sencillez de manejo y a la completa accesibilidad
pudiéndose utilizar en cualquier momento y lugar.
Debido a la continua evolución de la tecnología, en los últimos años han surgido una serie de dispositivos que combinan
funcionalidades proporcionados por otros ya existentes:
Teléfono inteligente (smartphone) es un teléfono móvil con funciones de una tradicional PDA. Estos dispositivos
(además de servir para comunicarse) permiten almacenar información, enviar correos electrónicos, instalar
programas de terceros, sincronizar datos con el PC etc.
Ejemplos de estos dispositivos son: el Treo 650 de Palm OS (el primer smartphone integrado), el Curve 8900 de
BlackBerry, el Nokia E71 con Symbian, HTC Magic con Android, el HTC HD2 en Windows Mobile y el iPhone.
PDA Phone. Hace años, se diferenciaba entre PDA y teléfono inteligente (smartphone) simplemente por la
capacidad de la pantalla: si el dispositivo tenía pantalla táctil era una PDA y si no la tenía era un teléfono
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 66
II: TECNOLOGÍA BÁSICA
inteligente. Actualmente muchos fabricantes de teléfonos inteligentes ya ofrecen esta característica y a pesar de
que los denominan con término genérico de PDA, en realidad son PDA phones (PDA con capacidades telefónicas).
046b.4. TABLET PC
El Tablet PC (creado por Microsoft en 2002) se trata de un ordenador extraplano con unas funcionalidades similares a las
de un ordenador portátil pero que, a diferencia de éste, no dispone de teclado físico. Esto obliga a que exista un
elemento físico que haga de interfaz de comunicación entre el Tablet PC y el usuario. Esta interfaz no es uno, sino dos:
una pantalla electrosensible y un lápiz EMR (ElectroMagnetic Resonance), o lo que es lo mismo, un lápiz
electromagnético. Esto se complementa con una serie de botones de acceso directo. Se puede decir que es una solución
híbrida entre el portátil y la PDA.
Se pueden destacar las siguientes características:
Ligeros: 1,5 a 2 kg de peso.
Batería de larga duración: la vida útil de la batería, de hasta cinco horas, le garantiza total fiabilidad mientras está
fuera de la oficina.
Ofrece tecnología inalámbrica 802.11 integrada.
Cuenta con una agenda inteligente, permitiendo interaccionar directamente con la pantalla a través de la
tecnología de ”tinta digital”. La pantalla es TFT táctil.
Ofrece un controlador de gráficos dedicado (de NVIDIA).
Respecto a la conectividad, emplea los mismos de PC (ventaja frente a la PDA).
Emplea, asimismo, los mismos procesadores que un portátil, y la misma memoria, pero con módulos SODIMM
(Small Outline Dual Inlinne memory Module).
Los discos duros son de 2,5 pulgadas (igual de nuevo que el de un portátil).
Ofrece nuevas formas de control mediante voz y escritura manuales.
Fabricantes: Apple, Dell, Samsung, HP, NEC, Balckberry, Lenovo, Acer, etc.
En cuanto a los tipos de Tablet PC se pueden mencionar los siguientes:
Pizarra: no tiene teclado, y en su lugar, el usuario dependerá de la pluma stylus y la pantalla táctil para introducir
texto y realizar funciones. Por supuesto, si se quiere tener un teclado se puede configurar uno vía puerto USB.
Son resistentes y están fabricadas para durar mucho tiempo, ideales para el trabajo de campo en varias
industrias tales como salud y educación.
Convertible: es más móvil y accesible, ya que incluye un teclado incorporado debajo del monitor mientras el
monitor es capaz de girar, ponerse de pie, y cerrar en la parte superior del teclado. Una desventaja, sin embargo,
es que la bisagra giratoria del teclado puede dañarse fácilmente. Los fabricantes están trabajando para superar
esta debilidad
Híbrido: combina lo mejor de ambos mundos, al unirse la tecnología de pizarra con las funciones de un
convertible. Con un híbrido de Tablet PC, se puede utilizar el monitor solo como un equipo de pizarra o conectar
un teclado y tener el monitor giratorio alrededor como un convertible. Es posible separar el monitor y el teclado
cuando se desee. En este modelo se incluyen el lápiz y las funciones de pantalla táctil.
Además de los sistemas operativos mencionados anteriormente en el caso de las PDA’s, es posible señalar también
los siguientes:
Chrome OS: es un proyecto llevado a cabo por la compañía Google para desarrollar un sistema operativo basado
en web. Es un sistema realizado con base en código abierto (Núcleo Linux) y orientado inicialmente para
miniportátiles y que funcionará sobre microprocesadores con tecnología x86 o ARM.
Meego: es la unión de los sistemas operativos Maemo y Moblin, con el que Intel y Nokia pretenden competir con
el sistema Android de Google. El proyecto del nuevo sistema, a diferencia de Android, está auspiciado por la Linux
Foundation. Se presenta como un sistema preparado para funcionar en netbooks, dispositivos portátiles, sistemas
en vehículos, televisiones y teléfonos multimedia. Básicamente se trata de una distribución Linux con soporte para
ARM e Intel/Atom que usa Qt (biblioteca multiplataforma para desarrollar interfaces gráficas de usuario) para su
interfaz
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 67
II: TECNOLOGÍA BÁSICA
Facilidad de conversión de la escritura a mano en texto, con capacidades de reconocimiento de escritura que
facilitan el reconocimiento de entradas habituales (como direcciones de correo electrónico y direcciones URL),
además de la detección automática de la altura de los caracteres y el orden de las pulsaciones de tecla.
Crear, editar y organizar notas y dibujos manuscritos en un formato digital.
Conexión desde cualquier lugar fuera del trabajo por la compatibilidad proporcionada con redes inalámbricas y con
autonomía debido a la larga duración de la batería.
Soporte multilingüe con reconocimiento de escritura y voz en varios idiomas.
El iPad de Apple ha logrado posicionarse como pionero y referente en el segmento de mercado de los tablets PC. No hay
ni un sólo fabricante de tecnología que no haya anunciado oficialmente que está trabajando en su propio tablet. A
continuación se adjunta una tabla con una comparativa con algunos de sus principales competidores (año 2010):
E Q U I P O S
iPad Archos 10.1 Streak Galaxy Toshiba S7
46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 68