Está en la página 1de 70

Asociación Profesional del Cuerpo Superior

de Sistemas y Tecnologías de la Información


de la Administración del Estado

Temas Específicos para la preparación de la Oposición al Cuerpo Superior


de Sistemas y Tecnologías de la Información de la Administración del
Estado.

TEMAS ESPECÍFICOS II: Tecnología Básica

Tema 46. Equipos departamentales y estaciones gráficas de


trabajo. Dispositivos Personales de PC, Tablet PC, pocket PC. La
conectividad de los dispositivos personales.

AUTOR: Gemma de Rey Almansa


AUTOR: Carlos Corral Mata

Fecha: 2009
Actualización 2011
Debido a los cambios en el temario de la oposición al Cuerpo Superior de
Sistemas y Tecnologías de la Información en el año 2013 publicados en
la orden HAP/1952/2013, en este tema se han juntado los temas 46 y 47
de anteriores convocatorias.

Tema 46:
Equipos departamentales y estaciones gráficas de
trabajo.……………………………………………………….Página 1 a 12

Dispositivos Personales de PC, Tablet PC, pocket PC. La


conectividad de los dispositivos personales…. Página 13 a final
II: Tecnología Básica

46-A. Equipos departamentales y estaciones gráficas de trabajo

Autor: Gemma del Rey Almansa

Sumario

46.01. Introducción
46.02. Tipos de ordenadores -Definición de conceptos
46.03. Equipos departamentales (Miniordenador)
46.03.01 Características
46.03.02 Funcionalidad
46.03.03 Tendencias
46.03.04 Soluciones comerciales
46.04. Estaciones de trabajo (Workstations)
46.04.01 Características
46.04.02 Funcionalidad
46.04.03 Tendencias
46.04.04 Soluciones comerciales
46.05. de microprocesadores
46.05.01 CISC (Complex Instruction Set Computer)
46.05.02 RISC (Reduced Instruction Set Computer)

Bibliografía

• Organización de computadoras: Un enfoque estructurado. Tanenbaum, A. S.


• Guías técnicas aplicables a la contratación de bienes y servicios de tecnologías de la
información y las comunicaciones (SILICE)
http://www.csae.map.es/csi/silice/homepage.html
• La virtualización será la tendencia de mayor impacto en las TI
http://www.idg.es/comunicaciones/articulo.asp?id=190063
• l mejor amigo de los lenguajes de alto nivel, ¿RISC o CISC? -Manuel Alejandro
Barranco González y Iván Guardia Hernández
http://bioinfo.uib.es/~joemiro/teach/infAl/ciclo2/guardia.pdf
• Wikipedia, la enciclopedia libre – http://es.wikipedia.org/
• Enciclopedia multimedia Microsoft Encarta – http://es.encarta.msn.com/
• Web de IBM: http://www.ibm.com/es/
• Web de Dell: http://www.dell.es/
• Web de HP: http://welcome.hp.com/country/es/es/welcome.html
• Web de SUN: http://es.sun.com/
• Web de Silicon Graphics: http://www.sgi.com/

46-A. Equipos departamentales y estaciones gráficas de trabajo. 1


II: Tecnología Básica

046.01. Introducción

A lo largo del presente tema se establece una visión actualizada, a fecha diciembre de 2008,
sobre la situación del mercado de ordenadores departamentales y estaciones de trabajo.
Asimismo se da una reseña del funcionamiento de las arquitecturas de procesadores más
relevantes.

046.02. Tipos de ordenadores -Definición de conceptos

Podemos distinguir entre dos tipos principales de ordenadores:

Ordenadores analógicos: Un ordenador analógico u ordenador real es un tipo de


ordenador que utiliza dispositivos electrónicos o mecánicos para modelar el problema a
resolver utilizando un tipo de cantidad física para representar otra. Los ordenadores
analógicos ideales operan con números reales y son diferenciales. En el típico ordenador
analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o
multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se
generan continuamente para su visualización o para su conversión en otra forma deseada.

Ordenadores digitales: Un ordenador digital dispone de un sistema digital con tecnología


microelectrónica y es capaz de realizar el procesamiento de datos a partir de un programa.
Los ordenadores digitales se limitan a números computables y son algebraicos

Hay un grupo intermedio, los ordenadores híbridos, en los que un ordenador digital es
utilizado para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos
anexos.

Los ordenadores analógicos tienen una tasa de dimensión de la información, o potencial de


dominio informático más grande que los ordenadores digitales. Esto, en teoría, permite a los
ordenadores analógicos resolver problemas que son indescifrables con ordenadores
digitales.

Dentro de los ordenadores digitales se definen a continuación 5 tipos principales:

Miniordenador: Ordenador de nivel medio diseñado para realizar cálculos complejos y


gestionar eficientemente una gran cantidad de entradas y salidas de usuarios conectados a
través de un terminal. Normalmente, los miniordenadores se conectan mediante una red con
otros miniordenadores, y distribuyen los procesos entre todos los equipos conectados.

Microordenador: Ordenador de sobremesa o portátil, que utiliza un microprocesador


como su unidad central de procesamiento o CPU. Los microordenadores más comunes son
los ordenadores personales (personal computer o PC). Se incluyen dentro de esta categoría
los ordenadores de sobremesa, los ordenadores portátiles, los tablet pc, las agendas
electrónicas, etc.

El desarrollo de los microordenadores fue posible gracias a dos innovaciones tecnológicas en


el campo de la microelectrónica: el circuito integrado y el microprocesador.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 2


II: Tecnología Básica

Estación de trabajo (Workstation): Las estaciones de trabajo son ordenadores que


tienen unas prestaciones especiales (altas capacidades de rendimiento y fiabilidad) y se
dedican a un fin específico, como puede ser el diseño asistido por ordenador. En una red de
ordenadores, una estación de trabajo es un ordenador que facilita a los usuarios el acceso a
los servidores y periféricos de la red.

Superordenador: Ordenador de gran capacidad, gran potencia y de coste elevado,


utilizado en cálculos complejos o tareas muy especiales. Normalmente se trata de una
máquina capaz de distribuir el procesamiento de instrucciones y que puede utilizar
instrucciones vectoriales. Los superordenadores se usan, por ejemplo, para hacer las
previsiones meteorológicas, para construir modelos científicos a gran escala y en los cálculos
de las prospecciones petrolíferas.

Ordenador central (Mainframe): Ordenador grande, potente y costoso usado


principalmente por una gran compañía para el procesamiento de una gran cantidad de
datos; por ejemplo, para el procesamiento de transacciones bancarias.

La distinción entre superordenadores y ordenadores centrales no es muy sencilla, pero


generalmente se puede decir que los superordenadores se centran en los problemas
limitados por la velocidad de cálculo mientras que los ordenadores centrales se centran en
problemas limitados por los dispositivos de E/S y la fiabilidad.

Clasificación de ordenadores digitales en función de sus prestaciones:

Microordenador < Estación de trabajo < Miniordenador < Ordenador central ≅


Superordenador

046.03. Equipos departamentales (Miniordenador)

046.03.01. Características

Hasta finales de la década de 1960, todos los ordenadores eran ordenadores centrales y
eran excesivamente caros, en consecuencia sólo las grandes empresas podían permitirse
adquirir estas máquinas. Sobre esa época, aparecieron los miniordenadores (o simplemente
minis), más pequeños, ligeros y asequibles para pequeñas compañías.

Los miniordenadores están a medio camino entre el ordenador central y el microordenador.


Eran bastante comunes en las empresas, en los departamentos de finanzas, personal y
contabilidad para compartir recursos mediante un miniordenador y un ordenador central.
Los miniordenadores eran usados en conjunción con terminales tontos sin capacidad de
cálculo propio.

Además de las diferencias obvias en velocidad de proceso de datos, la mayor diferencia entre
miniordenadores y ordenadores centrales es el número de estaciones de trabajo remotas a las
que pueden dar servicio. En general, cualquier ordenador que da servicio a más de 100
estaciones de trabajo remotas no debe ser llamado miniordenador. Los ordenadores centrales
más rápidos y potentes dan servicio a unas
10.000 estaciones de trabajo remotas.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 3


II: Tecnología Básica

046.03.02. Funcionalidad

Las principales aplicaciones de este tipo de máquinas se detallan a continuación:

Servidor principal de una empresa pequeña o mediana, permite tener múltiples


aplicaciones de gestión estandarizadas a un precio asequible. También se pueden utilizar en
un proceso de downsizing para hacer una transacción progresiva: rescata procesos de un
ordenador central y los delega en los otros servidores.

Servidor asociado o incluso departamental instalado en una dependencia separada y


dependiente de la sede central de la organización. Se concebía la máquina departamental
como una herramienta de productividad con un precio bajo que evitaba el empleo masivo de
líneas de teleproceso hacia los ordenadores centrales corporativos. No se asocian en
proceso sino en acceso a datos.

En la actualidad esta aplicación se da en los Datamining y Datawarehouse: se filtran la


información para obtener los datos más significativos. De este modo no se reduce capacidad
del ordenador central, por otra parte el coste del software de Datamining para un ordenador
central es muy superior al que precisa un miniordenador.

Servidor autónomo para aplicaciones poco repetitivas o especializadas como las de


'Automatización de oficinas' con soporte directo del proveedor. Se utiliza cuando queremos
una capacidad transaccional en un servicio central del ordenador central y una capacidad
transaccional distribuida y distante que recae en el miniordenador. El miniordenador recoge
los datos en un punto cercano a su origen, realiza la transacción y retransmite el resultado
al ordenador central. Históricamente esto era lo que sucedía en la administración, recogía
los datos en las delegaciones territoriales.

046.03.03. Tendencias

Actualmente, el término miniordenador se sustituye con frecuencia por el de servidor, como


elemento central de una red de medianas dimensiones a la que se conectan ordenadores
personales, hasta varios centenares de usuarios.

La tendencia generalizada es la descentralización en la capacidad de proceso, con lo cual


proliferan las redes locales conectadas al ordenador central y se tiende a sustituir los
terminales convencionales por ordenadores personales.

Aprovechando las cada vez más potentes prestaciones de las plataformas pequeñas y
medias, se propone la migración de las tradicionales aplicaciones de mainframe a dichas
plataformas (downsizing), utilizando como plataforma lógica los sistemas abiertos.

Se combina así un coste más favorable, proveniente de la utilización de máquinas más


pequeñas, y la portabilidad e interoperabilidad de los sistemas abiertos.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 4


II: Tecnología Básica

Aunque se tiende a la implantación de sistemas abiertos en sistemas pequeños y medios, en


sistemas grandes la migración no se ha producido tan rápidamente como se podía pensar.
Las razones son dos: por un lado las fuertes inversiones ya realizadas por los usuarios de
grandes sistemas propietarios, tanto en equipos físicos como en el software de su
propiedad, y por otro las dificultades y riesgos involucrados en la migración de las
aplicaciones.

De las tendencias en tecnologías de la información de más impacto, la virtualización será la


que más y mayores cambios provoque en las operaciones e infraestructuras de TI durante
los próximos años. Según Gartner, esta tecnología transformará todos los aspectos de las TI,
desde las mismas soluciones que se compren a cómo se planifiquen, desplieguen y
gestionen. Como resultado, la virtualización está creando una nueva ola de competencia
entre los fabricantes de infraestructura que modificará y consolidará considerablemente el
mercado en los próximos años.

El aumento de la capacidad de proceso de los miniordenadores así como la mejora en las


unidades de almacenamiento hace que la diferenciación entre miniordenadores y grandes
ordenadores cada vez sea menor.

Las principales tendencias en estos sectores son:

• Aumento de la capacidad de proceso de los ordenadores que hacen posible el uso de


bases de datos textuales y de formatos documentales multimedia.

• Disminución del coste de almacenamiento de datos.

• Bases de datos distribuidas, esto es particularmente interesante en el caso de que se


esté distribuyendo documentación multimedia.

• Tolerancia a fallos y arquitecturas multiprocesador.

046.03.03. Soluciones comerciales

• IBM: Servidores de gama media, como iSeries y AS/400


(http://www-03.ibm.com/systems/es/i/)

• Dell: Servidores Dell PowerEdge

(http://www.dell.es/content/products/category.aspx/servers?
c=es&cs=RC1077969&l=es&s=pub)

• HP: HP 9000 (http://www.hp.com/products1/servers/HP9000_family_overview.html)

• SUN: Servidores de gama media: SPARC Enterprise, SUN Fire


(http://www.sun.com/servers/index.jsp?cat=Sun%20Mid-Range%20Servers&tab=3)

• Silicon Graphics: SGI Altix 450


(http://www.sgi.com/products/servers/altix/450/index.html)

46-A. Equipos departamentales y estaciones gráficas de trabajo. 5


II: Tecnología Básica

046.04. Estaciones de trabajo (Worksatations)

046.04.01. Características

Una estación de trabajo, según el Diccionario de la Computación de Alan Freedman, se


puede definir como: "Micro o miniordenador para un único usuario, de alto rendimiento, que
ha sido especializada para gráficos, diseño asistido por ordenador, ingeniería asistida por
ordenador o aplicaciones científicas".

Una estación de trabajo está optimizada para desplegar y manipular datos complejos como
el diseño mecánico en 3D, la simulación de ingeniería, los diagramas matemáticos, etc.

Las estaciones de trabajo fueron un tipo popular de ordenadores para ingeniería, ciencia y
gráficos durante las décadas de 1980 y 1990. Últimamente se las asocia con CPUs RISC,
pero inicialmente estaban basadas casi exclusivamente en la serie de procesadores Motorola
68000. Pueden disponer de más de una CPU.

046.04.02. Funcionalidad

Las principales aplicaciones de las estaciones de trabajo son las siguientes:

Aplicaciones técnicas
• CAD (Computer Aided Design, Diseño Asistido por Ordenador), destinadas al diseño
y análisis de sistemas de ingeniería y arquitectura.
• AEC (Architecture, Engineering and Construction, Sistemas para la arquitectura /
ingeniería / construcción) aplicables a la edición de planos de construcción y
arquitectura, elaboración de presupuestos y seguimiento de obras.
• CAM (Computer Aided Manufacturing, Fabricación Asistida por Ordenador),
aplicables en la ingeniería de producción, control de procesos y gestión de recursos.
• EDA (Electronic Design Automation, Diseño Electrónico Automatizado), aplicables
en el diseño, análisis y prueba de circuitos integrados, tarjetas y otros sistemas
electrónicos.
• CASE (Computer Aided Software Engineering, Ingeniería de Software Asistida por
Ordenador), que ayudan a la gestión completa de los ciclos de vida de los desarrollos de
aplicaciones lógicas.
Aplicaciones científicas
• GIS (Geographic Information System, Sistemas de Información Geográfica) para
edición, captura y análisis de información sobre determinadas zonas geográficas, con
base en referencias de mapas digitalizados.
• Aplicaciones orientadas a la industria química y farmacéutica, aplicaciones de
laboratorio tales como instrumentación analítica, modelado de experimentos químicos y
sistemas de información de laboratorios químicos.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 6


II: Tecnología Básica

• Aplicaciones dentro del campo de la medicina para la captura, manipulación y


presentación de imágenes de rayos X, ultrasonidos y escáneres, así como sistemas de
información propios de hospitales.
• Sistemas de análisis de los recursos de la Tierra para análisis geológicos y sísmicos
sobre mapas.
• Sistemas expertos, basados en técnicas de programación de inteligencia artificial,
para aplicaciones tales como detección electrónica de errores, funciones de diagnóstico o
configuración de ordenadores.

Aplicaciones comerciales

El desarrollo de aplicaciones comerciales para estaciones de trabajo se ha visto potenciado


por la tendencia actual a migrar desde entornos de miniordenadores y grandes ordenadores
a arquitecturas cliente-servidor y equipos de menor rango, fenómeno denominado
downsizing.

Dentro del segmento de las aplicaciones comerciales se pueden englobar:

• Aplicaciones empresariales: Aplicaciones de investigación cuantitativa,


seguridad, bases de datos, simulación de análisis reales...
• Postproducción Digital: Elaboración y tratamiento de imágenes de calidad
cinematográfica.
• Sistemas de Gestión Documental: Creación y organización de documentos para
su posterior publicación, como pueden ser: periódicos, revistas, presentaciones y
documentación en general.
• Telecomunicaciones: Gestión de redes, desarrollo de aplicaciones de
telecomunicaciones basadas en inteligencia artificial, aplicaciones de apoyo a la
investigación y desarrollo (I+D. Las estaciones de trabajo también pueden ser utilizadas
como pasarelas (gateways), para acceder a grandes ordenadores, así como servidores de
Correo electrónico, Web, etc.

Aplicaciones para la Administración Pública

Existe un gran número de aplicaciones en las que las estaciones de trabajo pueden
aprovechar su mayor potencialidad, entre las que merece la pena destacar las herramientas
CASE, sistemas de información geográfica, desarrollos de ingeniería asistidos por ordenador
y Sistemas de Gestión Documental.

046.04.03. Tendencias

Después de lo ya comentado, se puede afirmar que las estaciones de trabajo encuentran su


segmento del mercado donde la potencia de cálculo y la capacidad de tratamiento gráfico de
los PCs no son suficientes y el precio de los grandes ordenadores no puede ser financiado o
no compensa respecto a las necesidades que se pretenden cubrir.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 7


II: Tecnología Básica

Siguiendo las tendencias de rendimiento de los ordenadores en general, los ordenadores


promedio de hoy en día son más potentes que las mejores estaciones de trabajo de una
generación atrás. Como resultado, el mercado de las estaciones de trabajo se está volviendo
cada vez más especializado, ya que muchas operaciones complejas que antes requerían
sistemas de alto rendimiento pueden ser ahora dirigidas a ordenadores de propósito
general.

Las estaciones de trabajo están experimentando un espectacular incremento en cuanto a


prestaciones. Entre sus características figuran estructuras propietarias de bus ultrarrápido, y
tecnología de disco tolerante a fallos como las matrices de discos redundantes (RAID).
Incluyen facilidades de administración del equipo lógico que permiten la monitorización
remota de todos los componentes esenciales (memoria, espacio en disco, etc.). Muchas de
ellas incorporan también protección ante cortes de fluido eléctrico y de bajadas de tensión.

Hoy en día la mayoría de las estaciones de trabajo se basan en tecnologías RISC, aunque
todavía se encuentran instaladas numerosas estaciones de trabajo basadas en tecnología
CISC y existen algunos fabricantes que todavía ofrecen productos basados en esta última
arquitectura. No obstante, el futuro parece dirigirse hacia arquitecturas RISC. Esta
tecnología es la que en este momento ofrece mejores relaciones rendimiento/precio, planes
de diseño más cortos, mayor grado de fiabilidad y mayor potencia de proceso con menores
costes.

Las principales líneas de evolución de las estaciones de trabajo son:

• Empleo de la tecnología ULSI (Ultra Large Scale Integration) lo que disminuye los
costes asociados a los circuitos electrónicos.

• Mejora de la portabilidad e interoperabilidad del equipo lógico mediante el soporte de


interfaces estándares (POSIX) y de protocolos (TCP/IP, ISO/OSI).

• Redundancia de componentes para conseguir sistemas tolerantes a fallos que


aumentan la disponibilidad.

• Gestión de memoria basada en caché, combinando chips de distintas potencias y


velocidades.

• Mejoras en las prestaciones de las arquitecturas multiproceso y proceso paralelo.

El próximo futuro de las estaciones de trabajo y su éxito dependerán del número de


aplicaciones que puedan soportar en diferentes entornos: técnicos, científicos, comerciales,
comunicaciones, educación, financiero, administración, medicina,.... En este sentido, todos
los proveedores de equipos lógicos están preocupados por adaptar desarrollos, concebidos
inicialmente para el mercado de los PCs, a plataformas RISC, más propias de las estaciones
de trabajo. Este dato permite augurar que las inversiones que se realicen en este tipo de
tecnologías quedarán aseguradas durante varios años.

Las estaciones de trabajo también podrían introducirse en el mercado de los PCs conforme
vayan ganando la batalla de los costes, ofreciendo facilidades de red que permiten compartir
discos, impresoras, etc.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 8


II: Tecnología Básica

Lo mismo parece suceder en el entorno de los servidores, donde el incremento en la


potencia de proceso los convertiría en el ordenador ideal para situarlo como servidor de
grupos de trabajo, con una potencia de cálculo próxima a la de los miniordenadores y con
unos costes que es posible ajustar mucho más respecto a las necesidades de proceso y de
cálculo, precisamente debido a sus características de escalabilidad.

Una importante característica que predice el éxito de las estaciones de trabajo es su diseño
conforme a los estándares lo que asegura, por un lado, el aprovechamiento de las
inversiones realizadas por los usuarios, y por otro, la interoperabilidad con productos de
otros fabricantes.

En este mismo sentido se está trabajando en el desarrollo de plataformas que aseguren la


portabilidad de aplicaciones ya compiladas, desde una estación antigua a una más moderna
sin necesidad de ninguna modificación sobre el código (compatibilidad a nivel binario).

Dentro de las líneas de actuación destaca la estrategia de Sistemas Abiertos de la


Administración del Estado. Las administraciones europeas, tanto las comunitarias como las
nacionales, vienen impulsando desde hace años la implantación de Sistemas Abiertos.

046.04.04. Soluciones comerciales

• IBM: Series IntelliStation (http://www-03.ibm.com/systems/es/intellistation/)

• Dell: Series Dell Precission


(http://www.dell.es/content/products/category.aspx/workstations?
c=es&cs=RC1077969&l=es&s=pub&~ck=mn)

• HP: Series xw (http://h41320.www4.hp.com/cda/mwec/display/main/wkst_content.jsp?


zn=hpsmb&cp=1130-1137_4012_10_)

• SUN: Sun Ultra 24 Workstation (http://www.sun.com/desktop/index.jsp?tab=0&stab=1)

• Silicon Graphics: SGI Fuel, SGI Tezro, SGI Virtu VS


(http://www.sgi.com/pdfs/3945.pdf)

047.05. Arquitecturas de microprocesadores

La arquitectura de un ordenador viene definida por el repertorio de instrucciones, el tipo de


direccionamientos y el tipo de operandos que es capaz de ofrecer al compilador.

Existen dos alternativas de arquitecturas de microprocesador: CISC (Complex Instruction


Set Computer) y RISC (Reduced Instruction Set Computer). Estas dos formas de
arquitectura no sólo se diferencian en la complejidad del conjunto de instrucciones, sino que
poseen filosofías distintas para solucionar otros problemas referentes al diseño de un
ordenador.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 9


II: Tecnología Básica

046.05.01 CISC (Complex Instruction Set Computer)

La arquitectura CISC (Complex Instruction Set Computer) se caracteriza por disponer de un


grupo muy amplio de instrucciones muy complejas y potentes. Es más antigua que la
arquitectura RISC, en las primeras arquitecturas los ordenadores tendían a aumentar su
potencia a base de ampliar su repertorio de instrucciones y de añadir instrucciones más
potentes.

CISC es una arquitectura que persigue la programación fácil y al mismo tiempo un uso
eficiente de memoria. Las principales características de esta arquitectura son:

• Ofrece un amplio repertorio de instrucciones máquina que dan soporte directo a


sentencias de lenguajes de alto nivel. Esto permite una programación más sencilla y reduce
el tamaño de la memoria requerida por las aplicaciones, ya que evita que una instrucción de
código de alto nivel implique el almacenamiento de numerosas instrucciones en código
máquina

• Estas instrucciones realizan operaciones complejas.

• El formato de las instrucciones es muy irregular.

• Ofrece un gran número de modos de direccionamiento, que permite al compilador


decidir cuál utilizar en cada caso.

• La longitud de las palabras varía dependiendo de la instrucción que se trate y sobre


todo del modo de direccionamiento que se esté utilizando.

• Las instrucciones necesitan de múltiples ciclos de instrucción para su ejecución y no


todas precisan del mismo número de ellos.

• Los registros son mayoritariamente de uso dedicado. El compilador que se use ha de


ser capaz de maximizar el rendimiento de los pocos registros de propósito general que hay,
con el fin de lograr una ejecución mucho más eficiente del programa.

• Los ordenadores basados en arquitecturas CISC suelen incorporar una memoria


intermedia rápida (caché) para agilizar cálculos y para almacenar datos temporales muy
usados.

Debido al amplio repertorio de instrucciones y a la complejidad de las mismas resulta casi


impensable el uso de una unidad de control cableada. En lugar de ello el sistema está
microprogramado. Cada instrucción es ejecutada mediante una serie de microinstrucciones
almacenadas en una memoria, típicamente una ROM, ubicada en el circuito del procesador

Actualmente los ordenadores CISC más conocidos son la familia 8086 de lntel (que se
extiende hasta el Pentium actual, aunque este último empiece a presentar características
RISC). Históricamente ha habido otros como: IBM 3090, NSC 32016, familia MC68000 de
Motorola, VAX.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 10


II: Tecnología Básica

046.05.02 RISC (Reduced Instruction Set Computer)

Esta arquitectura se caracteriza por poseer un juego de instrucciones reducido con un


porcentaje alto de ellas que se completan en un ciclo de reloj. La filosofía RISC está muy
encauzada a ayudar al diseño de compiladores optimizados, puesto que cuanto mejores
sean estos, más eficaces serán los programas compilados en tamaño y velocidad.

Todos los estudios realizados para analizar el comportamiento de los programas han
señalado que el 80 por 100 de las operaciones que se realizan en un programa descrito con
un lenguaje de alto nivel utilizan, sólo, un 20 por 100 de las operaciones disponibles en el
repertorio de instrucciones, con lo cual si se reduce dicho repertorio se mantiene la potencia
del ordenador y disminuye la complejidad del diseño y el coste.

Máximas del diseño RISC:

• Las instrucciones que más importancia tienen son las de asignación y las sentencias
condicionales.

• Sin embargo, no sólo no hay que encontrar las sentencias más utilizadas, sino
aquellas operaciones descritas en lenguajes de alto nivel que provocan la ejecución de más
instrucciones en lenguaje máquina y, como consecuencia, sean más lentas.

• Es muy importante poder disponer de un acceso y almacenamiento rápido de los


operandos, sobre todo para aquellos que son locales dentro de un procedimiento. Esta es
una de las razones básicas que motivan que las arquitecturas RISC también sean conocidas
corno arquitecturas loadstore.
• Es importantísimo poder realizar un diseño que optimice las llamadas y retornos a
procedimientos y funciones, debido a la gran cantidad de tiempo que consumen. Los
requerimientos que todo diseñador de compiladores espera de la arquitectura de una
máquina y en los que RISC basa su forma de ayuda son:

• Regularidad: las operaciones, los tipos de operandos y los modos de


direccionamiento deberían ser ortogonales. Es decir deberían ser independientes unos de
otros, permitiendo cualquier combinación de estas tres características del sistema. De este
modo, se facilita la optimización de código por parte del compilador.

• Proporcionar primitivas: lo importante no es aportar operaciones complejas a


nivel de arquitectura, ya que este tipo de instrucciones son en muchos casos inutilizables.
Por otro lado, acercar demasiado una arquitectura a un determinado lenguaje de alto nivel
impide la generación de código eficiente para otro distinto.

• Simplificar compromisos entre alternativas: un diseñador de compiladores


debe decidir qué secuencia de instrucciones máquina es la más apropiada para cada
fragmento de programa. Pero esta decisión no es nada fácil porque influyen características
relacionadas con la caché y la segmentación.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 11


II: Tecnología Básica

Proporcionar instrucciones que interpreten todas las cantidades que se conocen


en tiempo de compilación como constantes. Es muy importante que un buen
compilador interprete en tiempo de compilación todas aquellas expresiones que se
pueden conocer antes de la ejecución.

46-A. Equipos departamentales y estaciones gráficas de trabajo. 12


II: TECNOLOGÍA BÁSICA

046-B. Dispositivos personales de PC, PDA, Tablet PC, Pocket PC. La


conectividad de los dispositivos personales.

Autor: Carlos Corral Mata

Sumario

046b.1. Introducción
046b.2. Componentes de un PC
046b.2.1. Subsistema Físico
046b.2.1.1. Placa base.
046b.2.1.2. Microprocesador
046b.2.1.2.1. Historia
046b.2.1.2.2. Avances
046b.2.1.2.3. Funcionamiento
046b.2.1.3. Memoria
046b.2.1.4. Buses
046b.2.2. Subsistema de Entrada/Salida
046b.2.2.1. Periféricos de almacenamiento
046b.2.2.1.1. Disco Duro
046b.2.2.1.2. CD, DVD, Blu-ray
046b.2.2.1.3. Memoria Flash
046b.2.2.1.4. Cinta magnética
046b.2.2.2. Periféricos de entrada
046b.2.2.2.1. Teclado
046b.2.2.2.2. Ratón
046b.2.2.2.3. Escáner
046b.2.2.2.4. Pantalla táctil
046b.2.2.3. Periféricos de salida
046b.2.2.3.1. Impresora
046b.2.2.3.2. Monitor
046b.2.2.4. Periféricos de comunicaciones
046b.2.2.4.1. Módem
046b.2.2.4.2. Tarjeta de red
046b.3. PDA
046b.4. Tablet PC

Bibliografía
“Fundamentos de los Computadores”. Pedro de Miguel Anasagasti. Ed: Paraninfo 1990
“Structured Computer Organization”. Tanenbaun. Ed: Prentice-Hall 1998.
"The Indispensable PC Hardware Book", 4th Ed., H.P. Messmer Addison-Wesley, 2002
Fabricantes de procesadores:
 Intel: http://www.intel.com/
 AMD: http://www.amd.com/es-es/
Información general de novedades en equipos: http://www.idg.es/
Novedades de PDA: http://www.canalpda.com/
Novedades de PocketPC: http://www.todopocketpc.com/
Novedades de Tablet PC: http://www.tabletpcreview.com/

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 13
II: TECNOLOGÍA BÁSICA

046b.1. Introducción
Una computadora (u ordenador) personal (PC, Personal Computer) es un conjunto de hardware (componentes y
dispositivos físicos) y software (programas lógicos que controlan el funcionamiento) utilizado para el tratamiento
automatizado de la información (concepto directamente ligado con el de Informática). En la combinación de tareas de
este tratamiento intervienen, dos procesos importantes, que caracterizan a todo sistema informático: el funcionamiento
de la computadora y las técnicas de procesamiento de los datos (almacenamiento, proceso y control).
Por otra parte, un Sistema Informático es el conjunto formado por una o varias computadoras y sus periféricos
(componentes físicos o hardware), que ejecutan aplicaciones informáticas (componente lógico o software) y que son
controlados por personal especializado (componente humano). Con más detalle se puede decir que:
 Componente Físico: constituye el hardware del sistema informático y se encuentra distribuido en el ordenador, los
periféricos y el subsistema de comunicaciones. Los elementos físicos proporcionan la capacidad de proceso y la
potencia de cálculo del Sistema Informático, así como la interface con el mundo exterior.
 Componente Lógico: hace referencia a todo aquello que no es material y que, en términos vulgares, se ha
considerado programación. El software se encuentra distribuido en el ordenador, los periféricos y el subsistema de
comunicaciones.
 Componente humano: constituido por las personas que participan en la dirección, diseño, desarrollo implantación
y explotación de un Sistema Informático.
La arquitectura de un Sistema Informático define el conjunto de reglas, normas y procedimientos que especifican las
interrelaciones que deben existir entre los componentes del Sistema Informático y las características que deben cumplir
cada uno de estos componentes.
El Sistema Informático ha evolucionado desde una primera situación, en la que todos los componentes del sistema
(físicos, lógicos y humanos) se encontraban centralizados en una sala de ordenadores, a la situación actual en la que los
distintos componentes se encuentran ampliamente distribuidos en diferentes lugares físicos. Este camino hacia la
implantación progresiva de sistemas distribuidos ha pasado por diferentes etapas y no se puede dar por finalizado,
debido a su continua evolución. Hasta este momento actual, se pueden mencionar las siguientes etapas:
1. Etapa 1: los recursos están totalmente centralizados. Coincide con los inicios de los procesos de informatización
en las organizaciones.
2. Etapa 2: se inicia con la distribución de los componentes físicos y en algunos casos humanos del sistema. Esta
etapa se caracteriza por la introducción de los terminales no inteligentes asociados a las primeras redes de tele-
proceso. Toda la capacidad de proceso y almacenamiento se encuentra centralizada, sin embargo, la entrada y
salida de datos se ha distribuido físicamente. Los inconvenientes de este tipo de sistemas eran los costes de las
comunicaciones, la gran complejidad de los sistemas centralizados que soportaban las redes de teleproceso y la
gran cantidad de recursos que consumían en su gestión interna.
3. Etapa 3: se distribuyen además los elementos lógicos, introduciendo cierta inteligencia en los terminales. En
realidad, ésta es una fase de transición porque el abaratamiento de costes de los equipos y el desarrollo tecno-
lógico permitieron pasar rápidamente a la informática distribuida de hoy día. No obstante, este tipo de organiza-
ción en el que existen terminales con cierta capacidad de proceso conectados a un equipo central, se sigue
manteniendo en muchas Organizaciones, ya que es netamente preferible al modelo anterior, sobre todo por el
menor coste de las comunicaciones.
4. Etapa 4: se introduce el modelo Web, en el cual se pretende que a través de un explorador de Internet y desde
cualquier punto que sea visible y utilizable una aplicación Web. NO ENTIENDO
Por otra parte, la clasificación de los Sistemas Informáticos ha sufrido continuas variaciones debido a su rápida evolución
en virtud de la potencia de cálculo. Así, durante los años 70, la clasificación más extendida era:
 Microordenador o controlador: dispositivos de propósito muy específico con una misión muy definida.
 Miniordenador: originalmente este tipo de máquinas fue desarrollado para manejar tareas específicas, como las de
Ingeniería y cálculos en CAD (Diseño Asistido por Computadora). Con el incremento de potencia del ordenador
personal (PC) se han vuelto menos importantes.
 Mainframe: son equipos dedicados principalmente a la gestión, por lo que admiten gran cantidad de trabajos
simultáneos, como por ejemplo controlar una red de terminales en las distintas sucursales de una empresa, o una
red de cajeros automáticos de un Banco.

 Superordenador: pueden ser utilizados simultáneamente por muchos usuarios, en cálculos científicos o de

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 14
II: TECNOLOGÍA BÁSICA

simulación. Estas máquinas son utilizadas para trabajos que requieren grandes cantidades de cálculos, como el
pronóstico del tiempo, diseños y pruebas de ingeniería, descifrado serio, pronósticos en la economía, etc. Su
coste, por lo general es de millones de euros y su velocidad de proceso es muy elevada.
En cambio, la clasificación más extendida hoy en día también en función de su potencia de cálculo, es:
 Ordenador doméstico o controlador: este tipo de dispositivos están diseñados para controlar el funcionamiento de
determinados mecanismos. Se pueden encontrar en los ascensores, en sistemas de riego, control de alumbrado y
en muchos de los electrodomésticos que se utilizan habitualmente en las casas.
 Ordenador personal (PC): equipos ampliamente difundidos, de precio muy reducido y de prestaciones suficientes
no sólo para el nivel personal, sino para pequeñas empresas. Actualmente se conectan entre sí, formando grandes
redes lo cual los hace adecuados para entornos más exigentes, sustituyendo en muchos casos a los
miniordenadores. Dentro de esta categoría se incluyen ordenador portátil (laptop, con peso de 3 a 4 kg; notebook
con peso de 1,5 a 2 kg), PDA’s (Personal Digital Assistant), Tablet PC, Pocket PC, teléfonos inteligentes
(smartphones), etc.
 Estación de trabajo: equipos monousuario, dotados de grandes capacidades de cálculo y con posibilidades gráficas
muy elevadas. Se utilizan principalmente en la investigación científica y en aplicaciones técnicas, como por
ejemplo la simulación. Su precio está bajando y actualmente son competitivas con los microordenadores de gama
alta. Estos equipos no sirven para aplicaciones de gestión.
 Mainframe
 Superordenador

046b.2. Componentes de un PC
Un PC esta formado por los siguientes componentes (sistemas) físicos y lógicos:
1. El sistema Físico consta de los siguientes subsistemas:
a) El subsistema Central: está constituido por la unidad de control, la unidad aritmética lógica, la memoria prin-
cipal, y los buses. Al conjunto formado por la unidad aritmética lógica y la unidad de control se le denomina
Unidad Central de Proceso (UCP).
i. Unidad de Control: dirige todas las actividades del ordenador, generándose señales de control para el
resto de las unidades según el código de operación de la instrucción. La ejecución de la instrucción
supone realizar una serie de operaciones elementales a través de la activación de distintas señales de
control.
ii. Unidad Aritmética Lógica: ejecuta las operaciones aritméticas lógicas que le señala la instrucción resi-
dente en la unidad de control.
iii. Memoria Principal: almacena las instrucciones de los programas, los datos que ha de procesar y los
resultados que obtiene al ejecutar los programas. Esta constituida por celdas o elementos capaces de
almacenar 1 bit de información (elemento de memoria que tiene el estado 0 o el estado 1). La
memoria se organiza en conjuntos de elementos de un tamaño determinado y, a cada palabra, le
corresponde una dirección única.
iv. Buses (1): son los canales de comunicación entre los distintos elementos del subsistema Central. Un
bus es un conjunto de líneas conductoras que permiten transmitir direcciones, datos y señales de
control entre los componentes de un sistema informático. Los buses pueden ser internos (como los
que posee la CPU para interconectar sus componentes internos) o externos (como los que
interconectan los periféricos o la memoria con el microprocesador). Más específicamente se pueden
mencionar los siguientes tipos de buses:
I. De datos: son las líneas de comunicación por donde circulan los datos externos e internos
del microprocesador.
II. De dirección: línea de comunicación por donde viaja la información específica sobre la
localización de la dirección de memoria del dato o dispositivo al que se hace referencia.
III. De control: línea de comunicación por donde se controla el intercambio de información con
un módulo de la unidad central y los periféricos.

(1)
Para una consulta detallada, ver el apartado 046b.2.1.4. Buses

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 15
II: TECNOLOGÍA BÁSICA

IV. De expansión (I/O): conjunto de líneas de comunicación encargado de llevar el bus de


datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada, salida) que se
agrega a la tarjeta principal.
V. Del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema,
mediante distintos tipos de datos el microprocesador y la memoria principal. La velocidad
de trasferencia del bus de sistema está determinada por la frecuencia del bus y el ancho
del mínimo.

b) El subsistema de Entrada/Salida: constituido por procesadores de entrada/salida, controladores o procesa-


dores de periféricos y los propios periféricos.
Este subsistema interacciona directamente con el subsistema Central a través de los procesadores de
entrada/salida. El procesador de entrada/salida gestiona el acceso a la memoria del subsistema Central y la
interacción con el controlador o procesador de periféricos. La conexión del procesador de entrada/salida y del
controlador periférico se realiza a través de un canal por el que se envían datos, señales de control, etc. El
procedimiento de intercambio de información y los protocolos utilizados están estandarizados, permitiendo
que distintos controladores de periféricos utilicen el mismo interface Una operación de entrada/salida es
puesta en marcha por un componente software, denominado programa de canal.
Los sistemas operativos suelen tener rutinas para gestionar directamente los periféricos ya que sería
extremadamente difícil realizarlo desde los lenguajes de alto nivel.
Los periféricos según su función pueden ser de entrada, de salida o que realizan funciones de almacenamien-
to auxiliar.
 Unidades de Entrada: son dispositivos por los que se introducen los datos al ordenador. En estas
unidades se transforma la información codificada en señales eléctricas comprensibles por la CPU.
 Unidades de Salida: son los dispositivos en los que se obtienen los resultados de los programas
ejecutados en la computadora, normalmente transformando las señales eléctricas en caracteres escritos
o visualizados.
 Unidades que realizan funciones de Almacenamiento Auxiliar: aunque la memoria principal es muy
rápida, su capacidad es reducida y además la información contenida en ella se volatiliza en cuanto se
apaga el ordenador, por ello, hay que recurrir a la memoria auxiliar mucho más lenta pero de mayor
capacidad y de carácter no volátil. Los dispositivos típicos de memoria auxiliar son los discos y las cintas
magnéticas. Son unidades de entrada/salida.
c) El subsistema de Comunicaciones: constituido también por procesadores de entrada/salida, procesadores
de comunicaciones y por los elementos físicos de las redes de comunicaciones.
Los componentes físicos del subsistema de comunicaciones son los procesadores y líneas de comunicaciones,
los módems, los concentradores, los multiplexores, los terminales, etc. Los procesadores de comunicaciones
realizan, en relación con el subsistema central, funciones similares a los controladores o procesadores de
periféricos. El enlace es también a través del procesador de entrada/salida. Los procesadores de
comunicaciones gestionan la red de comunicaciones.
Los procesadores de entrada/salida aunque forman parte, según sus funciones, del subsistema de entrada/salida
o del subsistema de comunicaciones físicamente, muchas veces están incluidos en el procesador central. En
cualquier caso, el esquema puede variar según el sistema físico concreto.

Arquitectura de un sistema físico


En una primera acepción se entiende que dos ordenadores tienen la misma arquitectura si tienen el mismo juego
de instrucciones. Sin embargo, por arquitectura se entiende un término más amplio que incluye todos los aspectos
relativos a la estructura, organización y funcionamiento del Sistema.
Se pueden mencionar las siguientes arquitecturas de Sistemas Físicos:
 Arquitectura de bus único: en la que todos los componentes del ordenador ―unidad de control, unidad
aritmética lógica, memoria, etc.― intercambian datos compartiendo el bus. Es una arquitectura típica de los
mini y microordenadores.
 Arquitectura distribuida: sistemas multiprocesadores en los que las diferentes funciones del Sistema se
encuentran distribuidos en procesadores especializados: de instrucciones, de cálculo, de direcciones, etc.
 Arquitectura paralela: varios procesadores idénticos trabajan en paralelo. Existen diferentes tipos: SISD (Single
lnstrucction Single Data), SIMD (Single lnstruction Multiple Data), MISD (Multiple Instruction Multiple Data) y
MIMD (Multiple lnstruction Multiple Data).
 Arquitectura “Pipeline”: la ejecución de una instrucción se divide en fases. Existen componentes especializados
dentro del procesador para la ejecución de cada una de las fases.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 16
II: TECNOLOGÍA BÁSICA

 Arquitectura “Fault Tolerant”: es la arquitectura en la que existe suficiente redundancia y, por tanto, permite
asegurar un funcionamiento correcto del Sistema, aún en caso de fallo de algunos de sus elementos.

2. El sistema Lógico consta de:


a) Software de Sistema: son programas imprescindibles para el funcionamiento de un ordenador, que
administran los recursos hardware de éste y facilitan ciertas tareas básicas al usuario y a otros grupos de
programas. El ejemplo más importante de este tipo de software es el sistema operativo.
Un sistema operativo es un programa, que se ejecuta en un procesador, encargado de llevar a cabo una serie
de funciones y cuyo objetivo es simplificar el manejo y la utilización del ordenador de modo seguro y eficien-
te. Las funciones que lleva a cabo un sistema operativo son las siguientes:
 Permitir la ejecución de programas ofreciendo para ello una máquina extendida.
 Administración y gestión de los recursos del ordenador.
 Interfaz de usuario.
Igualmente, se encarga de ofrecer a las aplicaciones una serie de servicios, conocidos como llamadas al sis-
tema. Entre ellas se pueden mencionar: ejecución de programas, operaciones de Entrada/Salida y detección y
tratamiento de errores.
b) Software de desarrollo: también se les denomina lenguajes de programación o sistemas de desarrollo. Son
programas que sirven para crear otros programas. Utilizan los servicios prestados por el software del sistema.
c) Software de aplicación: son el resultado de los desarrollos realizados con los lenguajes de programación del
grupo anterior, que originan las aplicaciones que manejan los usuarios finales. En este grupo se encuentran
los procesadores de texto, editores gráficos, programas de diseño, bases de datos, etc. Hace uso de los re-
cursos que ofrecen el software de sistema.

046b.2.1. Subsistema Físico


046b.2.1.1. Placa Base
La placa base (mother board) de un ordenador es el dispositivo sobre el que se insertan los demás componentes del PC,
tales como el microprocesador, las diferentes tarjetas de expansión y la memoria. La función principal de la placa base
es servir de vía de comunicación entre los citados componentes, proporcionando las líneas eléctricas necesarias y las
señales de control para que todas las transferencias de datos se lleven a cabo de manera rápida y fiable.
Se diseña básicamente para realizar tareas específicas vitales para el funcionamiento del computador, como por ejemplo:
 Conexión física.
 Administración, control y distribución de energía eléctrica.
 Comunicación de datos.
 Temporización.
 Sincronismo.
 Control y monitorización.
Para que la placa base cumpla con su cometido, tiene instalado un software muy básico denominado BIOS (Basic Input
Output System). Este software es almacenado en un chip de memoria EPROM (Erasable Programmable Read-Only
Memory, memoria sólo lectura que puede ser borrada y programada), cuyo contenido permanece inalterable al apagar el
PC. Se puede reprogramar y es el primer software en ejecutarse en el proceso de arranque de una placa base.
Los principales elementos de una placa base son los siguientes:
a) Zócalos o ranuras: son elementos para la inserción de componentes hardware. Hay dos tipos de zócalos:
i. Zócalos para el procesador: los principales son Intel y AMD. Tienen dos denominaciones distintas:
 Slot: zócalo de microprocesador de formato longitudinal.
 Socket: zócalo de microprocesador cuadrangular o rectangular. El socket 478 contiene 478 pines
y es de la marca de Intel. Fue reemplazado por el socket 775 que carece de pines.
La placa base necesita una configuración de zócalo de microprocesador en función del tipo de
procesador.

ii. Zócalos para la memoria; sirven para la inserción de módulos de memoria y siempre son de tipo SLOT.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 17
II: TECNOLOGÍA BÁSICA

Los zócalos de la memoria pueden ser de tipo DIMM (Dual Inline Memory Module) que son reconocibles
externamente por poseer sus contactos (o pines) separados en ambos lados. Los hay para módulos de
168, 184 y 240 contactos. Antecedentes de los DIMM están los módulos SIMM (Single Inline Memory
Module), que poseen los contactos de modo que los de un lado están unidos con los del otro.
Un DIMM puede comunicarse con el PC a 64 bits (y algunos a 72 bits) en vez de los 32 bits de los
SIMM. En DIMM se insertan módulos de memoria a ambas caras del módulo, en cambio en SIMM sólo
se hace por una cara.
Hay casos en los que no sirve ninguno de los módulos anteriores, entonces se usa SO-DIMM (Small
Outline Dual Inline Memory Module) que consisten en una versión compacta de los módulos DIMM
convencionales. Se usan para dispositivos Tablet PC, impresoras, portátiles, algunas PDAs, etc.
Los módulos SO-DIMM tienen 100, 144 o 200 pines. Los de 100 pines soportan transferencias de datos
de 32 bits, mientras que los de 144 y 200 lo hacen a 64 bits. Estas últimas se comparan con los DIMMs
de 168 contactos (que también realizan transferencias de 64 bits). A simple vista, se diferencian porque
las de 100 tienen 2 hendiduras guía, las de 144 una sola hendidura casi en el centro y las de 200 una
hendidura parecida a la de 144 pero más desplazada hacia un extremo
b) Voltajes: los valores de tensión están entre 3 y 12 Voltios.
c) Batería: es una pequeña pila que viene incorporada en todas las placas base y su función básica es mantener la
alimentación eléctrica del reloj de tiempo real (RTC), así como diversos parámetros (sobre el disco duro y de
configuración de usuario), que son utilizados por la BIOS en el arranque del computador.
d) Frecuencia (velocidad): es la que maneja el elemento de conexión único que existe en la placa base y el FSB
(Front Side Bus). Este bus representa el camino por el cual es posible integrar en la placa base los distintos
componentes hardware para el intercambio de información entre microprocesador, memoria y el subsistema de
Entrada/ Salida (subsistema de E/S).
Para realizar intercambio de información con cualquiera de los elementos microprocesador, memoria y
subsistema de E/S se debe hacer uso del FSB. La velocidad del FSB es siempre inferior a la velocidad interna del
microprocesador.
En todo PC hay que diferenciar dos frecuencias distintas: la frecuencia interna o velocidad de ciclo del
procesador y la frecuencia externa o velocidad del FSB. Hay que ajustar velocidades de los distintos
componentes hardware. El elemento que introduce esa posibilidad de ajuste entre distintas velocidades es el
chipset.
e) Chipset: es un conjunto de circuitos integrados con alta escala de integración diseñado con técnicas similares a
las del microprocesador y que se especializan en la realización de dos técnicas fundamentales:
i. Controlar los intercambios de información entre microprocesador y memoria principal usando el FSB.
ii. Controlar los intercambios de información entre microprocesador y subsistema de E/S haciendo uso del
FSB.
En las placas base antiguas no existían los chipset. En estas placas existía un bus (ISA o EISA) que conectaba
todos los componentes: la memoria, las tarjetas de controladores, tarjetas de video, procesador, teclado, etc.
Todos estos componentes (incluyendo la CPU) funcionaban a la misma velocidad. Cada nueva generación de
procesadores requería unos componentes completamente distintos y el bus, cada vez, era más exigido para
proporcionar mayor velocidad. Algunos fabricantes intentaron construir dispositivos que pudieran funcionar a
distintas velocidades, aunque no lo consiguieron lograr con la suficiente calidad.
Para reducir los problemas de compatibilidad y evitar el consiguiente gasto en cada nueva generación de
procesadores, Compaq (en 1985) separó la velocidad del bus de la velocidad del procesador. De esta forma, se
evitaba que con cada nuevo procesador se tuvieran que construir nuevas versiones de los dispositivos
conectados. Esta mejora fue muy importante, pero requería una nueva interfaz para que todos los dispositivos
pudieran seguir funcionando a distintas velocidades.
Los fabricantes de placas base comenzaron a proporcionar más chips para componentes en vez de la tarjetas de
expansión. Los primeros fueron para los controladores de teclado, a los que se añadieron controladores de
discos flexibles (diskettes), puertos serie, y controladores de disco duro (año 1994). Se había comenzado el
cambio de los componentes integrados en las placas base.

Después de sufrir durante mucho tiempo los buses lentos, Intel introdujo (en 1994) el bus PCI pensado como un
bus de expansión, más que propiamente como solo un bus. Con PCI, se comenzó el uso de un lenguaje propio y

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 18
II: TECNOLOGÍA BÁSICA

único, con un bridge incorporado que permitía la traducción de los comandos PCI al lenguaje de la CPU y de la
memoria RAM. De esta forma, se podía trabajar tanto con el bus PCI como con la CPU y la memoria RAM de una
forma sencilla. Este bridge fue llamado North Brigde. Para conservar la compatibilidad con los buses anteriores
(ISA o EISA) y los componentes no integrados de estos buses, se construyó otro bridge (South Bridge) que se
comunicaba con ellos. Todos estos componentes constituyeron el origen de los chipset’s
En la actualidad, cualquier placa base debería proporcionar, como mínimo, dos chipsets integrados a la placa (no
insertados en zócalos)
i. Chipset1, que vincule microprocesador y memoria principal
ii. Chipset2, que vincule microprocesador y subsistema de E/S
El chipset es un elemento esencial de la placa base. Hace posible que la placa base funcione como eje del
sistema, dando soporte a varios componentes e interconectándolos de forma que se comuniquen entre ellos a
través de diversos buses. Es uno de los pocos elementos que tiene conexión directa con el procesador, gestiona
la mayor parte de la información que entra y sale por el bus principal del procesador, del sistema de vídeo y
muchas veces de la memoria RAM.
El primer grado de obsolescencia de una placa base depende del chipset, ya que no hay posibilidad de modificar
el chipset pues va soldado a ella. El grado de actualización, en cuanto a conectores y buses de E/S, está
condicionado por el chipset2. Algunos fabricantes de chipsets son Intel, AMD, VIA Technologies, NVidia y ALI.
Las diferentes funciones lógicas que suele integrar cualquiera de los chipsets actuales son las siguientes:
 Soporte para el microprocesador. Una de las principales funciones del chipset es la detección correcta
del microprocesador y el pleno soporte de todas sus funciones. Esta es una de las principales razones
de la rápida evolución de los chipsets: nuevos procesadores, cada vez más rápidos, necesitan nuevos
chipsets que les proporcionen un soporte completo. Cada chipset se diseña pensando en un procesador
o familia de procesadores concretos. Igualmente, el chipset es el responsable directo de que la placa
base soporte mas de un microprocesador, en el caso de placas base duales o con más de dos
microprocesadores.
 Controlador de memoria (MMU, Memory Management Unit). Gestiona la memoria RAM del sistema y en
general todo el subsistema de memoria, incluidos los diferentes niveles de memoria cache.
 Controlador IDE/ATAPI para discos duros y otros dispositivos de almacenamiento que cumplan con el
estándar IDE/ATAPI. Esta parte del chipset es la encargada de controlar los dos conectores IDE que
habitualmente suelen integrar todas las placas bases actuales. Directamente relacionados con esta
función, están los modos de transferencia.
 Control de los periféricos y del bus de E/S. Las placas base actuales disponen de una serie de buses,
principalmente PCI y AGP. El chipset es el responsable de la gestión de los buses PCI y de ofrecer el
soporte para el bus gráfico AGP. Algunas de las denominaciones de los chipsets históricos de Intel
están en línea directa con esta función, con denominaciones como PCIset y AGPset. Esta función
también incluye el soporte para nuevas tecnologías, como USB 2.0 o IEEE 1394.
 Controlador de Interrupciones. Gestiona todo el sistema de interrupciones del PC.
 Reloj de Tiempo Real (RTC). Mantiene la hora del sistema.
 El soporte para la gestión de energía. Todos los chipsets actuales soportan una serie de funciones para
gestión y ahorro de energía eléctrica
 Controlador de Acceso Directo a Memoria (DMA, Direct Memory Access). Permite el acceso directo a la
memoria a determinados dispositivos, sin pasar por el microprocesador, lo que agiliza el rendimiento de
ciertas operaciones con dispositivos específicos como los discos duros. El DMA es controlado por una
parte del chipset denominada controlador de DMA. Igualmente, el driver es el que soporta la función de
arbitraje de bus (bus mastering), que es una mejora del DMA, que permite que un dispositivo tome
directamente el control del bus del sistema para llevar a cabo las transferencias de datos.
 Controlador de infrarrojos (IrDA). Controla la conexión de dispositivos que funcionen mediante rayos
infrarrojos.
 Controlador tipo PS/2. Controla toda la actividad y el funcionamiento del teclado y de ratones con este
formato.

f) Elementos de expansión: la expansión está asociada con la funcionalidad del Chipset2 y se concreta con buses
de expansión (2) que pueden dar entrada a interfaces de E/S estandarizados y actualizados lo más posible.

(2)
Para una consulta detallada, ver el apartado 046b.2.1.4. Buses

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 19
II: TECNOLOGÍA BÁSICA

g) Puertos y conectores
Conectores externos
 Dos puertos serie, controlados por un chip UART (Universal Asynchronous Receiver-Transmitter,
Transmisor Asíncrono Universal) controlador serie de alta velocidad, compatible con el chip UART
16550 original de National Semiconductor. Estos dos puertos se suelen denominar COM1 y COM2
respectivamente. El COM1 se usa habitualmente para la conexión de ratones serie, mientras que el
COM2 queda libre para la conexión de dispositivos serie tales como módems externos. Existen
conectores serie externos de tipo DB9 y DB25 (de 9 y 25 patillas, respectivamente).
 Un puerto paralelo multimodo para la conexión de dispositivos paralelos, generalmente impresoras y,
en menor medida, escáneres y otros dispositivos de esta misma naturaleza
 El término multimodo hace referencia a que el puerto es capaz de soportar tres modos de funciona-
miento característicos: SPP (Single Paralell Port), ECP (Extended Capabilities Port) y EPP (Enhanced
Paralell Port). Estos suelen ser los tres modos habituales de transmisión del puerto paralelo, en orden
creciente de prestaciones. El conector es de tipo hembra con 25 pines agrupados en dos filas.
 Varios puertos USB (Universal Serial Bus). Tienen forma estrecha y rectangular y permiten la conexión
en caliente de dispositivos que cumplan este estándar. Actualmente, la mayoría de placas base soporta
la especificación USB 2.0.
 Dos puertos IEEE 1394 (Firewire). Permiten la conexión en caliente de dispositivos que cumplan este
estándar de alta velocidad. Actualmente los principales dispositivos IEEE 1394 son sistemas de video
digital (DV) y unidades de almacenamiento externas.
 Dos puertos PS/2, uno para teclado y otro para ratón. Ambos son conectores de tipo mini-DIN de seis
patillas. Este suele ser el tipo habitual de conectores para ratón y teclado en las actuales placas base
ATX.
 Puerto para juegos, en el que habitualmente se suelen conectar dispositivos como palancas o mandos
de juegos (Joysticks y Gamepads), o dispositivos de audio, tales como teclados MIDI (Musical
Instrument Digital Interface).
 Conectores de audio, generalmente para clavijas de tipo jack estéreo, siendo los más habituales los de
entrada y/o salida de línea (line in/line out), entrada de micrófono (mic in) y salida de altavoces
(speaker out).
 Conector VGA para la tarjeta gráfica: es un conector estándar para tarjeta gráfica. Consta de 15 pines
agrupados en tres filas.
Conectores internos.
 Conector para disquetera. Donde se inserta la banda de cable para datos de la disquetera.
 Conectores IDE. Para la conexión de dispositivos IDE, principalmente discos duros y lectores de CD-
ROM.
 Conectores para el refrigerador del microprocesador. Denominados generalmente Fan Power.
 Conector para arranque desde red (WakeOn-LAN).
 Conector para arranque desde línea telefónica mediante módem (WakeOn-Ring). Permite encender y
apagar remotamente nuestro equipo a través de la línea telefónica mediante un módem que soporte
esta función.
 Conector para módulo de infrarrojos (irDA).
 Controlador de Entrada/Salida: similar al chipset, es un chip que integra la mayoría de funciones de
entrada y salida de información de la placa base. Dentro de este chip se suelen integrar, entre otros,
los siguientes elementos: Incorporan una UART (controlador de puertos serie), el controlador del
puerto paralelo, la controladora de la disquetera. Muchos chips de E/S incluyen además el reloj de
tiempo real y el controlador de teclado.

h) Sistemas de monitorización de la placa base


Desde hace un tiempo se han hecho bastante frecuentes una serie de sistemas y estándares para la
monitorización de determinadas características de la placa base, lo que permite disponer, en tiempo real, de un
completo diagnóstico sobre el estado de salud de nuestro PC. Se pueden mencionar las siguientes tecnologías y
estándares existentes relacionados con esta monitorización:

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 20
II: TECNOLOGÍA BÁSICA

 DMI (Desktop Management Interface): es un estándar que permite la monitorización de determinadas


funciones del PC, así como parámetros que pueden servir como indicadores del buen o mal
funcionamiento de los diferentes componentes, todo ello, de manera centralizada y única. El DMI es
un estándar totalmente independiente del hardware y del sistema operativo y permite gestionar, tanto
ordenadores aislados, como conectados en red.
En relación con el ahorro de energía, la agencia estadounidense de protección medioambiental (EPA)
desarrolló (en 1992) el programa Energy Star, que certificaba a aquellos PC que se consideraban
eficientes en cuanto al ahorro de energía. A mediados de 2007, se actualizó esta especificación.
Actualmente, este programa es voluntario para los integradores de sistemas. Solo es obligatorio para
adquisiciones públicas y del gobierno federal en Estados Unidos y Europa (los 27 estados). Pero la
demanda de sistemas certificados aumenta, a medida que crece el coste energético y la toma de
conciencia sobre la conservación del medio ambiente
 APM (Advanced Power Management): es componente software (desarrollado por Intel y Microsoft) que
se integra en determinados sistemas operativos junto con la BIOS del sistema, y basándose en ésta,
permite controlar las diferentes funciones de ahorro de energía (la velocidad de la CPU, apagar el
disco duro o apagar el monitor después de un período de inactividad para conservar corriente
eléctrica).
 ACPI (Advanced Configuration and Power Interface): es un estándar de gestión de energía
desarrollado por Intel, Microsoft y Toshiba en 1996 que permite pasar todo el control de la gestión de
energía directamente al sistema operativo, lo que facilita funciones tales como apagar
automáticamente el sistema ó dejarlo en estado de hibernación. Todas las versiones actuales de
Microsoft Windows lo soportan.
Tanto APM como ACPI son dos estándares de gestión de energía. La diferencia fundamental es que APM
realiza la gestión desde la BIOS, a un nivel más bajo, mientras que con ACPI la práctica totalidad de
funciones de gestión de energía se encuentra en el propio sistema operativo, que debe incluir soporte para
ACPI.
i) Las peticiones de interrupción (IRQ Interrupt ReQuest)
Los recursos del sistema cobran una gran importancia, puesto que son compartidos por diferentes dispositivos
físicos. La cantidad de recursos del sistema es bastante limitada por razones derivadas del diseño del PC
original, de tal forma, que a medida que se añaden dispositivos al sistema, la cantidad de recursos disponibles
disminuye, hasta el punto de convertirse en un serio problema en sistemas con gran cantidad de dispositivos
instalados. Esto puede llevar a conflictos entre dispositivos que intenten hacer uso de un mismo recurso,
generando uno de los principales problemas en la configuración de un PC.
Básicamente, una interrupción es un mensaje enviado por algún componente del PC a otro componente,
generalmente al microprocesador, que indica a éste que debe detener la ejecución de todo lo que este
haciendo, atender al dispositivo que envía la petición de interrupción y, posteriormente, continuar donde lo
había dejado. Las señales enviadas se denominan peticiones de interrupción ó IRQ
046b.2.1.2. Microprocesador
El microprocesador o Unidad Central de Procesamiento (UCP), es un circuito integrado que sirve como cerebro del
computador. En el interior de este componente electrónico existen millones de transistores integrados.
Internamente, un microprocesador está compuesto por millones de pequeños componentes electrónicos llamados
transistores. Actualmente, los microprocesadores se fabrican con unas distancias entre transistores del orden de 0,18
micras. El hecho de disminuir la separación entre transistores permite, que en el mismo espacio, se puedan concentrar
más transistores, aumentando así la potencia del procesador.
Otro parámetro que mide la potencia de un procesador es su frecuencia de reloj. La frecuencia de reloj de un procesador
se mide en Megaherzios (MHz) o bien en Gigaherzios (GHz). A cada herzio también se le suele denominar ciclo. En cada
ciclo un procesador puede realizar una o varias microoperaciones. Cada microoperación es una parte de una operación.
De este modo, cuanto mayor sea esta frecuencia de reloj, mayor número de microoperaciones podrá realizar.

Por último, hay que destacar que la potencia de un microprocesador no se debe medir sólo por su frecuencia de reloj,
sino también por su número de transistores, por su tecnología de fabricación, por sus niveles internos de memoria caché,
etc. Existen además diversos índices mediante los cuales se puede medir la potencia de un ordenador:
 MIPS: mide cuántos millones de instrucciones por segundo es capaz de ejecutar un procesador. Este índice no
tiene en cuenta que hay procesadores con instrucciones más potentes que las de otros, por lo que se puede
considerar como una medida simplista.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 21
II: TECNOLOGÍA BÁSICA

 MFLOPS: mide cuantos millones de instrucciones de coma flotante por segundo es capaz de ejecutar el
procesador. Análogamente, esta medida no tiene en cuenta las diferencias entre las instrucciones de
procesadores diferentes. Normalmente, los fabricantes de procesadores suelen proporcionar para los índices
MIPS y MFLOPS picos de rendimiento.
 SPEC: ejecuta en el procesador un conjunto de programas y combina las medidas de prestaciones de éstos
con la media aritmética o geométrica.
 SPECint y SPECfp: son unos índices que miden las velocidades en operaciones con enteros y con coma
flotante. La medida resultante se denomina SPECmarks.
Los microprocesadores suelen tener forma de prisma chato, y se instalan sobre un elemento llamado zócalo (ver
apartado anterior). También, en modelos antiguos, se solía soldar directamente a la placa madre. Aparecieron algunos
modelos donde se adoptó el formato de cartucho, sin embargo no tuvo mucho éxito. Actualmente, se dispone de un
zócalo especial para alojar el microprocesador y el sistema de enfriamiento, que comúnmente es un ventilador ( cooler).
El microprocesador está compuesto por:
a) Banco de Registros
b) Unidad de control
c) Unidad aritmético-lógica
d) Unidad de Coma Flotante (dependiendo del microprocesador)
e) Bus de control
A continuación se explica con más detalle cada uno de estos elementos
a) Banco de Registros
Un registro es una memoria de alta velocidad y poca capacidad, integrada en el microprocesador, que permite
guardar y acceder a valores muy usados, generalmente en operaciones matemáticas.
Los registros están en el punto más alto de la jerarquía de memoria, y son la manera más rápida que tiene el
sistema de almacenar datos. Los registros se miden, generalmente, por el número de bits que almacenan; por
ejemplo, un "registro de 8 bits" o un "registro de 32 bits".
Por otro lado, un procesador puede tener registros de estos tres tipos:
 Registros de propósito general: son aquellos que pueden ser usados explícitamente por el programador
mediante el lenguaje ensamblador
 Registros de propósito específico: son los que su valor sólo puede modificarse mediante instrucciones
específicas. En este grupo, se encuentra un registro llamado contador de programa (PC, Program
Counter) cuya función es apuntar, en todo momento, a la siguiente instrucción a ejecutar. Dentro de
este grupo de registros también se encuentran otros como el registro de estado (almacena cierta
información sobre las operaciones que tienen lugar en la ALU) y el registro de puntero de pila (contiene
una dirección de memoria a partir de la cual se encuentran una serie de datos).
 Registros transparentes: son registros sobre los que el programador no puede ni actuar ni referenciar.
Son utilizados internamente por el procesador. Entre ellos se encuentra un registro muy importante, el
denominado registro de instrucción, que contiene la instrucción que se está ejecutando.
b) Unidad de Control
La Unidad de control es el "cerebro del microprocesador". Es la encargada de activar o desactivar los diversos
componentes del microprocesador en función de la instrucción que el microprocesador esté ejecutando y de la
etapa de dicha instrucción en que se encuentre.

La unidad de control (UC) interpreta y ejecuta las instrucciones almacenadas en la memoria principal y genera
las señales de control necesarias para ello.
Existen dos tipos de diseños para construir una Unidad de Control:
 Unidad de control cableada: se construye, en su mayor parte, mediante puertas lógicas. Una puerta
lógica es un pequeño circuito electrónico que se comporta como alguna de las operaciones lógicas vistas
en el tema anterior, con la diferencia de que los valores verdadero y falso son ahora señales eléctricas
con tensión alta o baja. El conjunto de puertas lógicas actuará en función del tipo de instrucción leída.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 22
II: TECNOLOGÍA BÁSICA

 Unidad de control microprogramada: está formada por puertas lógicas y por una memoria que
almacena, para cada instrucción, qué señales de control internas se deben activar y desactivar en cada
instante con el fin de realizar la función de dicha instrucción. La información referente a la señales de
control se almacena en esa memoria mediante secuencias de unos y ceros. A cada palabra de esta
memoria formada por unos y ceros se le denomina microinstrucción, la cual define uno de los pasos por
los que está compuesta una instrucción. Cada bit de ésta se referirá a una señal interna específica de la
unidad de control. Al conjunto ordenado de microinstrucciones necesarias para la ejecución de una se le
denomina microprograma.
c) Unidad aritmético-lógica
La Unidad Aritmético Lógica (UAL), o Arithmetic Logic Unit (ALU), es un circuito digital que calcula operaciones
aritméticas (como suma, resta, etc.) y operaciones lógicas (como OR, NOT, XOR, etc.) entre dos números.
Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el
circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual y
comprobando si debe activar el pitido del temporizador, etc.
Con diferencia, los circuitos electrónicos más complejos son los que están construidos dentro de los chips de
microprocesadores modernos como el Pentium. Por lo tanto, estos procesadores tienen en su interior una ALU
más compleja y poderosa. De hecho, un microprocesador moderno (y los mainframes) pueden tener múltiples
núcleos, cada uno con múltiples unidades de ejecución, cada una de ellas con múltiples ALU.

La ilustración muestra un típico símbolo


esquemático para una ALU:
 A y B son operandos.
 R es la salida.
 F es la entrada de la unidad de control.
 D es un estado de la salida

d) Unidad de Coma Flotante


Una Unidad de Punto Flotante o Unidad de Coma Flotante (Floating Point Unit) o, más comúnmente conocido
como, coprocesador matemático, es un componente de la CPU especializado en el cálculo de operaciones en
coma flotante. Las operaciones básicas que toda FPU puede realizar son las aritméticas (suma y multiplicación),
si bien algunos sistemas más complejos son capaces también de realizar cálculos trigonométricos o
exponenciales.
No todas las CPUs tienen una FPU dedicada. En ausencia de FPU, la CPU puede utilizar programas en
microcódigo para emular una función en coma flotante a través de la unidad aritmético-lógica (ALU), la cual
reduce el coste del hardware a cambio de una sensible pérdida de velocidad.
En algunas arquitecturas, las operaciones en coma flotante se tratan de forma completamente distinta a las
operaciones enteras, con registros dedicados y tiempo de ciclo diferentes. Incluso para operaciones complejas,
como la división, podrían tener un circuito dedicado a dicha operación.
e) Bus de control
Generalmente, este bus interno es supervisado y controlado por el microprocesador debido a que es una vía de
comunicación compartida por varios elementos del computador.

Un bus tiene multitud de características, entre las cuales se destacan las siguientes:
 Ancho de banda: número máximo de elementos de información que se pueden transmitir por unidad de
tiempo (por ejemplo, MB/s).
 Frecuencia: los buses también poseen una frecuencia de trabajo. Cuanto mayor sea esta frecuencia más
cantidad de información por unidad de tiempo será capaz de transmitir.
 Grado de paralelismo: indica cuántas unidades de información, usualmente bits, es capaz de transmitir
el bus simultáneamente. Aquí se encuentran los buses de tipo serie que sólo pueden transmitir bit a bit,
y los buses paralelos que son capaces de transmitir n bits en un determinado instante. A esta
característica también se denomina ancho de bus.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 23
II: TECNOLOGÍA BÁSICA

 Función: el bus puede ser de uso general o tener una función específica, como utilizarse solamente para
la transmisión de datos, direcciones o información de control.
 Longitud: dependiendo del ámbito de aplicación del bus, éste deberá tener una longitud máxima
establecida.
 Físicas y eléctricas: el bus, al estar fabricado con alguno de los materiales conductores, tendrá unas
propiedades eléctricas determinadas.
Los desarrollos comerciales de los tipos de buses se pueden consultar en el apartado 046b.2.1.4 Buses

046b.2.1.2.1. Historia
El primer procesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Los diseñadores fueron Ted
Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde ZiLOG).
A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad,
desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel
Xeon, Intel Itanium II, Transmeta Efficeon o Cell.
En la actualidad, los microprocesadores pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128,
64, 32, 16, 8 y 4 bits. Desde la aparición de los primeras computadoras, en los años cuarenta, muchas fueron las
evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple disminución del
procesador.
Entre estas evoluciones se pueden destacar estos hitos:

 ENIAC (Electronic Numeric Integrator And Calculator) Fue una computadora con procesador multiciclo de
programación cableada, esto es, la memoria contenía sólo los datos y no los programas. ENIAC fue el primer
computador que funcionaba según una técnica a la que, posteriormente, se dio el nombre de monociclo.
 EDVAC (Electronic Discrete Variable Automatic Computer) fue la primera máquina de Von Neumann. La primera
máquina que contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo.

 El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La segmentación siempre
ha sido fundamental en Arquitectura de Computadores desde entonces.

 El IBM 360/91 su creación supuso grandes avances en la arquitectura segmentada, introduciendo la detección
dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de reserva.
 El CDC 6600 fue otra importante computadora de microprocesador segmentado, a la que se considera el primer
supercomputador.
 El último gran hito de la Arquitectura de Computadoras fue la segmentación superescalar, propuesta por John
Cocke, que consiste en ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los primeros
procesadores superescalares fueron los IBM Power-1.

046b.2.1.2.2. Avances
Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en
una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas. Las partes lógicas que
componen un microprocesador son, entre otras: unidad aritmético-lógica, registros de almacenamiento, unidad de
control, Unidad de ejecución, memoria caché y buses de datos control y dirección.

Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a la Arquitectura de
Computadoras que a la miniaturización electrónica. El microprocesador se compone de muchos componentes. En los
primeros procesadores gran parte de éstos estaban ociosos el 90% del tiempo. Sin embargo, hoy en día, los
componentes están repetidos una o más veces en el mismo microprocesador, y los buses están hechos de forma que
siempre trabajan todos los componentes. Por eso, los microprocesadores son tan rápidos y tan productivos.
La fuerte competencia en el mundo de los procesadores, especialmente entre Intel y AMD, ha producido que la
tecnología actual de fabricación de procesadores este llegando a sus límites. Cada vez, la miniaturización de los
componentes del procesador es más difícil (el límite de construcción del silicio ronda los 15-20nm, donde el silicio
empieza a ceder por falta de consistencia, ya se ha llegado a los 65nm), el problema de la generación de calor ha
aumentado, originando una mayor dificultad para aumentar la frecuencia principal del procesador. Todos estos
problemas dificultan el incremento de rendimiento de los procesadores.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 24
II: TECNOLOGÍA BÁSICA

Con la mencionada tecnología, los procesadores actuales no puede sobrepasar la velocidad de los 3.8 GHz y necesitan
grandes disipadores y ventiladores porque generan mucho calor. No se podía continuar fabricando procesadores de la
misma manera, se estaba llegando a un estancamiento; era necesario tomar otro camino, utilizar otra variable que
hiciera que el rendimiento del procesador aumentará. Entonces, se empezaron a construir los procesadores multinúcleo
(a partir del año 2001).
Los procesadores multinúcleo contienen dentro de su empaque varios núcleos o "cerebros". Se basan en los sistemas
distribuidos, la computación paralela, y las tecnologías como el Hyperthreading (tecnología creada por Intel para los
procesadores de la familia Pentium 4), que mostraban como dividir el trabajo entre varias unidades de ejecución.
Cronología del microprocesador
 1971: Intel 4004. Primer microprocesador comercial, presentado 15 de noviembre de 1971

 1974: Intel 8008


 1975: Signetics 2650, MOS 6502, Motorola 6800
 1976: Zilog Z80
 1978: Intel 8086, Motorola 68000

 1979: Intel 8088


 1982: Intel 80286, Motorola 68020
 1985: Intel 80386, Motorola 68020, AMD80386
 1989: Intel 80486, Motorola 68040, AMD 80486

 1993: Intel Pentium, Motorola 68060, AMD K5, MIPS R10000


 1995: Intel Pentium Pro
 1997: Intel Pentium II, AMD K6, PowerPC G3, MIPS R120007

 1999: Intel Pentium III, AMD K6-2, PowerPC G4


 2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron, MIPS R14000
 2001: Procesador Cell (IBM, Sony y Toshiba)
 2003: PowerPC G5

 2004: Intel Pentium M


 2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, AMD Athlon 64, AMD Athlon
64 X2, AMD Sempron 128.
 2006: Intel Core 2 Duo, Intel Core 2 Extreme, AMD Athlon FX
 2007: Intel Core 2 Quad, AMD Quad Core, AMD Quad FX
 2010: Intel Core vPro, Intel i3, Intel i5, Intel i7, Intel i7 Extrem, AMD con 12 núcleos.

046b.2.1.2.3. Funcionamiento
El microprocesador ejecuta instrucciones almacenadas como números binarios en la memoria principal. La ejecución de
las instrucciones se puede realizar en varias fases:
 PreFetch, Pre lectura de la instrucción desde la memoria principal.
 Fetch, ordenamiento de los datos necesarios para la realización de la operación.
 Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer.
 Ejecución.
 Escritura de los resultados en la memoria principal o en los registros.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 25
II: TECNOLOGÍA BÁSICA

Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y
concretamente de su grado de supersegmentación. La duración de estos ciclos viene determinada por la frecuencia de
reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor
coste temporal. El microprocesador dispone de un oscilador de cuarzo capaz de producir pulsos a un ritmo constante, de
modo que genera varios ciclos (o pulsos) en un segundo.
Velocidad
Actualmente se habla de frecuencias de Gigaherzios (GHz), o de Megaherzios (MHz). Lo que supone miles de millones o
millones, respectivamente, de ciclos por segundo. El indicador de la frecuencia de un microprocesador es un buen
referente de la velocidad de proceso del mismo, pero no el único. La cantidad de instrucciones necesarias para llevar a
cabo una tarea concreta, así como la cantidad de instrucciones ejecutadas por ciclo ICP (Instructions per cycle), son los
otros dos factores que determinan la velocidad de la CPU. La cantidad de instrucciones necesarias para realizar una tarea
depende directamente del juego de instrucciones disponible, mientras que ICP depende de varios factores, como el grado
de supersegmentación y la cantidad de unidades de proceso o "pipelines" disponibles, entre otros. La cantidad de
instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones.
Bus de datos
Los modelos de la familia x86 (a partir del 386) trabajan con datos de 32 bits, al igual que muchos otros modelos en la
actualidad. Pero los microprocesadores de las tarjetas gráficas, que tienen un mayor volumen de procesamiento por
segundo, se ven obligados a aumentar este tamaño, y así hoy en día, existen microprocesadores gráficos que trabajan
con datos de 128 ó 256 bits. Estos dos tipos de microprocesadores no son comparables, ya que ni su juego de
instrucciones ni su tamaño de datos son parecidos y, por tanto, el rendimiento de ambos no es comparable en el mismo
ámbito.
La arquitectura x86 se ha ido ampliando a lo largo del tiempo a través de conjuntos de operaciones especializadas
denominadas "extensiones", las cuales han permitido mejoras en el procesamiento de tipos de información específica.
Este es el caso de las extensiones MMX y SSE de Intel, y sus contrapartes, las extensiones 3DNow! de AMD. A partir de
2003, el procesamiento de 64 bits fue incorporado en los procesadores de arquitectura x86 a través de la extensión
AMD64 y, posteriormente, con la extensión EM64T en los procesadores AMD e Intel respectivamente.

046b.2.1.3. Memoria
La memoria es otro elemento importante en el PC que sirve para almacenar los programas y la información que generan
o usan éstos. Dependiendo del tipo de memoria, permite que los datos y los programas permanezcan almacenados aún
cuando el ordenador se encuentre apagado (memorias duraderas o no volátiles), o bien sólo cuando esté encendido
(memorias volátiles).
Existen dos tecnologías de memoria distintas:
1. DRAM (Dinamic Random Access Memory): memoria que necesita refresco, es decir, que se realimente con
tensión su contenido para que no se pierda. Son memorias más lentas y más sencillas de construir (consisten en
una circuitería y elementos más fáciles de integrar) y menos costosa.
2. SRAM (Static Random Access Memory): memoria que no necesita refresco. Se graba una vez la información y
perdura a lo largo del tiempo. El coste es elevado. Su diseño es más complejo y la velocidad más alta. El tiempo
de acceso es notablemente inferior.

Memoria caché
Es una memoria que se intercala entre el procesador y la memoria principal. Está gestionada por hardware, por lo que un
programa convencional no podría hacer referencia a posiciones de esta memoria. Además, es más rápida que la memoria
principal, pero de menor tamaño. Contiene información residente en la memoria principal que está siendo utilizada en un
determinado momento. Se construye utilizando tecnología SDRAM.
El objetivo de esta memoria es que los accesos a la información se realicen a una velocidad muy cercana a la del
procesador. Dicha memoria sólo se usa como caché, debido a que su fabricación resulta cara, y por esta razón muchos
comerciantes abaratan el coste de los microprocesadores quitando alguna caché o reduciendo el tamaño. Ejemplos son
los microprocesadores CELERON de INTEL y DURON de AMD.
Memoria Principal

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 26
II: TECNOLOGÍA BÁSICA

La memoria principal tiene como objeto contener los programas o porciones de éstos. De hecho, estos programas están
almacenados en la memoria secundaria y es el sistema operativo el encargado de copiarlos en la memoria principal para
que el procesador pueda ejecutarlos.
Unos conceptos particulares asociados a este tipo de memoria son el de memoria síncrona y asíncrona. Se dice que una
memoria es síncrona cuando, el intercambio de datos entre la CPU y la memoria, se realiza mediante una señal de reloj
externa a ésta que le indica en qué momentos puede recibir y devolver las peticiones de lectura o escritura, con lo que se
evitan así ciclos de espera. La memoria es asíncrona cuando depende de unos relojes internos que sincronizan el
microprocesador y los buses con el resto de elementos. Todo sistema asíncrono tiene asignado unos tiempos mínimos
para cada una de las operaciones internas, por lo que se pueden tener en accesos diferentes, distintos tiempos de
respuesta del sistema. Esta es una de las desventajas de estos sistemas, pues aunque acaben en medio de un ciclo su
operación, hasta el siguiente no pueden empezar otra, dado que han de resincronizarse con el resto de componentes.
Son memorias que usan tecnología del tipo DRAM, aunque existe gran variedad de tecnologías en cuanto a la memoria
principal. En los siguientes apartados se describen las diferentes alternativas que existen a la hora de dotar a un
ordenador de memoria principal.
 Fast Page Mode DRAM (FPM DRAM): su nombre procede del modo en que transfiere los datos. Este tipo de
memoria se utilizó en las placas base fabricadas para montar los procesadores 80386, 80486 y los primeros
Pentium del fabricante de microprocesadores Intel, así como los procesadores de otros fabricantes como AMD y
Cyrix que empleaban una arquitectura semejante. Este tipo de memoria posee, como mínimo, un tiempo de
acceso igual a 60ns. Se presenta en módulos SIMM (Single In-line Memory Module) de 30 pins, que se conectan a
un bus de 16 bits para los 80386 y 80486, y en módulos de 72 pins para las últimas placas 80486 y las placas
para Pentium, con un bus de 32 bits. Su tecnología es de tipo asíncrona.
 Extended Data Output DRAM (EDO DRAM): la memoria tipo FPM sólo podía acceder a un sólo byte (una
instrucción o valor) de información en cada acceso. Sin embargo, esto cambió con la memoria EDO, que permitía
mover un bloque completo de memoria hacia la memoria caché interna del procesador, para proporcionar un
acceso más rápido por él al bloque. Su mayor calidad le permitía alcanzar tiempo de acceso de hasta 45 ns,
satisfaciendo las necesidades los ordenadores que incluían los microprocesadores Pentium, Pentium Pro, y los
primeros Pentium II, que demandan mayor velocidad de proceso. Esta memoria se presenta en módulos SIMM de
72 pins, que se conecta a un bus de 32 bits y también en módulos DIMM ( Dual In-line Memory Modules) de 168
contactos para su conexión a un bus de 64 bits. Fue la última en fabricarse con tecnología asíncrona.
 Burst Extended Data Output DRAM (BEDO DRAM): fue diseñada originariamente para ciertas placas base que
soportarían mayores velocidades de bus que las que existían en su día. Por diversas estrategias comerciales y
económicas se quedó sólo en un diseño. Esta memoria se diseñó para ser capaz de transferir datos al procesador
en cada ciclo de reloj, pero no de forma continuada, sino a ráfagas en las que se transferirían de una vez varias
palabras, reduciendo, aunque no suprimiendo totalmente, los tiempos de espera del procesador para escribir o
leer datos de memoria.
 Synchronous DRAM (SDRAM ó JEDEC SDRAM): con este tipo de memorias nació una nueva forma de proporcionar
mayor velocidad en el acceso.. Se utiliza la tecnología síncrona, de tal forma que al sincronizarse la memoria con
la señal de reloj interna del procesador, éste puede obtener información en cada ciclo de reloj, sin estados de
espera a diferencia de los tipos anteriores. La memoria EDO estaba pensada para funcionar a una velocidad
máxima de bus de 66MHz, llegando a soportar los buses de 75MHz y 83MHz en los módulos de 45ns y 50ns,
aunque con cierta inestabilidad. A pesar de que estos módulos utilizan chips capaces de aceptar frecuencias de
bus a 83MHz (12ns) y 100MHz (10ns), fueron diseñados para adaptarse a uno de 66MHz. A este tipo de memoria
también se le conoce como PC66 y PC100, que son nombres de dos especificaciones de fabricación de este tipo
de memoria, que garantiza unos mínimos de estabilidad y calidad. Se presenta en módulos DIMM de 168 pins
para buses de 64 bits.

Las memorias SDRAM se miden tanto en megahercios como en nanosegundos. Para pasar de MHz a
nanosegundos hay que dividir 1 entre el número de megahercios, y multiplicar el resultado por mil. Por ejemplo,
un módulo SDRAM de 66 MHz corresponde a (1/66) x 1000 = 15ns. El mismo método funciona a la inversa, para
pasar los nanosegundos a megahercios. Un aspecto a destacar es que los nanosegundos de las memorias
asíncronas y síncronas no miden lo mismo. Por ejemplo, un módulo de SDRAM de 100MHz, que corresponde a
10ns, podría ofrecer un rendimiento cercano a un módulo EDO de 50ns.
Una de las limitaciones de diseño de las memorias JEDEC SDRAM sitúa en 125MHz su frecuencia máxima de
trabajo, aunque mediante ciertas optimizaciones, los fabricantes han conseguido que alcancen los 133MHz. Estas
investigaciones propiciaron la aparición de dos nuevos tipos de memoria: la DDR SDRAM y la RDRAM.
 Double Data Rate SDRAM (DDR SDRAM): la DDR SDRAM es una mejora de la JEDEC SDRAM convencional.
Permite realizar dos operaciones por ciclo de reloj debido a ciertas mejoras introducidas. Así consigue doblar el
ancho de banda proporcionado por una SDRAM, que ronda los 1,06 GB/s, y lo sitúa en 2,12 GB/s. Esto
proporciona un mayor caudal de información entre el procesador y la memoria a través del bus que los une. Ello
supone un alivio para los procesadores actuales, cuyas frecuencias de trabajo están rondando los 2GHz. La
principal ventaja es ser una extensión de la memoria SDRAM, lo que facilita la implementación por la mayoría de

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 27
II: TECNOLOGÍA BÁSICA

los fabricantes. Además, al ser una arquitectura abierta, los fabricantes de memoria no necesitan pagar derechos
de patente.
Las memorias DDR-SDRAM se usan hoy en día para memoria principal, memoria de tarjetas gráficas, memoria de
impresoras, etc. Las memorias DDR2-SDRAM se insertan en módulos DIMM de 168 o 184 contactos.
Una nueva versión de este tipo de memoria es la DDR2. Los módulos DDR2 son capaces de trabajar con 4 bits
por ciclo, es decir, dos de ida y dos de vuelta (en total cuatro bits) en un mismo ciclo, mejorando sustancialmente
el ancho de banda potencial bajo la misma frecuencia de una DDR SDRAM tradicional. Este sistema funciona
debido a que, dentro de las memorias, hay un pequeño buffer donde se guarda la información para luego
transmitirla fuera del modulo de memoria. Este buffer, en el caso de la DDR convencional, trabajaba tomando los
dos bits para transmitirlos en un sólo ciclo, lo que aumenta la frecuencia final. En las DDR2, el buffer almacena
cuatro bits para luego enviarlos, lo que a su vez, redobla la frecuencia nominal sin necesidad de aumentar la
frecuencia real de los módulos de memoria.
Las memorias DDR2 tienen mayores latencias que las conseguidas con las DDR convencionales, cosa que
perjudicaba su rendimiento. Reducir la latencia en las DDR2 no es fácil. El mismo hecho de que el buffer de la
memoria DDR2 pueda almacenar cuatro bits, para luego enviarlos, es el causante de la mayor latencia, debido a
que se necesita mayor tiempo de "escucha" por parte del buffer y mayor tiempo de trabajo, por parte de los
módulos de memoria, para recopilar esos cuatro bits antes de poder enviar la información.
La última implementación, hasta el momento, de este tipo de memorias es la DDR3. El principal beneficio de
instalar DDR3 es la habilidad de hacer transferencias de datos ocho veces más rápido, esto permite obtener
velocidades pico de transferencia y velocidades de bus más altas que las versiones DDR anteriores. Sin embargo,
no hay una reducción en la latencia, la cual es proporcionalmente más alta. Además la DDR3 permite usar
integrados de 512 megabits a ocho gigabytes, siendo posible fabricar módulos de hasta 16 Gb.
Teóricamente, estos módulos pueden transferir datos a una tasa de reloj efectiva de 800-2600 MHz, comparado
con el rango actual del DDR2 de 533-1200 MHz ó 200-400 MHz del DDR
 Direct Rambus DRAM (RDRAM): este tipo de memoria ha sido desarrollada por el fabricante Rambus y es
defendida por uno de los fabricantes más importantes de microprocesadores (Intel). La memoria RDRAM puede
llegar a los 800 MHz. Sin embargo, posee un tamaño de bus de 16 bits, frente a los 64 bits de la memoria DDR
SDRAM. Teóricamente, es capaz de realizar transferencias a 1,6 GB/s y a 3,2 GB/s en modo doble.
Este fabricante ha patentado un bus para hacer una integración directa del microprocesador y la memoria, lo que
se denomina el bus RAMBUS. La memoria principal que se utiliza en ese entorno se denomina RDRAM y el módulo
en que se inserta RIMM (Rambus Inline Memory Module) con 168 contactos
Una desventaja muy importante a la que se enfrentan los fabricantes de memorias es que dado que Rambus es
propietaria de esta tecnología, cualquiera que desee producir memoria de este tipo deberá pagar a la firma en
concepto de patentes. Además, otro de los problemas que posee este tipo de memorias es su latencia, que puede
llegar a ser mayor que las memorias SDRAM
 Synchronous Link DRAM (SLDRAM): esta memoria aún está en fase de desarrollo. Puede funcionar sobre buses de
hasta 200 MHz. Además, y al igual que la DDR SDRAM, puede funcionar al doble de reloj. Algunos ingenieros
opinan que podrán alcanzarse, en poco tiempo, los 800 MHz. Esta memoria es capaz de proporcionar 1,6GB/s y
3,2GB/s en modo doble.

Comparada con la memoria RDRAM, la memoria SLDRAM posee diversas ventajas como menor latencia, coste de
fabricación y velocidad de reloj para conseguir la misma velocidad de transferencia. Además, tiene la ventaja para
los fabricantes de que no es necesario pagar patentes. Esta memoria posee un ancho de banda de 3'2 GB/s.

046b.2.1.4. Buses
Como se ha mencionado anteriormente, los buses se pueden clasificar en dos tipos: internos (los que posee la CPU para
interconectar sus componentes internos) o externos (los que interconectan los periféricos o la memoria con el
microprocesador). Dentro de esta clasificación se puede especificar aún más, distinguiendo entre:
 Buses paralelos: los datos son enviados por bytes, al mismo tiempo, con la ayuda de varias líneas que tienen
funciones fijas. La cantidad de datos enviada es bastante grande con una frecuencia moderada y es igual al ancho
de los datos por la frecuencia de funcionamiento.
 Buses en serie: los datos son enviados, bit a bit, y se reconstruyen por medio de registros o rutinas de software.
Está formado por pocos conductores y su ancho de banda depende de la frecuencia.
Partiendo de esta doble clasificación, se pueden mencionar los siguientes desarrollos comerciales:

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 28
II: TECNOLOGÍA BÁSICA

 Buses Internos
i. Paralelos: EV6 (de Athlon y Alpha), GTL+/AGTL+ de Intel ISA, EISA, VESA, MCA, PCI, AGP
ii. Serie: PCI Express (PCIe), I2C, HyperTransport
 Buses Externos
(3)
i. Paralelos: ATA (IDE, EIDE, ATAPI), SCSI, PCMCIA
(1)
ii. Serie: SATA , USB, IEEE 1394 (FireWire)
A continuación se describen con más detalle alguno de ellos.
a) Bus EV6 de AMD y GTL+ (Gunning Transceiver Logic) /AGTL+ (Assisted Gunning Transceiver Logic) de
Intel. Ambos son buses Front Side Bus (FSB), bus interfaz entre la CPU y la placa base.
El bus EV6 (creado por Digital Equipment Corporation) es el usado por el sistema AMD Athlon. Funciona a
200MHz, y puede proporcionar un ancho de banda de datos de 1,6 Gb/s, escalable hasta un ancho de banda de
datos de 3,2 Gb/s a 400 MHz.
Para alcanzar los 200Mhz de frecuencia, en el bus se utiliza la tecnología DDR (Double Data Rate), que consiste
en transferir datos en ambos sentidos del bus por cada ciclo, duplicando así el rendimiento. Esta tecnología es
similar a la utilizada en DDR-SDRAM y en la interfaz Ultra ATA 66.
El EV6,más que un bus, se podría entender como un switch (conmutador) de red, ya que cada procesador tiene
conexión completa con el North Bridge ejecutándose a una velocidad efectiva de 200Mhz (un 50% más rápido
que el FSB de Intel).
El bus GTL+ es usado por Intel en sus procesadores Pentium II (100Mhz) y Pentium III (133Mhz). Proporciona
una única conexión al North Brigde que es compartida por todas la CPU’s de la computadora, cuyo ancho de
banda se divide entre todas ellas. El principio del que parte es que casi nunca una CPU necesita el ancho de
banda total. Desafortunadamente, en esta situación de todo o nada de bus compartido, cada CPU debe esperar
su turno para el uso del mismo (apareciendo la latencia de uso del bus). Este problema se agrava con la
situación actual de CPU’s con 800Mhz de velocidad y memorias a 133MHz, donde una CPU tiene que esperar
seis ciclos de procesador para acceder a los datos.
Técnicamente el bus EV6 aporta una serie de ventajas respecto al GTL+, entre ellas, se pueden destacar:
 Una topología punto-a-punto (cada procesador es un sistema multiproceso dispone de su propio bus a
200Mhz), en el GTL+ los procesadores comparten este bus a 100Mhz por lo que cuantos más unidades
menos ancho de banda)
 Una interfaz de memoria asíncrona (la velocidad de la memoria es independiente a la velocidad del bus y
es determinada solamente por el chipset). Como curiosidad, se puede citar que el bus EV6 soporta
sistemas multiprocesadores de hasta 14 procesadores. El espacio de direcciones del EV6 es también
mayor que el del bus P6, es de 43 bits de profundidad contra los 36-bits del bus P6.
 Además, el EV6 permite transferencias de 64bytes en ráfagas, en vez de los 32 soportados por el GTL+,
por lo que el EV6 es capaz de mandar más datos a la vez a través del bus que el GTL+.


 El bus EV6 también añade seguridad, ya que añade un byte de ECC (Error Checking Correction) en todas
las transferencias, una característica implementada en el bus GTL+ de Intel, pero que está ausente en
todas las plataformas Super7.

b) Bus ISA (Industrial Standard Architecture, Arquitectura Industrial Estandarizada)


Podía utilizar entre 8 bits a 4,77Mhz (año 1980) y 16 bits a 8Mhz (año 1984). Los usuarios de máquinas basadas
en ISA tenían que disponer de información especial sobre el hardware que iban a añadir al sistema. Aunque
algunas tarjetas eran esencialmente Plug-and-play (enchufar y listo), no era lo habitual. Frecuentemente había
que configurar varias cosas al añadir un nuevo dispositivo, como la IRQ, las direcciones de entrada/salida, o el
canal DMA.
Este bus da conexión a las siguientes interfaces:
 Puertos paralelos: LPT1, LPT2
 Puertos serie: COM1, COM2
 Teclado y ratón: conector PS2
 FD o disquetera

(3)
Para una consulta detallada, ver el apartado 046b.2.2.1.1. Disco Duro (Interfaces)

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 29
II: TECNOLOGÍA BÁSICA

Las evoluciones del ISA son el bus EISA con 32 bits (año 1987) que resuelve la integración de los periféricos y
el bus VESA Local Bus (año 1992) dedicado a sistemas gráficos.
c) Bus MCA (Micro Channel Architecture).
Bus exclusivo mejorado diseñado por IBM en 1987 para utilizar en su línea de equipos PS/2. Este bus de 16 a 32
bits no era compatible con el bus ISA y podía alcanzar un rendimiento de 20 Mb/s.
d) Bus PCI (Peripheral Component Interconnect)
Es un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. A
diferencia del bus ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de
arranque del sistema, las tarjetas PCI y la BIOS interactúan y negocian los recursos solicitados por la tarjeta
PCI. Su velocidad se mueve de los 66Mhz hasta los 133Mhz y da entrada a los conectores o interfaces de
Entrada/Salida siguientes:
 Controladora IDE, para el disco duro
 Controladora SCSI, para el disco duro
 Conector/interfaz Firewire, para video en tiempo real
 Tarjeta de red, tarjeta de sonido, etc.
Ha evolucionado a distintas versiones:
 PCI-X (PCI eXtended): supera al bus PCI por su mayor ancho de banda, que suele ser exigido por
servidores (en requerimientos de banda ancha: tarjetas Ethernet Gigabit, canal de Fibra, SCSI). Es una
versión con el doble de ancho del PCI, ejecutándose hasta cuadruplicar la velocidad de reloj, estrategia
similar en otras implementaciones eléctricas que usan el mismo protocolo. Fue desarrollado
conjuntamente con IBM, HP y Compaq y presentado para su aprobación en 1998.
 PCIe (PCI Express): es un nuevo desarrollo del bus PCI que usa los conceptos de programación y los
estándares de comunicación existentes, pero se basa en un sistema de comunicación serie mucho más
rápido. Este sistema es apoyado principalmente por Intel.
Aunque ambos (PCI-X y PCIe) son buses de alta velocidad para ordenadores y periféricos internos, se diferencian
en muchas cosas. La primera es que PCI-X es un interfaz paralelo que es compatible con versiones anteriores de
los dispositivos PCI a excepción de los que trabajan con 5 voltios. Por el contrario, PCIe es un bus serie con una
interfaz física distinta que fue diseñada para superar a PCI y PCI-X.
Los buses PCI-X y PCI estándar pueden funcionar en un puente PCIe, de forma similar a como lo hacían los buses
ISA, que funcionan en buses PCI normales en algunos ordenadores. PCIe también supera a PCI-X y PCI-X 2.0 en
ancho de banda máximo: PCI-E 1.0 x1 ofrece 250 MB/s en cada sentido, y hasta en 32 líneas, otorgando un
máximo de 8 GB/s en cada sentido.

PCI-X sufre una serie de desventajas tecnológicas y económicas respecto a PCIe:


 El interfaz paralelo de 64 bits requiere de por sí un difícil enrutado, ya que como todos los interfaces
paralelos, las señales del bus deben llegar simultáneamente o en un margen muy corto de tiempo, y el
ruido de las ranuras adyacentes puede causar interferencias. Por el contrario, el interfaz serie de PCI-E
sufre muchos menos problemas y, por lo tanto, requiere diseños mucho menos complejos y más
económicos.
 Los buses PCI-X, como los PCI estándar, son bidireccionales half-duplex, mientras PCIe son full-duplex.
 Los buses PCI-X sólo son tan rápidos como el dispositivo más lento de su bus, y PCIe puede negociar
las velocidades de transferencia dispositivo por dispositivo.
 Las ranuras (slots) PCI-X ocupan más espacio en las placas, lo cual puede llegar a ser un problema en
caso de las ATX.
e) Bus USB (Universal Serial Bus)
Es un bus serie, a diferencia de los anteriores, que son paralelos y por tanto la información se transfiere bit a bit
de forma consecutiva. El diseño del USB quería eliminar la necesidad de adquirir tarjetas separadas para poner
en los puertos bus ISA o PCI, y mejorar las capacidades plug-and-play, permitiendo a esos dispositivos ser
conectados o desconectados al sistema sin necesidad de reiniciar.
Sin embargo, en aplicaciones donde se necesita ancho de banda para grandes transferencias de datos, o si se

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 30
II: TECNOLOGÍA BÁSICA

necesita una latencia baja, los buses PCI o PCIe salen ganando. Igualmente sucede si la aplicación requiere de
robustez industrial. A favor del bus USB, cabe decir que cuando se conecta un nuevo dispositivo, el servidor lo
enumera y agrega el software necesario para que pueda funcionar (esto dependerá ciertamente del sistema
operativo que esté usando el ordenador).
El USB puede manejar 128 dispositivos compartiendo entre ellos un ancho de banda de 1.5Mbps. Está
constituido por un conector de 4 hilos con las siguientes características:
 2 hilos para entrada balanceada, es decir para datos que duplican la información por dos hilos. Se lee
alternativamente de cada hilo, no de los dos hilos a la vez.
 1 hilo para la tensión
 1 hilo para masa o toma de tierra
En la versión de USB 2.0, la velocidad de transferencia máxima es de 60 Megabytes por segundo, que en la
próxima versión 3.0 se multiplicará por 10, pasando a 600 Megabytes por segundo.
f) Bus AMR (Audio Modem Rise)
Es un bus para dispositivos de audio (como tarjetas de sonido) o módems lanzado en 1998 y presente en placas
de Intel Pentium III, Intel Pentium IV y AMD Athlon. Fue diseñada por Intel como una interfaz con los diversos
chipsets para proporcionar funcionalidad analógica de Entrada/Salida, permitiendo que esos componentes
fueran reutilizados en placas posteriores sin tener que pasar por un nuevo proceso de certificación.
Fue sustituido por CNR, aunque actualmente ninguno de ambos es utilizado en las placas bases.
g) Bus CNR (Communication and Network Riser)
Se trata de una bus para dispositivos de comunicaciones como módems, tarjetas de red o USB. Un poco más
grande que la AMR, CNR fue introducida en febrero de 2000 por Intel para procesadores Pentium y se trataba
de un diseño propietario por lo que no se extendió más allá de las placas que incluían los chipsets de Intel, que
más tarde fue implementada otros chipset.
h) Bus AGP (Accelerated Graphics Port)
Es un bus especializado para la generación de video, desarrollado por Intel en 1996. Todo tratamiento de señal
de video necesita un gran ancho de banda, para ello, AGP constituye un bus dedicado que aísla el sistema de
video.
El puerto AGP es de 32 bit como PCI, pero cuenta con diferencias tales como contar con 8 canales adicionales
para acceso a la memoria RAM. Además, puede acceder directamente a ésta a través del puente norte,
pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus AGP 1X es de 66 MHz con una tasa de
transferencia de 266 MB/s.

La última versión es la AGP 8X, velocidad 533 MHz con una tasa de transferencia de 2 GB/s. Hoy en día se hace
la integración del sistema de video con el bus PCI-X, es decir, las tarjetas gráficas se insertan en el bus PCI-X.
Tiene mayor velocidad, aunque no sea dedicado exclusivamente y sea compartido. Por lo tanto, AGP tiende a
desaparecer, siendo la tendencia el uso de PCI-X para todo.

i) PCMCIA (Personal Computer Memory Card International Association)

PCMCIA es una asociación Internacional centrada en el desarrollo de tarjetas de memoria para ordenadores
personales que permiten añadir nuevas funciones.
Se fundó en 1989 con el objetivo de establecer estándares para circuitos integrados y promover la
compatibilidad dentro de los ordenadores portátiles, donde solidez, bajo consumo eléctrico y tamaño pequeño
son los factores más importantes. A medida que las necesidades de los usuarios de ordenadores portátiles han
ido cambiado, lo ha hecho también el estándar de las tarjetas de PC.
En 1991 PCMCIA había definido una interfaz I/O (entrada/salida) para el mismo conector de 68 pines que
inicialmente se usaba en las tarjetas de memoria. A medida que los diseñadores se daban cuenta de la
necesidad de un software común para aumentar la compatibilidad, se fueron añadiendo primero las
especificaciones de servicios de socket, seguidos de los servicios de especificación de tarjeta.
Los interfaces desarrollados bajo este estándar son los siguientes:
 PCCard (originalmente PCMCIA), es un periférico diseñado para computadoras portátiles. En un principio
era usado para expandir la memoria, pero luego, se extendió a diversos usos como disco duro, tarjeta de

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 31
II: TECNOLOGÍA BÁSICA

red, tarjeta sintonizadora de TV, puerto paralelo, puerto serial, módem, puerto USB, etc. Fue diseñado
por la industria estadounidense para competir con las tarjetas japonesas JEIDA.
 CardBus: es el nombre que reciben las tarjetas pertenecientes al estándar PCMCIA 5.0 o posteriores
(JEIDA 4.2 o posteriores). Todas ellas son dispositivos de 32 bits y están basadas en el bus PCI de 33
MHz (a diferencia de las PC Card que pueden ser de 16 o 32 bits)-
Incluye Bus Mastering, que admite la comunicación entre su controlador y los diversos dispositivos
conectados a él sin que intervenga el CPU. Muchos chipsets están disponibles tanto para PCI y CardBus,
como los que soportan Wi-Fi.
 ExpressCard: es un estándar de hardware que reemplaza a las tarjetas PCMCIA / PC Card / CardBus. El
dispositivo host soporta conectividad PCIe y USB 2.0 en el slot ExpressCard, y cada tarjeta utiliza el
modo de conectividad que el diseñador considere más apropiado para la tarea. Las tarjetas pueden
conectarse al ordenador encendido sin necesidad de reiniciarlo (soportan hot swap o conexión en
caliente). Es un Estándar abierto de la organización internacional ITU-T
El beneficio principal de la tecnología ExpressCard sobre CardBus es un gran aumento del ancho de
banda, causado porque ExpressCard tiene una conexión directa al bus del sistema sobre una conexión
PCI-Express x1 o USB 2.0, mientras que CardBus utiliza un controlador de interface que sólo interactúa
con PCI.
ExpressCard tiene un rendimiento de procesamiento máximo de 2,5 Gb/s sobre PCIe ó 480
Megabits/segundo sobre USB 2.0 dedicado para cada ranura, mientras que CardBus debe compartir un
ancho de banda de 1.066 Megabits/segundo.
La tecnología ExpressCard no es compatible con los dispositivos CardBus, lo cual puede representar un
problema para quienes compren un nuevo sistema y quieran mantener sus dispositivos anteriores.
j) Bus I2C (Inter Integrated Circuit)
Es un bus de comunicaciones en serie. La versión 1.0 data del año 1992 y la versión 2.1 del año 2000, su
diseñador es Philips. La velocidad es de 100Kbits por segundo en el modo estándar, aunque también permite
velocidades de 3.4 Mbit/s. Es un bus muy usado en la industria, principalmente para comunicar microntroladores
y sus periféricos en sistemas integrados (Embedded Systems) y generalizando más para comunicar circuitos
integrados entre si que normalmente residen en un mismo circuito impreso.
Su principal característica es que utiliza dos líneas para transmitir la información: una para los datos y por otra la
señal de reloj. También es necesaria una tercera línea, pero ésta sólo es la referencia (masa). Como suelen
comunicarse circuitos en una misma placa que comparten una misma masa, esta tercera línea no suele ser
necesaria

Los dispositivos conectados al bus tienen una dirección única para cada uno. También pueden ser maestros o
esclavos. El dispositivo maestro inicia la transferencia de datos y, además, genera la señal de reloj, pero no es
necesario que el maestro sea siempre el mismo dispositivo. Esta característica se la pueden ir pasando los
dispositivos que tengan esa capacidad y confiere a este bus la denominación de multimaestro.
k) HyperTransport (HT), también conocido como Lightning Data Transport (LDT).
Es una tecnología de comunicaciones bidireccional, que funciona tanto en serie como en paralelo, y ofrece un
gran ancho de banda en conexiones punto a punto de baja latencia. Se publicó el 2 de abril de 2001. Esta
tecnología se aplica en la comunicación entre chips de un circuito integrado, ofreciendo un enlace (ó bus) de
conexión universal de alta velocidad y alto rendimiento para aplicaciones incorporadas y facilitando sistemas de
multiprocesamiento altamente escalables. Esta conexión universal está diseñada para reducir el número de
buses dentro de un sistema.
Existen tres versiones de HyperTransport (1.0, 2.0 y 3.0) que pueden funcionar desde los 200MHz hasta 2.6GHz
(mientras el bus PCI corre a 33 o 66 MHz). También soporta tecnología DDR ( Double Data Rate), lo cual permite
alcanzar un máximo de 5200 MT/s (2600MHz hacia cada dirección: entrada y salida) funcionando a su máxima
velocidad (2.6GHz).
l) Bus IEEE 1394 (conocido como FireWire por Apple Inc. y como i.Link por Sony):
Es un estándar multiplataforma para entrada/salida de datos en serie a gran velocidad. Se suele utilizar para la
interconexión de dispositivos digitales como cámaras digitales y videocámaras a computadoras. Tiene una
velocidad máxima de 800 Megabits por segundo (IEEE 1394b).

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 32
II: TECNOLOGÍA BÁSICA

046b.2.2. Subsistema de Entrada/Salida


El subsistema de Entrada/Salida esta constituido por procesadores de entrada/salida, controladores o procesadores de
periféricos y los propios periféricos.
Un dispositivo periférico es aquél que se conecta a los buses del ordenador y que permite, dependiendo del tipo de
periférico, enviar información desde el exterior y/o captar información del interior para mostrarla al usuario o enviarla a
otro sistema.
Hay periféricos que sólo son de entrada de información hacia el ordenador, como los muy utilizados teclado y ratón, o el
escáner para digitalizar documentos y fotografías. También existen periféricos que únicamente son de salida, como el
monitor y la impresora, e incluso periféricos que son de entrada y salida, como el módem, el adaptador de red local o las
unidades de almacenamiento.
Generalmente, cada uno de los dispositivos periféricos se compone de dos partes: una en la que están presentes una
serie de circuitos electrónicos, denominada controlador de E/S, y otra la que contiene a la parte mecánica.
Los periféricos se pueden clasificar en los siguientes grupos:
 Periféricos de almacenamiento: Unidades de disco: disco duro, unidad lectora / grabadora de CD y DVD, etc.
 Periféricos de entrada: teclado, ratón, lápiz óptico, etc.
 Periféricos de salida: impresora, monitor, trazador o plotter, escáner, etc.
 Periféricos de comunicación Máquina-Máquina: módem, adaptador de red local, tarjeta wireless, etc.

046b.2.2.1. Periféricos de Almacenamiento


Debido a la cantidad de información manejada actualmente, los periféricos de almacenamiento se han convertido casi tan
importantes como el mismísimo computador.
Estos periféricos se encargan de guardar o salvar los datos de los que hace uso la CPU para que ésta pueda emplearlos
una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora.
Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son: Disco duro, Memorias de
estado sólido (SSD), CD, DVD; Blu-Ray, Memoria Flash, Cintas magnéticas. A continuación se describe con más detalle
alguno de ellos.

046b.2.2.1.1. Disco Duro


Los discos duros pertenecen a la llamada memoria secundaria o almacenamiento secundario. Un disco duro (en inglés
hard disk, abreviado con frecuencia HD o HDD) es un dispositivo que permite almacenar una gran cantidad de datos de
forma rápida y segura. Los datos permanecen grabados en su interior permanentemente y pueden ser leídos, borrados y
grabados infinidad de veces.
El tamaño de las primeras unidades de disco duro era de 10 ó 20 Megabytes (Mb), existiendo hoy en día discos de más
de 200 Gigabytes (Gb). Un Gigabyte equivale a 1.000 Mb de información (1.024 Mb, según algunos fabricantes). Estas
capacidades tan enormes se deben principalmente a la elevada densidad de grabación.
a) Características.
Los discos duros generalmente utilizan un sistema de grabación magnética digital. En este tipo de disco se
encuentra, dentro de la carcasa, una serie de platos metálicos apilados girando a gran velocidad. Los platos
están montados sobre un eje central (spindle) que gira siempre en el mismo sentido. Para leer y escribir datos
en estos platos se usan las cabezas de lectura/escritura que mediante un proceso electromagnético codifican/
decodifican la información que han de leer o escribir. La cabeza de lectura/escritura en un disco duro está muy
cerca de la superficie del plato. Normalmente, cada plato dispone de dos cabezas de lectura/escritura, una para
cada cara.
Los platos de aluminio están recubiertos de una capa de material con propiedades magnéticas en ambas caras.
Inicialmente se utilizaba óxido férrico, pero actualmente se suele emplear cobalto por sus mejores cualidades.
Estos platos tienen tamaños típicos dependiendo de cada disco duro. La práctica totalidad de ellos incorporan
platos de 3,5 pulgadas. Existe un tercer tamaño de 2,5 pulgadas, empleado habitualmente en discos duros para
ordenadores portátiles, que se le suele denominar Microdrive.
Las principales características son las siguientes
 Capacidad de Almacenamiento: cantidad de información que se puede grabar o almacenar en un disco

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 33
II: TECNOLOGÍA BÁSICA

duro.
 Velocidad de Rotación: es la velocidad a la que gira el disco duro, más exactamente, la velocidad a la
que giran el/los platos (se detalla más adelante) del disco, que es donde se almacenan
magnéticamente los datos. La regla es: a mayor velocidad de rotación, más alta será la transferencia
de datos, pero mayor será el ruido y mayor el calor generado por el disco duro. Se mide en RPM
(Revoluciones Por Minuto).
 Memoria Caché (tamaño del buffer): es una memoria que va incluida en la controladora interna del
disco duro, de modo que todos los datos que se leen y escriben a disco duro se almacenan
primeramente en el buffer.
 Tasa de transferencia: indica la cantidad de datos que un disco duro puede leer o escribir en la parte
más externa del disco o plato en un período de un segundo. Normalmente se mide en Mbits/s.
b) Componentes Físicos:
 Los discos (platters)
Están elaborados de compuestos de vidrio, cerámica o aluminio pulidos y revestidos por ambos lados
con una capa muy delgada de una aleación metálica. Los discos están unidos a un eje y un motor que
los hace guiar a una velocidad constante entre las 3600 y 7200 RPM. Convencionalmente los discos
duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre
un eje central. Estos discos, normalmente, tienen dos caras que pueden usarse para el almacenamiento
de datos, si bien suele reservarse una para almacenar información de control. Cada uno de los lados de
un disco es una cara.
Los datos se graban en forma de flujos magnéticos escritos en círculos, alrededor del anillo central del
disco. Cada uno de los círculos concéntricos forma una pista y cada pista está dividida en un número
igual de segmentos, llamados sectores. Un sector es la mínima unidad de información direccionable en
un disco duro. En la mayoría de los discos duros, un sector tiene un tamaño de 512 bytes. Cada pista
normalmente está dividida en una cantidad de sectores que oscila entre 100 y 300. La cabeza de
lectura/escritura se mueve del borde exterior del disco hacia el anillo central, deteniéndose sobre la
pista que contiene la información que necesita el ordenador. Una vez en la posición adecuada, la
cabeza espera a que el sector correcto de la pista se encuentre debajo de ella, y a continuación lee o
escribe datos a medida que éste pasa por debajo.

Otro concepto importante es la densidad de grabación. Ésta se mide en bits por pulgada (BPI, Bits Per
Inch) y la densidad de pistas en cada plato se mide en pistas por pulgada (TPI, Tracks Per Inch). Multi-
plicando ambos factores se obtiene la densidad de área, que generalmente se calcula en bits por pul-
gada cuadrada (BPSI, Bits Per Square Inch).
La densidad hace referencia a la separación que existe en los bits de información almacenados en el
disco duro. Mientras mayor sea la densidad de grabación, mayor cantidad de datos se podrán
almacenar en una misma superficie. Existen dos formas de conseguir una mayor densidad de datos:
- Almacenando los bits más juntos unos de otros o
- Haciendo que la distancia entre pistas sea menor, con lo que se consiguen introducir más pistas
en un mismo plato aumentando así la capacidad de almacenamiento.
 Las Cabezas (Heads)
Están ensambladas en pila y son las responsables de la lectura y la escritura de los datos en los discos.
La mayoría de los discos duros incluyen una cabeza Lectura/Escritura a cada lado del disco, sin
embargo, algunos discos de alto rendimiento tienen dos o más cabezas sobre cada superficie, de
manera que cada cabeza atiende la mitad del disco reduciendo la distancia del desplazamiento radial.
Las cabezas de Lectura/Escritura no tocan el disco cuando éste gira a toda velocidad; por el contrario,
flotan sobre una capa de aire extremadamente delgada (10 millonésima de pulgada). Esto reduce el
desgaste en la superficie del disco durante la operación normal. Cualquier polvo o impureza en el aire
puede dañar suavemente las cabezas o el medio. Su funcionamiento consiste en una bobina de hilo que
se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una
pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco. Las cabezas
convierten, por tanto, señales eléctricas en señales magnéticas y viceversa, según la operación a
realizar sea de escritura o de lectura.
Todos los discos duros actuales incorporan una memoria caché (buffer) para agilizar las operaciones de
lectura y escritura. Generalmente esta caché suele ser de lo 16 o 32Mb.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 34
II: TECNOLOGÍA BÁSICA

Las cabezas son un factor fundamental en el rendimiento de un disco duro y en la densidad de


grabación.
Las primeras cabezas que se usaron en discos duros eran de ferrita, posteriormente se emplearon
cabezas de tipo GAP (de su denominación Metal-In-Gap) y de película fina (TF, Thin Film). Actualmente
todas las cabezas son magnetoresistivas (magnética por la parte de escritura y resistiva por la de
lectura), con lo que se soportan densidades de grabación hasta 10.000 veces mayores que las de las
primeras unidades.
La última generación de cabezas magnetoresistivas aparecidas en el mercado se denomina GMR (Giant
Magneto Resistive), lo que permite fabricar discos duros cada vez más pequeños y de mayor capacidad,
al estar la información más concentrada en el mismo espacio y ser las cabezas más pequeñas y
precisas. Esta tecnología fue desarrollada por IBM.
 Eje
Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del
disco.
 Pistas
Un disco está dividido en delgados círculos concéntricos llamados pistas. Las cabezas se mueven entre
la pista más externa ó pista cero a la más interna. Es la trayectoria circular trazada a través de la
superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por
uno o más Cluster.
 Sectores
Un byte es la unidad útil más pequeña en términos de memoria. Los HD almacenan los datos en
pedazos gruesos llamados sectores. La mayoría de los HD usan sectores de 512 bytes. La controladora
del HD determina el tamaño de un sector en el momento en que el disco es formateado. Algunos
modelos de HD le permiten especificar el tamaño de un sector. Cada pista del disco esta dividida en 1 ó
2 sectores dado que las exteriores son más grandes que las interiores, las exteriores contienen más
sectores.

 Cilindros
El par de pistas en lados opuestos del disco se llama cilindro. Se puede ver como el conjunto de varias
pistas. Son todas las circunferencias que están alineadas verticalmente (una de cada cara). Si el HD
contiene múltiples discos (sean n), un cilindro incluye todos los pares de pistas directamente uno
encima de otra (2n pistas). Los HD normalmente tienen una cabeza a cada lado del disco. Dado que las
cabezas de Lectura/Escritura están alineadas unas con otras, la controladora puede escribir en todas las
pistas del cilindro sin mover el rotor. Como resultado, los HD de múltiples discos se desempeñan
levemente más rápido que los HD de un solo disco.
 Tarjeta controladora:
Para controlar el funcionamiento del motor y gestionar la forma en que se graba y lee la información,
todos los discos actuales cuentan con una tarjeta controladora integrada en la propia unidad. Dicha
controladora se suele alimentar a 5 voltios, mientras que el motor lo hace a 12 voltios. De ahí que el
conector de alimentación tenga cuatro cables: uno de 5 y otro de 12 voltios, con sus respectivas masas.
Entre las principales funciones que realiza la tarjeta controladora están las siguientes:
- El control del motor de giro del disco duro, incluyendo el control de la velocidad de giro.
- El control del brazo actuador para la ubicación en la pista correcta.
- El control del tiempo necesario para realizarlas operaciones de lectura y escritura.
- El control de la gestión de la energía (en leer y amplificar las señales de bajo voltaje proceden-
tes de las cabezas del disco duro).
Finalmente, la tarjeta controladora incorpora un firmware o software de control. Esto no son más que
una serie de rutinas encargadas de ser procesadas por el microprocesador que generalmente todos los
discos duros actuales incorporan.
Estas rutinas suelen estar grabadas en una memoria ROM en la propia controladora del disco duro. Mu-
chos discos duros ya incorporan para estas funciones una memoria ROM de tipo flash, que permite su
actualización mediante software.
c) Procesos de codificación de la información:

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 35
II: TECNOLOGÍA BÁSICA

Según los elementos citados, en un disco duro los datos se grabarán en forma de flujos magnéticos escritos en
círculos, alrededor del anillo central del disco. Cada uno de los círculos concéntricos forma una pista y cada pista
está dividida en un número igual de segmentos, llamados sectores.
La información digital se almacena en forma de cadenas de ceros y unos. En un disco duro, esos ceros y unos
que componen la información se almacenan codificados en forma de pulsos magnéticos
 FM (Frecuency Modulation – Modulación de Frecuencia): es la codificación más sencilla. Consiste en la
grabación de un cambio de flujo para cada uno, y en omitir el cambio de flujo para cada cero. Este
procedimiento se puede realizar con una electrónica de control relativamente simple, pero tiene el
inconveniente de que cada bit de datos consume dos cambios de flujo, limitando mucho la capacidad
del disco.
 MFM (Modify Frecuency Modulation – Modulación de Frecuencia Modificada): en comparación con FM,
no necesitaba almacenar tantos cambios por bit, lo que al final redundaba en una mayor capacidad de
almacenamiento de información en el disco. Aunque MFM ya se abandonó en los discos duros al usarse
métodos mucho más eficientes, en los disquetes éste es el método de codificación que se sigue
utilizando.
 RLL (Run Length Limited – Longitud de recorrido limitado): este método trabaja con grupos de bits, en
lugar de hacer la codificación para bits individuales, operando con dos parámetros: la longitud y el
límite del recorrido, de ahí su denominación. La longitud del recorrido es el mínimo espacio entre dos
cambios de fase, mientras que el límite del recorrido es la máxima longitud entre dos cambios de fase.
Gran parte de los discos duros actuales utilizan alguna variedad de codificación RLL.
d) Interfaces
La interfaz de un disco duro comprende la forma que usa para relacionarse con los demás elementos que
componen una computadora. Hace también referencia, por tanto, al tipo de conexión que utiliza el disco duro.

Actualmente la interfaz puede ser de tipo IDE o SCSI, pero la evolución que ha sido la siguiente:
 ST-506/ST-412:
Ya obsoletos. Creados por Seagate Technology. A los discos que usaban esta interfaz se les
denominaba MFM, debido a que éste era el método de codificación magnética que empleaban. La
principal diferencia de estos discos duros respecto a los actuales es que no incorporaban ningún circuito
lógico, sino que toda la circuitería lógica residía en la controladora que estaba insertada en la placa
base. Esto presentaba problemas de rapidez, ya que el disco duro se comunicaba con la controladora a
través de un cable, y no directamente, con lo que se perdía en velocidad de transferencia entre disco
duro y controladora. Los discos duros ST-506/ST-412 tenían un cable formado por dos bandas, una de
20 hilos que transportaba los datos y otra de 34 hilos que transmitía señales de control.
 ESDI (Enhanced Small Device Interface):
A mediados de los 80’s, apareció este estándar para solventar algunos de los problemas que habían
surgido con el anterior. Trasladaba algunas funciones de control ya al propio disco duro, incrementando
así la tasa de transferencia de datos y produciéndose un ligero aumento de prestaciones en general.
 IDE (Integrated Drive Electronics):
Creado por Western Digital. Su característica más representativa era la implementación de la
controladora en el propio disco duro, de ahí su denominación. Igualmente se eliminó la necesidad de
disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus
al disco duro.
IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar
estos movimientos de datos. La interfaz IDE supuso la simplificación en el proceso de instalación y
configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado.
IDE/ATA son unas siglas que responden a Integrated Drive Electronics /AT Attachment, y es el estándar
en los discos duros actuales, en los cuales, la mayor parte de la circuitería de control del disco duro se
integra en la propia unidad. ATA es un conjunto de reglas que deben cumplir todos los dispositivos IDE.
En la práctica, tanto IDE como ATA viene a hacer referencia al mismo estándar y al mismo concepto. La
especificación IDE/ATA es la base original sobre la que se han desarrollado las especificaciones
posteriores. La interfaz IDE/ATA original, utilizada en los originales IBM AT, era una interfaz de 16 bits.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 36
II: TECNOLOGÍA BÁSICA

El ATA es una interfaz estandarizada por la ANSI (American Nacional Standard Institute) cuyas
características principales son las siguientes:
- Dos discos duros. La especificación ATA original sólo da soporte a dos discos duros ambos
montados sobre un mismo canal, y configurados como maestro (master) y esclavo (slave) res-
pectivamente.
- Modos de transferencia. El ATA soporta los modos de transferencia PIO (Entrada/Salida Pro-
gramada) en modo O, 1 y 2. PIO es entrada/Salida programable. Es el componente encargado
de ejecutar las instrucciones dirigidas
- Modos DMA. También soporta la transferencia en modo DMA 0, 1 y 2 y DMA multiword en
modo 0. DMA es Acceso Directo a Memoria. Es el componente integrado en un periférico que
libera al procesador en la tarea de transferir datos entre dispositivos y memoria. Debido a esto
no requiere atención del procesador (a diferencia de PIO).
Inicialmente, el estándar ATA fue desarrollado para ser empleado con discos duros. Pero,
posteriormente, se desarrollaron otros dispositivos que hacían uso de la misma interfaz, por lo que
surgieron nuevos estándares para darles soporte. Entre ellos se puede destacar:
- ATA/100, ATA/133. Se denominan también UltraDMN100 y UltraDMN133, respectivamente.
Hacen referencia a la máxima tasa de transferencia de datos teórica que pueden soportar los
discos duros conectados a esa placa base, que viene a ser de 100 y 133 MB/seg
respectivamente, de ahí las denominaciones. En función de que un chipset sea más ó menos
reciente soporta un modo de transferencia u otro.

- UltraDMA/33 (Ultra ATA-33) totalmente compatible con todos los estándares anteriores. Es una
extensión de la interfaz de disco duro ATA que, teóricamente, permite velocidades de
transferencia de datos en ráfagas de 33,3 Megabytes (MB) por segundo. Esto duplica la
velocidad del estándar ATA-2/ATA-3 de 16,6 MB por segundo. El uso de Ultra DMA puede
provocar un incremento en el rendimiento del 40 por ciento sobre el estándar ATA-2/ATA-3. La
mejora del rendimiento es el resultado de la mejora en la velocidad de datos de la propia
unidad.
- ATAPI (AT AttachmentPacket Interface) es un estándar que permite implementar dispositivos
con características propias de SCSI sobre interfaces ATA, tales como lectores de CD-ROM y
unidades de cinta. Para el correcto funcionamiento de los dispositivos ATAPI se requiere el uso
de drivers específicos.
Lo que determina poder usar PIO o DMA es la BIOS. La BIOS juega un papel muy importante en el
funcionamiento de un disco duro. Proporciona, además, los servicios de acceso al disco duro mediante
una interfaz común para acceder a los discos duros, sean del tipo que sean, lo que ofrece una gran
comodidad y sencillez para las aplicaciones. Por otra parte, la BIOS permite la detección y configuración
de los discos duros.
Cuando una aplicación accede al disco duro, generalmente lo hace a través de la BIOS, mediante la
interrupción 13h (19 en notación decimal). Esta interrupción es estándar y se ha venido utilizando en el
PC desde hace mucho tiempo para el acceso a disco duro. El uso de la interrupción 13h necesita que,
previamente, se le proporcione determinada información, como la cabeza, el cilindro y el sector exactos
a los que se va a acceder para que las rutinas de acceso puedan realizar dicho acceso. Concretamente,
la interrupción 13h utiliza 24 bits para determinar la zona del disco duro a la que se va a acceder:
- 10 bits para especificar el número de cilindro, lo que permite un total de 1.024 cilindros.
- 8 bits para especificar el número de cabeza, lo que permite un total de 256 cabezas.
- 6 bits para indicar el número de sector, lo que permite un total de 63 sectores.
Combinando estos parámetros, se tiene que la BIOS puede soportar discos que contengan un máximo
de 16,5 millones de sectores, con 512 bytes por sector, lo que supone un máximo de 7.875 Gb de
información. Los discos de mayor capacidad que ésta necesitan un sistema operativo que sobrepase
esta limitación de la BIOS sin utilizar la interrupción 13h, ó bien una BIOS que soporte las extensiones
añadidas a la interrupción 13h que también permite romper esta barrera.
 EIDE (Enhanced IDE):

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 37
II: TECNOLOGÍA BÁSICA

Esta interfaz, propuesta también por Western Digital, logra una mejora de flexibilidad y prestaciones.
Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a
partir de los 10 Megas por segundo. Permite instalar 4 unidades al mismo tiempo (frente a dos del
interfaz IDE). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un
menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo
espacio.
 SCSI (Small Computer System Interface):
Los discos duros tipo SCSI se han utilizado, sobre todo, debido a que se pueden conectar siete
dispositivos por controladora y que la velocidad de transferencia es considerablemente más alta que la
de los discos duros IDE. La evolución de la interfaz SCSI ha sido la siguiente:
- SCSI-1. Corresponde al bus SCSI original. Se implementó en 1986, permitía la conexión de un
máximo de 7 dispositivos de 8 bits con una velocidad máxima de 5 Mb/s.
- SCSI-2. Esta especificación fue una ampliación del SCSI-I. Se terminó de desarrollar en 1992 y
es compatible con los dispositivos anteriores. Permite conectar dispositivos tales como unidades
de CD-ROM escáneres. Asimismo, se incluyen dos nuevas especificaciones: Fast SCSJ y Wide
SCSI que permitían duplicar la velocidad y el número de dispositivos, respectivamente. Las uni-
dades disponen de un bus de 16 bits y se diseñaron nuevos conectores más compactos.
- SCSI-3. Estas especificaciones, aún no se han terminado de diseñar completamente, aunque
entre sus nuevas mejoras está el aumento del número de dispositivos hasta 32. También da
soporte a canales de fibra y aumenta las prestaciones con la especificación "Ultra".

Con una interfaz SCSI se pueden conectar hasta 7 dispositivos, o bien 15 si es Wide SCSI. Los
dispositivos SCSI pueden ser discos duros, lectores de CD-ROM o DVD-ROM, escáneres, etc.

En la siguiente tabla se puede ver un resumen de los distintos SCSI:

Norma SCSI Ancho Bus Megas/segundo


SCSI-1 8 bits 3 Megas/s
SCSI-2 8 bits 5 Megas/s
Fast SCSI-2 8 bits 10 Megas/s
Fast/Wide SCSI-2 16 bits 20 Megas/s
Ultra SCSI 8/16 bits 20/40 Megas/s
Ultra2 SCSI LVD 8/16 bits 40/80 Megas/s

Comparando SCSI con IDE se pueden obtener las siguientes diferencias:


- Los discos duros IDE han representado tradicionalmente al ordenador personal medio, siendo
los discos SCSI usados desde el principio por usuarios avanzados en equipos profesionales. De
hecho, todos los ordenadores Macintosh de Apple disponen de discos duros SCSI desde el
primer momento.
- Ambos tipos (IDE y SCSI) han sufrido un profundo desarrollo desde sus orígenes pero es
preciso reconocer que los del tipo EIDE (Enhanced IDE) han ido aproximándose a los SCSI en
cuanto a prestaciones se refiere y la diferencia de prestaciones entre ambos tipos de discos
actualmente no es sustancial, aproximándose mucho entre sí.
- Normalmente, los puertos EIDE aparecen integrados en la placa base. Los discos SCSI, por el
contrario, precisan una controladora SCSI adicional, aunque algunas placas base de gama alta
la integran.
- En circunstancias normales, un solo disco SCSI no aumenta significativamente las prestaciones
frente a un EIDE. Sin embargo, el rendimiento se dispara cuando se conectan varios dispositi-
vos SCSI accediendo simultáneamente al mismo bus común (no depende de bus del sistema).

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 38
II: TECNOLOGÍA BÁSICA

Por el contrario en cada puerto EIDE, los dos dispositivos conectados tienen que turnarse en la
utilización del bus.
- SCSI es más caro que IDE y algo más complejo de configurar.
 SATA (Serial ATA)
Es una interfaz de transferencia de datos en serie que permite la conexión de dispositivos de
almacenamiento y ópticos. Fue diseñada para sustituir a las anteriores ATA y EIDE.
La primera versión ofrecía transferencias de datos de 150Mb/s (frecuencia 1500Mhz), mejorada en las
sucesivas versiones de SATA v2.0 con 300Mb/s (frecuencia 3000Mhz) y SATA v3.0 (frecuencia
6.000Mhz) con 600Mb/s.
Ofrece nuevas características: reducción del número de cables (tan solo 7), mejor y más eficiente
transferencia de datos y conexión y conexión/desconexión rápida. Con cada nueva versión han ido
aumentando las prestaciones, mejorando la calidad del servicio de video streaming y las interrupciones
de alta prioridad. Por otra parte, las altas tasas de transferencia de datos requieren un mayor consumo
de potencia.
SATA es una arquitectura "punto a punto", es decir, la conexión entre puerto y dispositivo es directa.
Cada dispositivo se conecta directamente a un controlador SATA y, por tanto, disfruta de todo el ancho
de banda de la conexión.
Una variante de esta interfaz (año 2004) es el eSata (external SATA) en directa competencia con USB y
FireWire. Actualmente, la mayoría de las placas bases han empezado a incluir conectores eSATA.
También es posible usar adaptadores de bus o tarjetas PC-Card y CardBus para portátiles que aún no
integran el conector.
 SAS (Serial Attached SCSI):
Es una interfaz de transferencia de datos en serie, sucesora del SCSI paralelo, aunque sigue utilizando
comandos SCSI para interaccionar con los dispositivos SAS. Proporciona una arquitectura punto a punto
más simple y robusta que su antecesora paralela, un mejor rendimiento (de 3Gb a 12 Gb) y mayor
escalabilidad.

Una de las principales características es el aumento de la velocidad de transferencia al aumentar el


número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para
cada dispositivo conectado y elimina la limitación de 16 dispositivos existente en SCSI.
Debido a la transferencia de datos en serie, son enviados, uno tras otro (en el orden correcto y en el
momento esperado). Con el cableado punto a punto, con cada dispositivo se asegura un canal dedicado
para cada uno de ellos (reduciendo la latencia) y, al no compartir bus, la gestión es mucho más
sencilla.
El conector SAS es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para
aplicaciones con menos necesidad de velocidad, ahorrando costos. Por lo tanto, los discos SATA pueden
ser utilizados por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos
SAS.
En la tabla adjunta se pueden apreciar las principales diferencias con su antecesor:

SCSI Paralelo SAS


Arquitectura Paralela Serie
Rendimiento 320Mbs (Ultra SCSI) 3GBs -> 12GBs
Escalabilidad 15 dispositivos 16.000 dispositivos
Compatibilidad Incompatible con otras interfaces Compatible con SATA
Máxima longitud cable 12 metros total para todos los dispositivos 8m para cada dispositivo
Conexión en caliente No Si

e) Medidas que describen el rendimiento de un disco duro:


 Tiempo de búsqueda: tiempo que tardan las cabezas de lectura/escritura en moverse desde su posición
actual hasta la pista donde está localizada la información deseada. Este tiempo varía en cada
búsqueda. Actualmente, los discos duros tienen tiempos de búsqueda pista a pista tan cortos como 2
milisegundos, tiempos promedios de búsqueda menores a 10 milisegundos y tiempo máximo de
búsqueda (viaje completo entre la pista más interna y más externa) cercano a 15 milisegundos.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 39
II: TECNOLOGÍA BÁSICA

 Latencia: cada pista en un disco duro contiene múltiples sectores como ya hemos comentado
anteriormente. Una vez que la cabeza de Lectura/Escritura encuentra la pista correcta, las cabezas
permanecen en el lugar, e inactivas hasta que el sector pasa por debajo de ellas. Este tiempo de espera
se llama latencia.
 Command Overhead: tiempo que le toma a la controladora procesar un requerimiento de datos.
 Transferencia: se refiere al tiempo en el que los datos pueden ser leídos o escritos en el drive, que es
afectado por la velocidad de los discos, la densidad de los bits de datos y el tiempo de acceso.
f) Fabricantes: Western Digital, Maxtor, Samsung, Hitachi, Fujitsu, Quantum, Toshiba, Seagate, Zac.

046b.2.2.1.2. CD, DVD, Blu-ray.


CD
Un CD-ROM (Compact Disc - Read Only Memory, Disco Compacto - Memoria de sólo lectura), es soporte digital óptico
utilizado para almacenar cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos) y que puede
ser leído por una computadora con una lectora de CD. Un CD-ROM es un disco de plástico plano con información digital
codificada en una espiral desde el centro hasta el borde exterior. Tiene un diámetro de 12 centímetros y pueden
almacenar hasta 80 minutos de audio (o 700 MB de datos).
El disco compacto fue creado por el holandés Kees Immink, de Philips, y el japonés Toshitada Doi, de Sony, en 1979. Al
año siguiente, Sony y Philips, que habían desarrollado el sistema de audio digital Compact Disc, comenzaron a distribuir
discos compactos, pero las ventas no tuvieron éxito por la depresión económica de aquella época. Entonces, decidieron
abarcar el mercado de la música clásica, de mayor calidad con el lanzamiento del nuevo y revolucionario formato de
grabación audio que posteriormente se extendería a otros sectores de la grabación de datos.
El sistema óptico fue desarrollado por Philips, mientras que la lectura y codificación digital corrió a cargo de Sony. Fue
presentado en junio de 1980 a la industria y se adhirieron al nuevo producto 40 compañías de todo el mundo mediante la
obtención de las licencias correspondientes para la producción de reproductores y discos

Una lectora de CD es un dispositivo óptico electrónico que permite la lectura de estos CD-ROM mediante el empleo de un
haz de un rayo láser y la posterior transformación de estos en impulsos eléctricos que la computadora interpreta. Está
compuesta por los siguientes elementos:
a) Un cabezal, en el que hay un emisor de rayos láser, que dispara un haz de luz hacia la superficie del disco, y
que tiene también un fotorreceptor (foto-diodo) que recibe el haz de luz que rebota en la superficie del disco
b) Un motor que hace girar el disco compacto, y otro que mueve el cabezal radialmente. Con estos dos
mecanismos se tiene acceso a todo el disco y se regula la velocidad de acceso (CLV o CAV, consultar más
adelante)
c) Un DAC (Digital to Analogical Converter), en el caso del CD-audio, y en casi todos los CD-ROM. Es decir, un
convertidor de señal digital a señal analógica, la cual es enviada a los altavoces. DAC’s también hay en las
tarjetas de sonido, que en su gran mayoría, tienen también un ADC (Analogical to Digital Converter), que hace
el proceso inverso, de analógico al digital.
Los CD-ROM’s están escritos por grabadoras de CD, dispositivo similar a la lectora de CD, con la diferencia que hace lo
contrario a la lectora, es decir, transformar impulsos eléctricos en un haz de luz láser que almacenan en el CD datos
binarios en forma de pozos (pits) y valles (lands)
Para esto, la grabadora crea los pozos y los valles cambiando la reflectividad de la superficie del CD. Los primeros son
zonas donde el láser quema la superficie con mayor potencia, creando ahí una zona de baja reflectividad. Los segundos,
son justamente lo contrario, son zonas que mantienen su alta reflectividad inicial, justamente porque la potencia del láser
se reduce.
Uno de los parámetros más importantes para medir la calidad de un CD-ROM es el tiempo de acceso. Este es la cantidad
de tiempo que le lleva al dispositivo, desde que comienza el proceso de lectura, hasta que los datos comienzan a ser
leídos y se calcula como la conjunción:
a) La latencia: tiempo que tarda en pasar el dato por debajo del cabezal de lectura.
b) El tiempo de búsqueda: tiempo que lleva mover el cabezal de lectura hasta la posición del disco en la que están
los datos.
c) El tiempo de cambio de velocidad, con alguno de estos dos tipos:
 CLV (Constant Linear Velocity, Velocidad Lineal Constante): la velocidad de giro del motor dependerá
de la posición que el cabezal de lectura ocupe en el disco, más rápido cuanto más cerca del centro.
Esto implica un tiempo de adaptación para que este motor tome la velocidad adecuada una vez que
conoce el punto en el que se encuentran los datos.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 40
II: TECNOLOGÍA BÁSICA

 CAV (Constant Angular Velocity, Velocidad Angular Constante): velocidad variable según la posición del
dato. En este caso la velocidad de rotación es siempre la misma, así que la velocidad de acceso se verá
beneficiada por esta característica y será algo menor.
Este tiempo de acceso depende directamente de la velocidad de la unidad de CD-ROM, ya que los componentes de ésta
también dependen de ella. La razón por la que el tiempo de acceso es mayor en los CD-ROM respecto a los discos duros
se encuentra en su construcción, ya que su disposición de cilindros reduce considerablemente los tiempos de búsqueda.
Por su parte, los CD-ROM no fueron inicialmente ideados para el acceso aleatorio, sino para el secuencial de los CD de
audio. Los datos se disponen en espiral en la superficie del disco, y el tiempo de búsqueda es por lo tanto mucho mayor.
Un CD-R es un formato de disco compacto grabable (Compact Disc Recordable, Disco Compacto Grabable). Se pueden
grabar en varias sesiones, sin embargo, la información agregada no puede ser borrada ni sobrescrita, en su lugar, se
debe usar el espacio libre que dejó la sesión inmediatamente anterior.
Actualmente las grabadoras llegan a grabar CD-R a 52x, unos 7.800 KB/s. Para muchos ordenadores es difícil mantener
esta tasa de grabación y, por ello, las grabadoras tienen sistemas que permiten retomar la grabación ante un corte en la
llegada de datos.
La capacidad total de un CD-R suele ser:
 650 MB = 681,57 millones de bytes
 700 MB = 734 millones de bytes. El más común.
 800 MB = 838 millones de bytes.
 900 MB = 943 millones de bytes.
Un CD-RW es un formato de disco compacto regrabable ( Compact Disc ReWritable. Disco Compacto Regragable). Se
trata de un soporte digital óptico utilizado para almacenar cualquier tipo de información. Este tipo de CD puede ser
grabado múltiples veces, ya que permite que los datos almacenados sean borrados. Fue desarrollado conjuntamente en
1980 por las empresas Sony y Philips, y comenzó a comercializarse en 1982. Hoy en día, tecnologías como el DVD han
desplazado en parte esta forma de almacenamiento, aunque su uso sigue vigente.
En el disco CD-RW la capa que contiene la información está formada por una aleación cristalina de plata, indio, antimonio
y telurio. Esta aleación presenta una interesante cualidad: cuando es calentada hasta cierta temperatura, al enfriarse se
convierte en cristalina; pero si al calentarse se alcanza una temperatura aún más elevada, al enfriarse queda con
estructura amorfa. La superficie cristalina permite que la luz se refleje bien en la zona reflectante, mientras que la zona
con estructura amorfa absorbe la luz. Por ello el CD-RW utiliza tres tipos de luz:
 Láser de escritura: se usa para escribir. Calienta pequeñas zonas de la superficie para que el material se torne
amorfo.
 Láser de borrado: se usa para borrar. Tiene una intensidad menor que el de escritura con lo que se consigue
el estado cristalino.
 Láser de lectura: se usa para leer. Tiene menor intensidad que el de borrado. Se refleja en zonas cristalinas y
se dispersa en las amorfas.
DVD
Al comienzo de los años 90, se estaban desarrollando dos estándares de almacenamiento óptico de alta densidad: uno
era el Multimedia Compact Disc (MMCD), apoyado por Philips y Sony; el otro era el Super Density Disc (SD), apoyado por
Toshiba, Time-Warner, Matsushita Electric, Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC.
Philips y Sony abandonaron su formato MMCD y acordaron con Toshiba adoptar el SD, pero con una modificación: la
adopción del EFM (Eight-to-Fourteen Modulation) Plus de Philips, creado por Kees Immink, que a pesar de ser un 6%
menos eficiente que el sistema de codificación de Toshiba (de ahí que la capacidad sea de 4,7 GB en lugar del los 5 GB
del SD original), cuenta con la gran ventaja de poseer gran resistencia a los daños físicos en el disco (como arañazos o
huellas).
El resultado fue la creación del Consorcio del DVD, fundada por las compañías anteriores, y la especificación de la versión
1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el consorcio DVD (DVD
Consortium) fue reemplazado por el foro DVD (DVD Forum)
Un DVD tiene una cuantificación de 24 bits, una velocidad de muestreo de 48MHz y un rango dinámico de 144 dB. El
disco puede tener una o dos caras (estos últimos apenas se utilizan), y una o dos capas de datos por cada cara (el
número de caras y capas determina la capacidad del disco). Los de capa simple tienen una capacidad de 4,7Gb y los de
doble capa 8,5Gb. Esta capacidad esta expresada en base decimal (la proporcionada por los fabricantes) pero la
capacidad real sería, por ejemplo para los de simple cara, de aproximadamente 4,38 gigabytes reales en base binaria o
gibibytes (se lo conoce como DVD-5),
El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de errores
utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed Solomon - Product Code (RS-
PC), así como la codificación de línea EMF, que fue reemplazada por una versión más eficiente, EFM Plus, con las
mismas características que el EFM clásico. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que
emplea una tercera capa de corrección de errores.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 41
II: TECNOLOGÍA BÁSICA

A diferencia de los discos compactos, donde el sonido se guarda de manera fundamentalmente distinta que los datos, un
DVD correctamente creado siempre contendrá datos siguiendo los sistemas de archivos UDF (Universal Disk Format), con
estándar ISO 9660 publicado en 1986 que define el sistema de archivos de un CD. Igualmente, puede usar Joliet,
extensión del estándar ISO 9660 especificado por Microsoft.
Los DVD se pueden clasificar:
 Según su contenido:
o DVD-Video: películas (vídeo y audio).
o DVD-Audio: audio de alta fidelidad.
o DVD-Data: todo tipo de datos.
 Según su capacidad de regrabado:
o DVD-ROM: sólo lectura, manufacturado con prensa.
o DVD-R y DVD+R: grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de
grabación y de codificación de la información: los +R los pozos son 1’s lógicos mientras que en los -R
los pozos son 0’s lógicos.
o DVD-RW y DVD+RW: regrabable.
o DVD-RAM: regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los da-
tos siempre activa tras completar la escritura.
o DVD+R DL (dual layer): grabable una sola vez de doble capa
o El DVD-ROM almacena desde 4,7 GB hasta 17 GB.

 Según su número de capas o caras:


o DVD-5: una cara, capa simple; 4,7 GB o 4,38 GiB - Discos DVD±R/RW.
o DVD-9: una cara, capa doble; 8,5 GB o 7,92 GiB - Discos DVD+R DL. La grabación de doble capa
permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8,5 GB por
disco, comparado con los 4,7 GB que permiten los discos de una capa.
Los DVD-R DL fueron desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue
desarrollado para el DVD+R Alliance por Philips y Mitsubishi Kagaku Media.
Un disco de doble capa difiere de un DVD convencional en que emplea una segunda capa física
ubicada en el interior del disco. Una unidad lectora con capacidad de doble capa accede a la segunda
proyectando el láser a través de la primera semitransparente. El mecanismo de cambio de capa en
algunos DVD puede conllevar una pausa de hasta un par de segundos.
Los discos grabables soportan esta tecnología manteniendo compatibilidad con algunos reproductores
de DVD y unidades DVD-ROM. Muchos grabadores de DVD soportan la tecnología de doble capa, y su
precio es comparable con las unidades de una capa, aunque el medio continúa siendo
considerablemente más caro.
o DVD-10: dos caras, capa simple en ambas; 9,4 GB o 8,75 GiB - Discos DVD±R/RW.
o DVD-14: dos caras, capa doble en una, capa simple en la otra; 13,3 GB o 12,3 GiB - Raramente
utilizado.
o DVD-18: dos caras, capa doble en ambas; 17,1 GB o 15,9 GiB - Discos DVD+R.
También existen DVD de 8 cm (no confundir con miniDVD, que son CD que contienen información de tipo DVD video)
que tienen una capacidad de 1,5 GB.
El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM, y Alliance creó los estándares DVD+R/RW para evitar
pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares oficiales, no
muestran el logotipo “DVD”. En lugar de ello, llevan el logotipo “RW” incluso aunque sean discos que solo puedan
grabarse una vez, lo que ha suscitado cierta polémica en algunos sectores que lo consideran publicidad engañosa,
además de confundir a los usuarios.
La mayoría de grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos “+RW” y “DVD-
R/RW”. La velocidad de transferencia de datos de una unidad DVD está dada en múltiplos de 1.350 KB/s.
Las primeras unidades DVD leían datos a velocidad constante (CLV). Los datos en el disco pasaban bajo el láser de
lectura a velocidad constante. Como la velocidad lineal (metros/segundo) de la pista es tanto mayor cuanto más alejados
esté del centro del disco (de manera proporcional al radio), la velocidad rotacional del disco se ajustaba de acuerdo a qué
porción del mismo se estaba leyendo.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 42
II: TECNOLOGÍA BÁSICA

Actualmente, la mayor parte de unidades DVD tienen una velocidad de rotación constante (CAV). La máxima velocidad de
transferencia de datos especificada para una cierta unidad y disco se alcanza, solamente, en los extremos del disco. Por
tanto, la velocidad media de la unidad lectora equivale al 50-70% de la velocidad máxima para la unidad y el disco.
Aunque esto puede parecer una desventaja, tales unidades tienen un menor tiempo de búsqueda, pues nunca deben
cambiar la velocidad de rotación del disco
Blu-ray
El Blu-ray es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para
vídeo de gran definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 25Gb a
una capa y a 50Gb a doble capa, aunque existen de mayor capacidad. Este formato se impuso a su competidor, el HD
DVD (abandonado en el año 2008), en la guerra de formatos iniciada para cambiar el estándar DVD.
El disco Blu-ray hace uso de un rayo láser de color azul con una longitud de onda de 405 nanómetros, a diferencia del
láser rojo utilizado en lectores de DVD, que tiene una longitud de onda de 650 nanómetros. Esto, junto con otros
avances tecnológicos, permite almacenar sustancialmente más información que el DVD en un disco de las mismas
dimensiones y aspecto externo. Blu-ray obtiene su nombre del color azul del rayo láser (blue ray significa ‘rayo azul’).
El DVD ofreció en su momento una alta calidad, ya que era capaz de dar una resolución de 720x480 (NTSC) o 720x576
(PAL), lo que es ampliamente superado por la capacidad de alta definición ofrecida por el Blu-ray, que es de 1920x1080
(1080p).

Además Blue-ray vino a solucionar dos problemas del DVD:


 En primer lugar, para la lectura en el DVD el láser debe atravesar la capa de policarbonato de 0,6mm en la que el
láser se puede difractar en dos haces de luz. Si esta difracción es alta (por ejemplo, si el disco estuviera rayado),
impediría su lectura.. Como el disco Blu-ray tiene una capa de tan sólo 0,1mm se evita este problema, ya que tie-
ne menos recorrido hasta la capa de datos; además, esta capa es resistente a las rayaduras.
 En segundo lugar, si el disco DVD estuviera inclinado por igual motivo que el anterior problema, la distorsión del
rayo láser haría que leyese en una posición equivocada, dando lugar a errores. En el caso del Blu-ray, gracias a la
cercanía de la lente y la rápida convergencia del láser, la distorsión es inferior, pudiéndose evitar los posibles
errores de lectura.
Este formato fue desarrollado en conjunto por un grupo de compañías tecnológicas llamado Blu-Ray Disc Association
(BDA), liderado por Sony y Philips.

046b.2.2.1.3. Memoria Flash.


La memoria flash es una evolución de la memoria EEPROM que permite que múltiples posiciones de memoria sean
escritas o borradas en una misma operación de programación mediante impulsos eléctricos, frente a las anteriores que
sólo permite escribir o borrar una única celda cada vez. Por ello, flash permite funcionar a velocidades muy superiores,
cuando los sistemas emplean lectura y escritura en diferentes puntos de esta memoria, al mismo tiempo.
Sin embargo, todos los tipos de memoria flash sólo permiten un número limitado de escrituras y borrados, generalmente
entre 10.000 y un millón, dependiendo de la celda, de la precisión del proceso de fabricación y del voltaje necesario para
su borrado.
Este tipo de memoria está fabricado con puertas lógicas NOR y NAND para almacenar los 0’s ó 1’s correspondientes.
Existen también memorias basadas en ORNAND.
Los sistemas de archivos para estas memorias son JFFS originalmente para NOR, evolucionado a JFFS2 para soportar
además NAND o YAFFS, ya en su segunda versión, para NAND. Sin embargo, en la práctica se emplea un sistema de
archivos FAT por compatibilidad, sobre todo, en las tarjetas de memoria extraíble.
Estas memorias, como tipo de EEPROM que son, contienen una matriz de celdas con un transistor evolucionado con dos
puertas en cada intersección. Tradicionalmente sólo almacenan un bit de información. Las nuevas memorias flash,
llamadas también dispositivos de celdas multinivel, pueden almacenar más de un bit por celda variando el número de
electrones que almacenan.
Se basan en el transistor FAMOS (Floating Gate Avalanche-Injection Metal Oxide Semiconductor) que es, esencialmente,
un transistor NMOS con un conductor (basado en un óxido metálico) adicional localizado o entre la puerta de control (CG,
Control Gate) y los terminales fuente/drenador contenidos en otra puerta (FG, Floating Gate) o alrededor de la FG
conteniendo los electrones que almacenan la información.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 43
II: TECNOLOGÍA BÁSICA

En las memorias flash de tipo NOR, cuando los electrones se encuentran en FG, modifican (prácticamente anulan) el
campo eléctrico que generaría CG en caso de estar activo. De esta forma, dependiendo de si la celda está a 1 ó a 0, su
campo eléctrico existe o no. Entonces, cuando se lee la celda poniendo un determinado voltaje en CG, la corriente
eléctrica fluye o no en función del voltaje almacenado en ella. La presencia/ausencia de corriente se detecta e interpreta
como un 1 ó un 0, reproduciendo así el dato almacenado. En los dispositivos de celda multinivel, se detecta la intensidad
de la corriente para controlar el número de electrones almacenados en FG e interpretarlos adecuadamente.
Para programar una celda de tipo NOR (asignar un valor determinado) se permite el paso de la corriente desde el
terminal fuente al terminal sumidero, entonces se coloca en CG un voltaje alto para absorber los electrones y retenerlos
en el campo eléctrico que genera. Este proceso se llama hot-electrón injection. Para borrar (poner a “1”, el estado
natural del transistor) el contenido de una celda, expulsar estos electrones, se emplea la técnica de Fowler-Nordheim
tunnelling, un proceso de tunelado mecánico – cuántico. Esto es, aplicar un voltaje inverso bastante alto al empleado
para atraer los electrones, convirtiendo al transistor en una pistola de electrones que permite, abriendo el terminal
sumidero, que los electrones lo abandonen.. Este proceso es el que provoca el deterioro de las celdas, al aplicar sobre un
conductor tan delgado un voltaje tan alto.
Es necesario destacar que las memorias flash están subdivididas en bloques (en ocasiones llamados sectores) y por lo
tanto, para el borrado, se limpian bloques enteros para agilizar el proceso, ya que es la parte más lenta del proceso. Por
esta razón, las memorias flash son mucho más rápidas que las EEPROM convencionales, ya que borran byte a byte. No
obstante, para reescribir un dato es necesario limpiar el bloque primero para después reescribir su contenido.

Las memorias flash basadas en puertas lógicas NAND funcionan de forma ligeramente diferente: usan un túnel de
inyección para la escritura y para el borrado un túnel de ‘soltado’. Estas memorias tienen, además de la evidente base en
otro tipo de puertas, un coste bastante inferior y unas diez veces más resistencia a las operaciones, pero sólo permiten
acceso secuencial (más orientado a dispositivos de almacenamiento masivo), frente a las memorias flash basadas en
NOR que permiten lectura de acceso aleatorio. Sin embargo, han sido las NAND las que han permitido la expansión de
este tipo de memoria, ya que el mecanismo de borrado es más sencillo (aunque también se borre por bloques) lo que ha
proporcionado una base más rentable para la creación de dispositivos de tipo tarjeta de memoria. Las populares
memorias USB o también llamadas Pendrives, utilizan memorias flash de tipo NAND.
Para comparar estos tipos de memoria, se consideran los diferentes aspectos de las tradicionalmente valorados.
 La densidad de almacenamiento de los chips es actualmente bastante mayor en las memorias NAND.
 El coste de NOR es mucho mayor.
 El acceso NOR es aleatorio para lectura y orientado a bloques para su modificación. Sin embargo, NAND ofrece
tan solo acceso directo para los bloques y lectura secuencial dentro de los mismos.
 En la escritura de NOR se puede llegar a modificar un solo bit. Esto destaca con la limitada reprogramación de las
NAND que deben modificar bloques o palabras completas.
 La velocidad de lectura es muy superior en NOR (50-100 ns) frente a NAND (10 µs de la búsqueda de la página +
50 ns por byte).
 La velocidad de escritura para NOR es de 5 µs por byte frente a 200 µs por página en NAND.
 La velocidad de borrado para NOR es de 1 s por bloque de 64 KB frente a los 2 ms por bloque de 16 KB en NAND.
 La fiabilidad de los dispositivos basados en NOR es realmente muy alta, es relativamente inmune a la corrupción
de datos y tampoco tiene bloques erróneos frente a la escasa fiabilidad de los sistemas NAND que requieren co-
rrección de datos y existe la posibilidad de que queden bloques marcados como erróneos e inservibles.
En resumen, los sistemas basados en NAND son más baratos y rápidos, pero carecen de una fiabilidad que los haga
eficientes, lo que demuestra la necesidad imperiosa de un buen sistema de archivos. Dependiendo de qué sea lo que se
busque, merecerá la pena decantarse por uno u otro tipo.
046b.2.2.1.4. Cinta magnética.
La cinta magnética es un soporte de almacenamiento de información que se graba en pistas sobre una banda plástica
con un material magnetizado, generalmente óxido de hierro o algún cromato. El tipo de información que se puede
almacenar en las cintas magnéticas es variado, como vídeo, audio y datos.
Estos dispositivos informáticos de almacenamiento masivo de datos son utilizados, principalmente, para respaldo de
archivos y para el proceso de información de tipo secuencial, como en la elaboración de nóminas de las grandes
organizaciones públicas y privadas. Al almacén donde se guardan estos dispositivos se le denomina cintoteca.
La grabación magnética conlleva registrar sobre la plástica impulsos magnéticos en forma de señales análogas o digitales
por codificar, de forma que la información puede ser accedida repetidamente. Una característica de este medio es que la

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 44
II: TECNOLOGÍA BÁSICA

cabeza codificadora debe estar en contacto directo con la superficie magnética y provocar un movimiento constante para
ser leída a través de movimiento mecánico, es decir, manualmente o a través de un motor.
Los métodos de grabación son una forma de clasificar la tecnología y cada cambio ha reutilizado la cinta magnética para
aprovechar el medio de almacenamiento:
 Grabación Lineal: con este tipo de grabación de señales análogas y digitales registradas en la cinta magnética
como audio o datos codificados, se puede observar en las primeras cintas la traza de la señal en forma de línea
horizontal, de acuerdo a las necesidades de ingenieros en audio video o datos. Hubo variantes como la grabación
en pistas que comprenden múltiples trazas horizontales grabadas con diferentes cabezas que podían ser
reproducidas al mismo tiempo o el Lineal serpentine que, en el momento de llegar al final de la cinta, la cabeza
graba en dirección opuesta trazando una segunda línea paralela, esto requirió contar con una mayor capacidad de
almacenamiento.
 Grabación Transversal: para aprovechar la superficie grabable de la cinta magnética se diseñó un tambor
giratorio, con cuatro cabezas de grabación, para almacenar video. Éste requiere mayor cantidad de información
almacenada a lo ancho de la cinta, mientras las cinta estaban en constante movimiento, cada pista está
ligeramente inclinada. Muy pocos equipos utilizaron este método de grabación, como las grabadoras Mark I y
Mark II de Ampex, que nombraron esta tecnología de grabación como "Quádruplex”
 Grabación Helical: para perfeccionar el modo de grabación transversal se redujeron de cuatro cabezas a dos que
rotan en diferentes ángulos hacia la dirección en la que la cinta se transporta. Para lograr una secuencia de
grabación continua y mayor superficie de cinta aprovechada, se pueden apreciar las trazas de la cinta grabadas
diagonalmente a lo largo de ésta.
046b.2.2.2 Periféricos de Entrada
Estos periféricos son los que permiten introducir datos (de distintas fuentes) a la computadora para su posterior
tratamiento por parte de la CPU. Entre los más importantes se pueden destacar: Teclado, Ratón, Escáner, Pantalla táctil,
Lápiz óptico, Cámara web, Dispositivos para juegos (Joystick, Gamepad). Micrófono, Conversor Analógico digital, Escáner
de código de barras. A continuación se describe con más detalle alguno de ellos.
046b.2.2.2.1. Teclado
Un teclado es un periférico o dispositivo que permite introducir información en una computadora. Está formado por una
matriz de interruptores, cada uno de los cuales envía una señal al PC cuando la tecla correspondiente es pulsada.
Básicamente, existen dos tipos de teclados, diferenciados por la tecnología que emplean para responder ante la pulsación
de sus teclas: teclados mecánicos y los de membrana de goma. Los teclados mecánicos emplean un sistema mecánico
basado en muelles, muy fiable y de larga vida; y se distinguen fácilmente por su tacto más duro y su click característico
al pulsar las teclas.
Las teclas de un teclado están conectadas en forma de matriz, de manera que cada vez que se pulsa una se envía el
valor de fila y columna al circuito microcontrolador del teclado, generando el correspondiente código (scan code)
resultado de la pulsación. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al
administrador de teclado, que no es más que un programa de la BIOS cuya función es determinar qué carácter le
corresponde a la tecla pulsada, comparándolo con una tabla de caracteres que existe en el kernel. Una vez identificada,
se genera una interrupción por hardware y se envían los datos al procesador. El microcontrolador también posee cierto
espacio de memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan
leer a causa de la velocidad de tecleo del usuario
El microcontrolador está montado sobre una placa de circuito impreso en el interior del teclado y es el encargado de
interpretar las señales eléctricas que recibe a consecuencia de la pulsación de las teclas, gracias a un programa
implantado en su firmware. Este firmware, con el tiempo se ha vuelto más sofisticado, de tal forma que los fabricantes
implementan teclas programables, para lo cual el teclado incorpora una memoria ROM interna que permite almacenar la
programación de determinadas teclas. En otros casos, el control de todas estas funciones programables se hace
directamente por software.
Igualmente, el microcontrolador del teclado es la parte responsable de negociar con el controlador de teclado de la placa
base, lo que permite entre otras cosas, detectar si el teclado está conectado o no, así como controlar los diferentes
indicadores LED del mismo. Los dos controladores, el microcontrolador del teclado y el controlador de teclado de la placa
base, se comunican a través del cable del teclado, de tipo AT o PS/2, de forma asíncrona.
Por último, cabe destacar las siguientes variaciones de teclados sobre los ya mencionados:

 Teclado ergonómico: diseñados para dar una mayor comodidad al usuario permitiéndole mantener una la postura
natural de las manos a la hora de trabajar con el ordenador, ayudándole a tener una posición más relajada de los
brazos.

 Teclado multimedia: añade teclas especiales de acceso directo que llaman a algunos programas en el
computador, como pueden ser el programa de correo electrónico, la calculadora, el reproductor multimedia.

 Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el computador y el periférico se
realiza a través de rayos infrarrojos, ondas de radio o mediante bluetooth.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 45
II: TECNOLOGÍA BÁSICA

 Teclado flexible: estos teclados son de plástico suave o silicona y se puede doblar sobre sí mismos. Durante su
uso, pueden adaptarse a superficies irregulares, y son más resistentes a los líquidos que los teclados estándar.
También pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser
completamente sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser
desinfectados.
046b.2.2.2.2. Ratón
En el comienzo del desarrollo del PC, el dispositivo de entrada más habitual era el teclado. A finales de los ochenta, sin
embargo, entraba en escena otro dispositivo apuntador usado para el manejo del entorno gráfico del computador que se
fue extendiendo cada vez más hasta formar parte de la configuración habitual de cualquier PC: el ratón ( mouse).
Las tecnologías que se usan para los ratones son las siguientes:
 Mecánica: es la más habitual, y su mecanismo consta de una bola de acero recubierta de goma que al rotar por
efecto del arrastre del ratón mueve unos rodillos, uno para el desplazamiento horizontal y otro para el vertical. Un
tercer rodillo se encarga de mantener la bola en contacto permanente. Así, en función de esta información el
ratón detecta la dirección del movimiento.
 Optoelectrónica: es una variante que carece de la bola de goma, evitando el frecuente problema de la
acumulación de suciedad en el eje de transmisión. Ello debido a que, por sus características ópticas, es menos
propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente.

Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra, y
detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. Puede
ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una
pulgada); a menor cifra peor actuará el sensor de movimientos. En superficies pulidas o sobre determinados
materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso
de una alfombrilla o superficie que, para este tipo, no debe ser brillante y mejor si carece de grabados
multicolores que puedan "confundir" la información luminosa devuelta.
 Láser: este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y
los jugadores de videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero
el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2.000 ppp, lo que se
traduce en un aumento significativo de la precisión y sensibilidad.
 Trackball: el concepto de trackball es una idea que parte del hecho de que se debe mover el puntero, no el
dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima, se
pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más (no toda la mano como en las
tecnologías mencionadas anteriormente). De esta manera se reduce el esfuerzo y la necesidad de espacio,
además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo,
no les termina de resultar realmente cómodo. Este tipo ha sido muy útil, por ejemplo, en la informatización de la
navegación marítima.
En cuanto a la conexión de los ratones al PC existen dos tipos:
 Por cable: es el formato más popular y económico, sin embargo, existen multitud de características añadidas que
pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente
se distribuyen con dos tipos de conectores posibles, tipo USB y PS/2 (en modelos antiguos también era posible
usar el puerto serie). La velocidad de transmisión de datos por cable entre el ratón y el ordenador es óptima en
aplicaciones (juegos) que requieren de una gran precisión.
 Inalámbricos: en este caso, el dispositivo carece de un cable que lo comunique con el computador, en su lugar
utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que
produce el ratón mediante baterías. El receptor normalmente se conecta al ordenador a través de un puerto USB
o PS/2. Según la tecnología inalámbrica empleada pueden distinguirse varias posibilidades:
- Radio Frecuencia (RF): es el tipo más común y económico. Funciona enviando una señal a una frecuencia
de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE
802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros
equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.
- Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos,
popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía
celular. A diferencia de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como
el receptor, deben estar en una misma línea visual de contacto directo ininterrumpido para que la señal
se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a desaparecer del mercado.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 46
II: TECNOLOGÍA BÁSICA

- Bluetooth (BT): esta tecnología es la más reciente como transmisión inalámbrica (estándar IEEE
802.15.1). Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar
Bluetooth).
Finalmente, el ratón presenta dos o tres interruptores, uno por cada botón, y un microcontrolador que interpreta las
señales de los sensores y los interruptores y se encarga de trasladarlas en forma de paquetes de datos al PC a través del
puerto al que esté conectado el ratón.
046b.2.2.2.3. Escáner
Un escáner es un dispositivo de entrada en el ordenador. Hace una captura de una imagen, documento de texto o
fotografía, y lo transfiere en bits de información que pueden ser procesados por un ordenador. De la misma manera, una
imagen de un documento escaneado, puede ser convertido en un formato editable con un software OCR ( Optical
Character Recognition) que identifica automáticamente símbolos o caracteres que pertenecen a un determinado alfabeto
a partir de una imagen.

El software de reconocimiento del OCR usa un algoritmo con las siguientes 4 etapas:
1. Binarización
La mayor parte de algoritmos de OCR parten como base de una imagen binaria (dos colores), por lo tanto, es
conveniente convertir una imagen de escala de grises (o una de color), en una imagen en blanco y negro,
conservando las propiedades esenciales de la imagen. Una forma de hacerlo es mediante el histograma de la
imagen, donde se muestra el número de píxeles (puntos de color) para cada nivel de grises que aparece en la
imagen. Para “binarizarla” se tiene que elegir el umbral adecuado, a partir del cual todos los píxeles que no lo
superen se convertirán en negro y el resto en blanco.
Mediante este proceso se obtiene una imagen en blanco y negro donde quedan claramente marcados los
contornos de los caracteres y símbolos que contiene la imagen. A partir de aquí, se pueden aislar las partes de
la imagen que contienen texto.
2. Fragmentación o segmentación de la imagen
Este es el proceso más costoso aunque necesario para el posterior reconocimiento de caracteres. La
segmentación de una imagen implica la detección mediante procedimientos estadísticos de etiquetado
determinista o estocástico de los contornos o regiones de la imagen, basándose en la información de intensidad
o información espacial.
Permite la descomposición de un texto en diferentes entidades lógicas, que han de ser suficientemente
invariables, para ser independientes del escritor, y suficientemente significativas para su reconocimiento.
No existe un método genérico para llevar a cabo esta segmentación de la imagen que sea lo suficientemente
eficaz para el análisis de un texto. Aunque, las técnicas más utilizadas son variaciones de los métodos basados
en proyecciones lineales.
Una de las técnicas más clásicas y simples para imágenes de niveles de grises consiste en la determinación de
los modos o agrupamientos (“clusters”) a partir del histograma, de tal forma que permitan una clasificación o
“umbralización” de los píxeles en regiones homogéneas.
Otros métodos son: el detector de contornos de Sobel, el operador de Kirsch, el detector de contornos de Marr-
Hilderth o el detector de contornos de Canny.
3. Adelgazamiento de las componentes
Una vez aislados los componentes conexos de la imagen, se les tendrá que aplicar un proceso de
adelgazamiento para cada una de ellas. Este procedimiento consiste en ir borrando sucesivamente los puntos de
los contornos de cada componente de forma que se conserve su tipología.
La eliminación de los puntos ha de seguir un esquema de barridos sucesivos para que la imagen continúe,
teniendo las mismas proporciones que la original, y así conseguir que no quede deforme.
Se tiene que hacer un barrido en paralelo, es decir, señalar los píxeles borrables para eliminarlos todos a la vez.
Este proceso se lleva acabo para hacer posible la clasificación y reconocimiento, simplificando la forma de los
componentes.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 47
II: TECNOLOGÍA BÁSICA

4. Comparación con patrones


En esta etapa se comparan los caracteres obtenidos anteriormente con unos teóricos (patrones) almacenados
en una base de datos. El buen funcionamiento del OCR se basa, en gran medida, en una buena definición de
esta etapa. Existen diferentes métodos para llevar a cabo la comparación. Uno de ellos es el Método de
Proyección, en él se obtienen proyecciones verticales y horizontales del carácter por reconocer y se comparan
con el alfabeto de aquellos posibles hasta encontrar la máxima coincidencia.
Existen otros métodos como por ejemplo: Métodos geométricos o estadísticos, Métodos estructurales, Métodos
Neuro-miméticos, Métodos Markovianos o Métodos de Zadeh.
Un escáner usa una fuente de luz para iluminar el objeto escaneado. La luz, al incidir sobre este objeto, es reflectada al
CDD (Charged Coupled Device). El CDD colecta la información y convierte la señal analógica en señales digitales, que
después, pueden ser leídos y procesados por la electrónica interna del escáner y posteriormente por el ordenador.
Se pueden mencionar los siguientes tipos de escáner:
 Planos: es el típico equipo que se puede encontrar encima de una mesa o mueble, muy parecido a una
fotocopiadora. Los precios suelen variar dependiendo de la calidad de la resolución que tenga, aunque se
pueden encontrar buenos precios.
 De rodillo: son pequeños y por ello bastante manejables. Escanean las imágenes como si se tratara de un FAX
común. El inconveniente es que el escaneado se hace, hoja por hoja, pasando por una abertura, por lo que
escanear libros o manuales se hace complicado.

 De mano: son los mas económicos aunque los de más baja calidad. También se les llama “portátiles” por su
tamaño. Hoy en día están desapareciendo.
 Modelos especiales: aparte de los híbridos de rodillo y de mano, existen otros escáneres destinados a
aplicaciones concretas; por ejemplo, los que escanean exclusivamente fotos, negativos o diapositivas,
aparatos con resoluciones reales del orden de 3.000x3.000 ppp que, muchas veces, se asemejan más a un
CD-ROM (con bandeja y todo) que a un escáner clásico; o bien los bolígrafos-escáner, utensilios con forma y
tamaño de lápiz o marcador fluorescente que escanean el texto por encima del cual los pasamos y, a veces,
hasta lo traducen a otro idioma al instante; o impresoras-escáner, similares a fotocopiadoras, o más
particulares como las Canon, donde el lector del escáner se instala como un cartucho de tinta.
Para realizar la conexión de estos dispositivos se puede usar:
 Puerto paralelo
Es el método más común de conexión para escáneres domésticos, entendiendo como tales aquellos de
resolución intermedia-alta (hasta 600x1.200 ppp, pero más comúnmente de 300x600 o 400x800 ppp), en los
que la velocidad no tiene necesidad de ser muy elevada, mientras que el precio es un factor muy importante.
El puerto paralelo, a veces denominado LPT1, es el que utilizan la mayor parte de las impresoras; como
generalmente el usuario tiene ya una conectada a su ordenador, el escáner tendrá dos conectores, uno de
entrada y otro de salida, de forma que quede conectado en medio del ordenador y la impresora. Como primer
problema de este tipo de conexión se encuentra que arbitrar el uso del puerto paralelo es algo casi imposible,
por lo que en general, no se podrá imprimir y escanear a la vez (aunque para un usuario doméstico esto no
debería ser excesivo problema).
De cualquier modo, se debe tener presente que para obtener una velocidad razonable, el puerto debe estar
configurado en los modos ECP o EPP (dependiendo del escáner en concreto), lo cual se selecciona
generalmente en la BIOS. El problema aparece cuando el ordenador que se quiere conectar es algo antiguo y
no puede configurar el puerto más que en el antiguo estándar, 10 veces más lento (como ocurre con los
primeros 486 e inferiores), o cuando surgen conflictos con otros dispositivos que tengamos conectados al
puerto paralelo, como unidades Zip o algunas impresoras modernas.
En estos casos, puede merecer la pena comprar una tarjeta controladora nueva que sustituya al puerto actual,
o bien que añada un segundo puerto (que será LPT2); estas tarjetas controladoras de dispositivos, llamadas
también de I/O, son baratas pero en ocasiones difíciles de encontrar por estar en la actualidad integradas en
la placa base.
 Conector SCSI
Es la opción profesional, aunque sea siempre más caro que su equivalente con conector paralelo, e incluso
muchos resultan aún más gravosos que modelos de mayor resolución, pero que utilizan otro conector. Debido
a este sobreprecio, no se fabrican en la actualidad escáneres de este tipo con resolución menor de 300x600
ppp, siendo lo más común que las cifras ronden los 600x1.200 ppp o más.
La utilidad de la conexión SCSI radica en dos ventajas: velocidad y pocos requisitos de microprocesador. Lo
primero es fácil de entender: la interfaz SCSI puede transmitir de 5 a 80 MB/s, dependiendo del estándar SCSI
en concreto, mientras que el puerto paralelo a duras penas supera 1 MB/s (y eso en los modos avanzados ECP

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 48
II: TECNOLOGÍA BÁSICA

o EPP). Por ejemplo, para una imagen A4 que puede ocupar 25 MB o más, resulta evidente que un escáner
SCSI es la opción a utilizar para escanear imágenes grandes con una cierta resolución y calidad de color.
La otra cualidad de SCSI incide también en la velocidad, aunque de otra forma. No se trata sólo de que se
puedan transmitir 10 ó 20 MB/s, sino que además dicha transferencia se realiza sin que el microprocesador
realice apenas trabajo; esto permite ir escaneando imágenes mientras realizamos otras tareas, agilizando
mucho la tarea. En un escáner paralelo resulta muy normal que, mientras se realiza el escaneado, el
rendimiento del ordenador baje tanto que no merezca la pena intentar hacer nada hasta que haya finalizado el
proceso.
La única desventaja de los escáneres SCSI (y en general todos los dispositivos SCSI) es su precio elevado,
justificable por el aumento de prestaciones que suponen y por la necesidad de incluir una tarjeta controladora
SCSI, ya que muy pocos ordenadores traen una incorporada (mientras que todos tienen puerto paralelo). Para
economizar un poco, en muchas ocasiones dicha tarjeta es un modelo de prestaciones reducidas, capaz de
controlar únicamente el escáner y no los 7 ó 15 dispositivos que pueden manejar las tarjetas normales.


 Puerto USB
E lo último en escáneres; tanto, que hace poco sencillamente no existía ningún escáner en el mercado con
este tipo de conexión. Los puertos USB están presentes en la mayoría de ordenadores modernos.
En general, se puede decir que los escáneres USB se sitúan en un punto intermedio de calidad/precio. La
velocidad de transmisión ronda los 1,5 MB/s, algo más que el puerto paralelo pero bastante menos que el
SCSI. La facilidad de instalación es casi insuperable, ya que se basa en Plug and Play (enchufar y listo) que
casi siempre funciona y todos los ordenadores modernos tienen el USB incorporado.
En cuanto a los estándares de los interfaces existentes en el mercado de PC se pueden mencionar:
 TWAIN (Technology Without An Interesting Name): es un estándar destinado a la adquisición de imágenes de
un escáner de imagen: una API de captura de imágenes para los sistemas operativos Microsoft Windows y
Apple Macintosh.
El estándar fue liberado por primera vez en 1992. Actualmente está ratificado en la versión 2.0 el 28 de
noviembre de 2005 y es mantenido por el Grupo de Trabajo TWAIN.
TWAIN se utiliza normalmente como una interfaz entre la aplicación de procesado de imágenes y un escáner o
cámara digital. Originalmente se utilizaba para uso doméstico o de bajo coste. Actualmente se usa también
para el escaneado de gran volumen.
 ISIS (Image and Scanner Interface Specification): creado por Pixel Translations (hoy EMC Captiva), en 1990,
que utiliza SCSI-II, se emplea en máquinas grandes destinadas a empresas
ISIS es un estándar abierto para el control de escáneres y un entorno de trabajo completo para procesamiento
de imágenes. Está soportado por un amplio número de aplicaciones y vendedores de escáneres, llegando a
convertirse rápidamente en un estándar industrial de facto. ISIS permite a los desarrolladores de aplicaciones
crear complicados sistemas de captura de imágenes de forma rápida y eficaz empleando cualquier controlador
certificado por ISIS.
 SANE (Scanner Access Now Easy): es una interface de programación de aplicaciones (API) que proporciona
acceso estandarizado a cualquier dispositivo de escaneo (escáner de sobremesa, escáner de mano, cámaras y
videocámaras, etc.). El API de SANE es de dominio público y su discusión y desarrollo está abierto a todo el
mundo.
SANE difiere de TWAIN en que diferencia claramente los frontends (programas de usuario) y los backends
(controladores de los escáneres), disminuyendo el tiempo de desarrollo y la duplicación de código. Mientras
que el controlador TWAIN maneja tanto la interfaz de usuario como las comunicaciones con el escáner, el
controlador de SANE sólo proporciona una interfaz con el dispositivo y describe un número de "opciones" que
controla cada escaneo. Estas opciones especifican parámetros tales como la resolución de escaneo, el área de
escaneo, modelo de color, etc.
 WIA (Windows Image Acquisition): es un modelo de driver e interface de programación de aplicaciones (API)
para los sistemas operativos más modernos de Microsoft Windows, que permite a las aplicaciones de gráficos
comunicarse con dispositivos de imagen tales como escáneres, cámaras digitales y equipos de Vídeo digital.
Fue introducido por primera vez en el año 2000 como parte de Windows Me, y continúa siendo el estándar de
dispositivos de imagen y modelo API a través de las sucesivas versiones de Windows. Se implementa como un
servicio bajo-demanda en Windows XP y posteriores sistemas operativos Windows.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 49
II: TECNOLOGÍA BÁSICA

En comparación con TWAIN, WIA es más flexible, porque es un interface estandarizada que no requiere una
unión fuerte entre el software del escáner y el controlador. La mayoría de los escáneres recientes soportan
WIA.
046b.2.2.2.4. Pantalla táctil
Una pantalla táctil (touchscreen en inglés) es una pantalla que mediante un toque directo sobre su superficie permite la
entrada de datos y órdenes al dispositivo (a su vez, actúa como periférico de salida, mostrando los resultados obtenidos).
El toque también se puede realizar con un dedo, con un lápiz óptico u otras herramientas similares
Las pantallas táctiles se han ido popularizando a partir de la invención de la interfaz electrónica táctil en 1971 por el Dr.
Samuel C. Hurst. Han llegado a ser comunes en TPVs, en cajeros automáticos, en PDAs, Tablet PC, en teléfonos
inteligentes (smartphones), vídeo consolas portátiles, navegadores de automóviles etc.
Para implementar estas pantallas se pueden utilizar las siguientes tecnologías:
 Resistiva: está formada por varias capas. Las más importantes son dos finas capas de material conductor entre
las cuales hay una pequeña separación. Cuando algún objeto toca la superficie de la capa exterior, las dos
capas conductoras entran en contacto en un punto concreto. De esta forma, se produce un cambio en la
corriente eléctrica que permite a un controlador calcular la posición del punto en el que se ha tocado la
pantalla midiendo la resistencia. Algunas pantallas pueden medir, aparte de las coordenadas del contacto, la
presión que se ha ejercido sobre la misma.
Este tipo de pantallas son, por norma general, más accesibles pero tienen una pérdida de aproximadamente el
25% del brillo debido a las múltiples capas.. Otro inconveniente que tienen es que pueden ser dañadas por
objetos afilados. Por el contrario, no se ven afectadas por elementos externos como polvo o agua, razón por la
que son el tipo de pantallas táctiles más usado en la actualidad.
 De Onda Acústica Superficial (SAW, Surface Acoustic Wave): utiliza ondas de ultrasonidos que se transmiten
sobre la pantalla táctil. Cuando la pantalla es tocada, una parte de la onda es absorbida. Este cambio en las
ondas de ultrasonidos permite registrar la posición en la que se ha tocado la pantalla y enviarla al controlador
para que pueda procesarla.
El funcionamiento de estas pantallas puede verse afectado por elementos externos. La presencia de
contaminantes sobre la superficie también puede interferir con el funcionamiento de la pantalla táctil.
 Capacitivas: está cubierta con un material, habitualmente óxido de indio y estaño que conduce una corriente
eléctrica continua a través del sensor. El sensor, por tanto, muestra un campo de electrones controlado con
precisión tanto en el eje vertical como en el horizontal, es decir, adquiere capacitancia.
Cuando el campo de capacitancia normal del sensor (su estado de referencia) es alterado por otro campo de
capacitancia como puede ser el dedo de una persona, los circuitos electrónicos situados en cada esquina de la
pantalla miden la “distorsión” resultante en la onda senoidal característica del campo de referencia y envía la
información acerca de este evento al controlador para su procesamiento matemático.
Los sensores capacitivos deben ser tocados con un dispositivo conductivo en contacto directo con la mano o
con un dedo, al contrario que las pantallas resistivas o de onda superficial en las que se puede utilizar
cualquier objeto.
Las pantallas táctiles capacitivas no se ven afectadas por elementos externos y tienen una alta claridad, pero
su complejo procesado de la señal hace que su coste sea elevado. La mayor ventaja que presentan sobre las
pantallas resistivas es su alta sensibilidad y calidad.
 Infrarrojos: consisten en una matriz de sensores y emisores infrarrojos horizontales y verticales. En cada eje
los receptores están en el lado opuesto a los emisores, de forma que al tocar con un objeto la pantalla, se
interrumpe un haz infrarrojo vertical y otro horizontal, permitiendo de esta forma localizar la posición exacta
en que se realizó el contacto. Este tipo de pantallas son muy resistentes, por lo que son utilizadas en muchas
de las aplicaciones militares que exigen una pantalla táctil.
 Galga Extensiométrica: la pantalla tiene una estructura elástica de forma que en ella se pueden utilizar
sensores basados en la piezorresisitivad (galgas extensiométricas). Esta es una característica de algunos
materiales, conductores y semiconductores, cuya resistencia cambia por la presión. Por ello, se pueden utilizar
para determinar la posición en que ha sido tocada la pantalla a partir de las deformaciones producidas en la
misma. Esta tecnología también puede medir el eje Z o la presión ejercida sobre la pantalla.
 Imagen Óptica: es un desarrollo relativamente moderno en la tecnología de pantallas táctiles, en ella dos o
más sensores son situados alrededor de la pantalla, habitualmente en las esquinas. Emisores de infrarrojos
son situados en el campo de vista de la cámara en los otros lados de la pantalla. Un toque en la pantalla
muestra una sombra, de forma que cada par de cámaras, puede triangularizarla para localizar el punto de
contacto. Esta tecnología está ganando popularidad debido a su escalabilidad, versatilidad y asequibilidad,
especialmente para pantallas de gran tamaño.
 Tecnología de Señal Dispersiva: introducida en el año 2002, este sistema utiliza sensores para detectar la
energía mecánica producida en el cristal debido a un golpe. Unos algoritmos complejos se encargan de
interpretar esta información para obtener el punto exacto del contacto. Esta tecnología es muy resistente al

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 50
II: TECNOLOGÍA BÁSICA

polvo y otros elementos externos, incluidos arañazos. Como no hay necesidad de elementos adicionales en la
pantalla, también proporciona unos excelentes niveles de claridad. Por otro lado, como el contacto es
detectado a través de vibraciones mecánicas, cualquier objeto puede ser utilizado para detectar estos eventos,
incluyendo el dedo o uñas. Un efecto lateral negativo de esta tecnología es que, tras el contacto inicial, el
sistema no es capaz de detectar un dedo u objeto que se encuentre parado tocando la pantalla.
 Reconocimiento de Pulso Acústico: introducida en el año 2006, estos sistemas utilizan cuatro transductores
piezoeléctricos situados en cada lado de la pantalla para convertir la energía mecánica del contacto en una
señal electrónica. Esta señal es posteriormente convertida en una onda de sonido, que es comparada con el
perfil de sonido preexistente para cada posición en la pantalla. Este sistema tiene la ventaja de que no
necesita ninguna malla de cables sobre la pantalla y que la táctil es de cristal, proporcionando la óptica y la
durabilidad de este material. También presenta las ventajas de funcionar con arañazos y polvo sobre la
pantalla, de tener unos altos niveles de precisión y de que no necesita ningún objeto especial para su
utilización.

046b.2.2.3. Periféricos de Salida


Estos periféricos son los que reciben información que es procesada por el CPU y la reproducen para que sea accesible
para el usuario. Entre ellos se pueden destacar: Impresora, Monitor, Altavoces, Auriculares, Fax. A continuación se
describe con más detalle alguno de ellos.
046b.2.2.3.1. Impresora
La impresora es el dispositivo que el PC emplea para presentar en papel la información de salida (texto, gráficos y
fotografías). Es uno de los periféricos más antiguos que se conocen en la historia de la informática y, aunque su
evolución no ha sido tan rápida como la de otros dispositivos, ha sido considerable, hasta el punto de que hoy en día se
dispone de impresoras a todo color, extremadamente rápidas y con una calidad de impresión excelente.
Los conceptos básicos necesarios para comprender la tecnología que se esconde detrás de una impresora, son los
siguientes:
 Velocidad.
Es la velocidad con que una impresora imprime. Se suele medir mediante dos parámetros muy comunes:
- El número de caracteres por segundo (cps) que la impresora es capaz de imprimir. Esta medida está
generalmente asociada a impresoras de caracteres, es decir, aquellas que imprimen carácter a carácter.
Generalmente, estas son las impresoras de margarita y las matriciales. Las primeras están totalmente en
desuso y las matriciales sólo se emplean en casos específicos.
- El número de páginas por minuto que la impresora es capaz de imprimir. Ésta suele ser la medida de
velocidad más usada en la actualidad, asociada a las impresoras denominadas de página, es decir, aquellas
que imprimen la página en su conjunto, en lugar de carácter a carácter. Así suelen ser la mayoría de las
existentes en la actualidad, principalmente las de inyección de tinta y las de tecnología láser, así como otras
impresoras que emplean tecnologías alternativas. Como norma, se debe considerar que el número de páginas
por minuto que el fabricante dice que su impresora imprime, son páginas con el 5 % de superficie impresa,
en la calidad más baja, sin gráficos y descontando el tiempo de cálculo de la computadora.
 Resolución.
Es simplemente un factor que indica la calidad de imagen que puede proporcionar una impresora, medida
generalmente en puntos por pulgada (ppp), esto es, el número de puntos que caben en una pulgada cuadrada del
papel impreso. Lógicamente, mientras mayor sea este parámetro, mayor será la resolución y por lo tanto mayor la
calidad del resultado impreso. Así, si se habla de 600 x 300 puntos por pulgada (una resolución muy habitual en
cualquier impresora) la impresora es capaz de imprimir 600 puntos en una pulgada de una línea horizontal
(resolución horizontal), mientras que el número de puntos en cada pulgada si la línea es vertical es de 300 puntos
(resolución vertical). Generalmente, si sólo se especifica un valor se suele entender que las resoluciones, tanto
horizontal como vertical que ofrece dicha impresora, son idénticas. Sin embargo, la mayor resolución de una
impresora no siempre implica que el resultado impreso final vaya a ser más nítido. Todo depende de cómo se
sitúen los puntos sobre cada pulgada del papel, lo que determinará la nitidez del resultado final.
 Buffer de memoria.
La mayoría de las impresoras suelen incorporar una cierta cantidad de memoria, cuya principal misión consiste en
almacenar la información que es suministrada a la impresora en espera de ser impresa. Es como una especie de
sala de espera para los datos, debido a que la velocidad con la que el puerto suministra datos suele ser

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 51
II: TECNOLOGÍA BÁSICA

considerablemente mayor que la velocidad con que la impresora imprime físicamente. Lógicamente, mientras
mayor sea el buffer o cantidad de memoria intermedia, más rápida y fluida será la impresión. Esta cantidad suele
ir desde unas 256 Kb hasta varios megabytes de memoria en impresoras láser y grandes impresoras
departamentales.
 Interface de Conexión.
La mayoría de las impresoras se suelen conectar al ordenador a través del puerto paralelo, también conocido
como LPT1. En caso de que existan varios puertos paralelos adicionales, éstos se denominan LPT2, LPT3 y así
sucesivamente. El puerto paralelo de las placas base actuales suele tener varios modos de funcionamiento. El
modo original, el más antiguo, se denomina SPP (Single Parallel Port, Puerto Paralelo Sencillo). Este modo
proporciona una velocidad de transferencia de datos bastante lenta, aproximadamente unas 150 Kb/s. Debido a la
lentitud de este modo, se desarrollaron nuevos modos de funcionamiento: ECP (Extended Capability Port, Puerto
de Capacidad Extendida) y EPP (Enhanced Parallel Port, Puerto Paralelo Mejorado ), con velocidades de hasta 3
Mb/s. Ambos modos, además de ser más rápidos, añaden capacidad bidireccional a la comunicación, es decir,
permiten la comunicación de datos entre el PC y la impresora en los dos sentidos. Esto hace posible que la
impresora se pueda comunicar con el PC y al contrario, en lugar de como se había hecho tradicionalmente, donde
el PC se comunicaba con la impresora, pero no al revés.
Otra forma de conexión se consiguió poniendo la impresora en red Ethernet mediante conexiones RJ 45 basadas
en el estándar IEEE 802.3. Las velocidades conseguidas superan los 10 Mb/segundo basada en el manejo de
paquetes. No hay que confundirla con una impresora compartida, ya que las impresoras en red operan como un
elemento de red con dirección IP propia.
La conexión más actual es por medio de puertos USB (Universal Serial Bus). La velocidad vuelve a mejorar con
480Mb/segundo con las ventajas que conlleva el puerto USB: compatibilidad con varios sistemas y la posibilidad
de usarla en dispositivos portátiles.
Finalmente, la conexión inalámbrica wifi, mediante el protocolo IEEE 802.11, está siendo la más novedosa.
Alcanza 300 Mb/segundo y funciona tanto para impresoras de tinta, láser o multifunción.
Se pueden clasificar las impresoras según el tipo de tecnología de impresión empleada. Los dos principales tipos serían:
 Las impresoras de impacto (matriciales principalmente, aunque existen otros tipos ya obsoletos, como las de
margarita). La impresión se realiza mediante algún tipo de dispositivo mecánico que golpea una cinta
impregnada de tinta y de ahí al papel, de la misma forma que lo hacen las máquinas de escribir tradicionales
 Impresoras sin impacto, principalmente las de inyección de tinta, láser y las de transferencia térmica. No existe
elemento mecánico: la impresión se hace mediante otros sistemas, diferentes en función de cada tipo concreto
de impresoras. Una de las ventajas que presentan es su silencio, frente a las de impacto que por lo general
suelen ser bastante más ruidosas.
Con estas tecnologías, los tipos más comunes de impresoras son los siguientes:
a) Impresoras matriciales
Son las más antiguas en cuanto a tecnología se refiere, pero todavía se usan bastante. Se denominan "de
impacto" porque la impresión se lleva acabo mediante el impacto de unas piezas mecánicas, la cabeza de
impresión, sobre una cinta impregnada en tinta.
Según como sea el cabezal de impresión, se dividen en dos grupos principales:
 De margarita: incorporan una bola metálica en la que están en relieve las diversas letras y símbolos a
imprimir, la bola pivotea sobre un soporte móvil y golpea la cinta de tinta, con lo que se imprime la letra
correspondiente. El método es absolutamente el mismo que se usa en muchas máquinas de escribir
eléctricas, con la única diferencia de no tener teclado. Las impresoras de margarita están en completo
desuso debido a que sólo son capaces de escribir texto; además, para cambiar de tipo o tamaño de
letra se debería cambiar la matriz de impresión (la bola) cada vez.
 De agujas: disponen de una matriz de agujas (9 o 24 según los modelos) en la cabeza de impresión,
que impactan sobre una cinta de tinta que a su vez imprime directamente sobre el papel, formando los
caracteres o la imagen deseada. Mientras más agujas incorporen la cabeza de impresión mayor será la
calidad de impresión, que se suele situar entre 150 y 300 puntos por pulgada. Estas impresoras
permiten la impresión de gráficos, aunque de calidad no demasiado alta y generalmente en blanco y
negro. Otra característica inherente a este tipo de impresoras es el ruido que hacen debido al impacto
de las agujas sobre el papel. Suelen incorporar en su mayoría un carro con tractor para papel continuo.
b) Impresoras de inyección de tinta
La tecnología de inyección de tinta es la más extendida en la actualidad, debido a su bajo costo y excelente
calidad. El sistema de impresión más general que suele emplear una impresora de inyección de tinta es el
denominado DOD (Drop On Demand, Inyección Bajo Demanda), que produce pequeñas gotas cuando se
necesitan.
Son dos los métodos que utilizan las impresoras de inyección de tinta para lograr que las gotas se arrojen con
rapidez:

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 52
II: TECNOLOGÍA BÁSICA

 Térmico: el chorro es iniciado calentando la tinta para crear una burbuja que genera una presión que la
fuerza a emerger y golpear el papel. Luego la burbuja colapsa y el vacío resultante arrastra nueva tinta
hacia la recámara para reemplazar a la que fue expulsada. Éste método (buble jet) es el favorito de
Canon y Hewlett-Packard. El principal inconveniente que presenta este sistema de inyección térmica es
la corta vida de los inyectores, sometidos constantemente a condiciones físicas extremas. Es por esto,
por lo que se optó por integrar los inyectores en el propio cartucho de tinta. De esta forma, cada vez
que se cambia un cartucho, se deben estrenar inyectores nuevos. Sin embargo, esto hace que aumente
el precio de los cartuchos considerablemente.
 Piezoeléctrico: es una estrategia alternativa, desarrollada por Epson, a la tecnología térmica. Los
cristales piezoeléctricos tienen una propiedad única y singular. Si se aplica una fuerza física en ellos,
pueden generar una carga eléctrica. El proceso también funciona a la inversa: si se aplica una carga
eléctrica al cristal, podrá hacer que se mueva, creando una fuerza mecánica.

La cabeza de impresión de una impresora de inyección de tinta piezoeléctrica utiliza un cristal en la


parte posterior de un diminuto depósito de tinta. Una corriente se aplica al cristal, lo que lo atrae hacia
adentro. Cuando la corriente se interrumpe, el cristal regresa a su posición original, y una pequeña
cantidad de tinta sale por la boquilla. Cuando la corriente se reanuda, atrae el cristal hacia detrás y
lanza la siguiente gota.
Este sistema piezoeléctrico presenta una serie de ventajas. En primer lugar, el proceso permite un
mayor control sobre el tamaño y la forma de la gota de tinta que se libera. Además, ya diferencia del
sistema anterior, la tinta no necesita ser calentada previamente.
Las impresoras de inyección de Epson suelen tener 128 inyectores para la cabeza de tinta negra,
mientras que las cabezas de color CMY (cyan, magenta, y amarillo) tienen 192 inyectores, 64 para cada
color. Esto permite una resolución de impresión nativa de 720 x 720 puntos por pulgada, debido a que
el sistema piezoeléctrico permite mayor precisión en la gota de tinta. También se puede conseguir una
resolución de 1.440 x 720 puntos por pulgada a base de dar dos pasadas.
Una de las principales razones de la extensión de la tecnología de inyección de tinta es su bajo precio y la
posibilidad de impresión en color con una calidad muy alta. Sin embargo, tienen el inconveniente de que son
algo caras de mantener: los cartuchos de tinta se agotan con relativa rapidez y su precio es algo elevado.
La impresión en color es uno de los más importantes logros en el sistema de impresión de inyección de tinta. Al
igual que en los monitores, el color en las impresoras de inyección de consigue mediante la aplicación de una
serie de colores básicos. Sin embargo, este sistema difiere un poco entre monitores e impresoras. Mientras que
el sistema de los monitores es el RGB, mezcla aditiva de los colores básicos rojo, verde y azul, las impresoras de
inyección consiguen el color mediante el sistema CMY (mezcla substractiva de los colores básicos cyan, magenta
y amarillo). Uno de los aspectos que más se cuidan, sobre todo en los entornos profesionales, es la
concordancia de color entre el monitor y el resultado impreso. A esto se le suele denominar con el término
inglés matching (concordancia). El color se suele describir conceptualmente mediante el denominado modelo
HSB (Hue, Saturation and Bright, Tono, Saturación y Brillo).
 Tono: se refiere al color básico en términos de uno de los colores predominantes. También se podría
denominar "matiz" de color.
 Saturación: también denominado valor cromático, se refiere a la intensidad de los colores dominantes.
Se suele medir en porcentaje. Un valor del 0% no tendría ningún tipo de tono, mientras que el 100%
sería un color totalmente saturado.
 Brillo: hace referencia a la proximidad del color al blanco o al negro, lo que a su vez es una función de
la luz que estimula los receptores del ojo humano. También se mide en porcentaje. Un brillo del 0%
tiende al negro, mientras que un brillo del 100% se convierte en blanco.
Éste es un elemento de vital importancia en lo que se refiere al funcionamiento correcto y óptimo de la
impresora. El driver de control es el programa que se encarga de gestionar la comunicación entre el ordenador y
la impresora, así como la forma en que se lleva a cabo todo el proceso de impresión. Un driver mal programado
producirá resultados deficientes, unido a una velocidad de impresión lenta, mientras que un driver optimizado
producirá los mejores resultados.
Los drivers son también los responsables de todas las capacidades adicionales que puede ofrecer una impresora,
que actualmente son múltiples. Entre ellas se encuentran la impresión a doble cara, impresión de varias páginas
por hoja, diferentes formas de gestión del color y los niveles de grises, modificar calidad de impresión,
seleccionar bandejas y tipos de papel, etc.
Acompañando al driver, los fabricantes también suelen incluir un conjunto de utilidades de control y
mantenimiento de la impresora, programas que permiten operaciones habituales como la limpieza de los
cabezales, la alineación de los mismos, además de otras más avanzadas como la administración de color.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 53
II: TECNOLOGÍA BÁSICA

c) Las impresoras láser


Representa la gama más alta y avanzada del mercado en cuando a calidad de la calidad y especialmente en
rapidez. Existen impresoras láser en blanco y negro, el caso más habitual, pero también se están extendido cada
vez más las de color. Las impresoras láser de color se basan en mismo sistema de impresión que las de n blanco
y negro, con la diferencia de que se hace uso de cuatro depósitos de tinta en polvo (tóner) con cuatro colores
básicos: negro, cyan, magenta y amarillo. El método de impresión de una impresora láser en blanco y negro es
similar, aunque más simplificado.
Las impresoras láser tienen unas cuantas ventajas sobre sus rivales de inyección a tinta. Producen texto en
blanco y negro de calidad superior, tienen un ciclo de trabajo de más páginas por mes y un costo más bajo por
página. Así que si una oficina necesita una impresora para una carga de trabajo importante, las impresoras láser
son la mejor opción.

La tecnología láser funciona mediante un proceso electrográfico a través una digitalización láser. En primer
lugar, se calcula la imagen que genera documento y ésta es convertida en una sucesión de líneas mediante
mecanismos electrónicos, de manera que el láser pueda tratar estas líneas una tras de otra., El haz de luz
generado por el láser, reflejado adecuadamente mediante un sistema de espejos, realiza cuatro pasadas
completas, una por cada color (negro, cyan, magenta y amarillo), sobre un dispositivo en forma de cilindro
denominado tambor. Este tambor queda cargado eléctricamente y es pasado por encima de cada depósito de
tóner, que está compuesto por partículas imantadas coloreadas. La diferencia de potencial hace que estas
partículas se vean atraídas por el tambor, quedándose pegadas al mismo. El tambor, en realidad, realiza una
pasada y se carga con el primer color, luego hace una segunda con el segundo color, y así sucesivamente hasta
completar los cuatro básicos de la imagen. Una vez que el tóner se encuentra en el tambor, se pasa al papel
simplemente mediante presión. Finalmente, se lleva acabo un proceso de fusión mediante calor y generalmente
se usa un aceite o silicona adicional que completa la operación. El resultado es una hoja caliente perfectamente
impresa, y con un brillo característico.
Existe una alternativa económica a las impresoras láser, y son aquellas basadas en LED. Emplean el mismo
sistema que una impresora láser, pero a diferencia de éstas, sustituyen el láser por una fila de diodos LED,
diodos emisores de luz. Así, por ejemplo, si la impresora tiene una resolución de 300 puntos por pulgada (dpi),
tendrá una fila a lo ancho de todo el tambor, formada por 300 diodos LED, con la ventaja de que una fila de
LED es más fácil y económica de fabricar que el láser, además de que se elimina el sistema de espejos que
tienen las impresoras láser, con lo que disminuye el coste de producción. Ésta suele ser la tecnología empleada
en muchas de las impresoras láser de bajo precio que se pueden encontrar en el mercado.
d) Impresoras de sublimación de tinta
Las impresoras de sublimación de tinta son dispositivos especializados que presentan una altísima calidad y
coste. Son ampliamente usadas en aplicaciones fotográficas y de artes gráficas. Estas impresoras trabajan
calentando la tinta hasta convertirla en gas. El elemento térmico puede generar diferentes temperaturas, lo que
permite controlar la cantidad de tinta que es ubicada en una mancha. En la práctica, esto significa que el color
es aplicado como un tono continuo más que como puntos.
e) Impresoras de tinta sólida (XEROX)
Comercializada casi exclusivamente por Tektronix, las impresoras de tinta sólida son impresoras de página
completa que usan varillas de tinta encerada sólida en un proceso "phase change" (cambio de fase). Trabajan
licuando las varillas de color en depósitos, y luego volcando la tinta dentro de un tambor de transferencia, desde
donde es fusionada en frío en el papel en una sola pasada. No usan por tanto cartuchos.
Estas impresoras están hechas para ser dejadas encendidas en un área segura y compartidas a través de una
red, para este fin vienen con puertos Ethernet, paralelo y SCSI permitiendo una conexión para cualquier
necesidad.
Las impresoras de tinta sólida son generalmente más baratas que las láser color de especificaciones similares.
La calidad de impresión es buena, con puntos multinivel soportados por modelos " high-end", o de alta calidad
de salida, pero generalmente la calidad no es tan buena como las mejores impresoras láser color para texto y
gráficos, o las mejores de inyección de tinta para fotografías. La resolución comienza en unos 300 dpi nativos,
llegando a un máximo de 850 x 450 ppp. La velocidad color típica es de 4 ppm en el modo estándar, llegando a
6 ppm en el modo de resolución reducida.
Su conectividad, sus costos relativamente bajos y el hecho de que son capaces de usar una amplia variedad de
medios de cualquier tecnología de impresión a color, las convierte en una buena opción utilizarlas en negocios
en general y en algunas tareas de especialistas como la impresión de transparencias a alta velocidad y en gran
formato.
f) Impresoras de cera térmica: emplea láminas de color (CYM) y no cartuchos.
La cera térmica es otra tecnología especializada (muy similar a la de sublimación de tinta) preparada para
imprimir transparencias. En este caso se usan cilindros CMY o CMYK (cyan, magenta, amarillo y negro)
conteniendo paneles del tamaño de la página de película plástica recubierta con colorantes basados en cera.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 54
II: TECNOLOGÍA BÁSICA

Trabajan derritiendo puntos de tinta (generalmente binarios aunque algunos modelos "high-end" son capaces
de producir puntos en multinivel) en un papel térmico especial. Al igual que las anteriores no usan cartuchos.
La resolución y la velocidad de impresión son bajas (típicamente 300 ppp y alrededor de 1 ppm) reforzando la
característica de esta tecnología de ser utilizada por aplicaciones especializadas.

g) Impresoras térmicas autócroma


El proceso de impresión thermo autochrome (TA), considerablemente más complejo que el láser o el de
inyección de tinta, ha emergido recientemente en impresoras comercializadas como dispositivos de apoyo, para
ser usadas con cámaras digitales. El papel TA contiene tres capas de pigmento CMY (cyan, magenta, amarillo)
cada uno sensitivo a una temperatura en particular. De estos pigmentos, el amarillo tiene la sensitividad a la
temperatura más baja, luego el magenta, seguido por el cian. La impresora está equipada con un cabezal
térmico y uno ultravioleta y el papel pasa entre ellos tres veces. En la primera pasada va selectivamente
calentado a la temperatura necesaria para activar el pigmento amarillo, el cual es fijado por el ultravioleta antes
de pasar al próximo color (magenta). Aunque la última pasada (cian) no es seguida de un fijado ultravioleta, el
resultado final es más durable que con la tecnología de sublimación de tinte.
h) Impresoras multifunción
Las impresoras multifuncionales son aquellas que combinan capacidades de impresión, escaneo, copiado y, a
menudo, de fax en una sola máquina.
Las impresoras multifuncionales son atractivas porque combinan todas las tareas de oficina necesarias en un
solo dispositivo que es eficiente en cuanto a coste se refiere y que ahorra espacio, ideal para una oficina casera
o una compañía pequeña que no tenga infraestructura de aparatos para oficina.
Estas unidades mejoran en cada generación, en la actualidad, la impresión a colores es muy común, basándose
tanto en la tecnología láser como en la inyección de tinta. Asimismo, los fabricantes han agregado a la
combinación el escaneo de colores (y por lo tanto las copias a colores), y algunas unidades ofrecen escaneo a
24 bits. Sin embargo, la calidad de la imagen es menor a la que se podría obtener con una impresora o un
escáner independiente.
Resumiendo, se puede decir que estas impresoras tienen la ventaja de ser más pequeñas y menos costosas que
las unidades independientes, pero que a menudo, el conjunto no es tan bueno como las partes independientes y
que si la unidad se descompone se pierden varias funciones de oficina.

046b.2.2.3.2 Monitor
Es el periférico más utilizado en la actualidad para obtener la salida de las operaciones realizadas por la computadora.
Las pantallas de los sistemas informáticos muestran una imagen del resultado de la información procesada por la
computadora.
La imagen formada en la pantalla de la computadora tiene una unidad elemental llamada píxel. Los píxeles de la pantalla
del sistema informático forman una matriz de puntos de luz que dibuja la imagen de cada uno de los caracteres que
aparecen en la pantalla de la computadora. Cada píxel no es más que un punto de luz, sin forma definida y sin
diferenciación entre el color del punto formado en primer plano y el de fondo. El término píxel es una contracción de la
expresión inglesa "picture element" y se puede traducir (libremente) por elemento o punto de imagen. Los puntos de luz
forman una matriz donde se proyecta la imagen de la información de salida de la computadora, tanto si esta información
de salida es de tipo carácter o gráfico.
El paso, llamado en inglés dot pitch, es el espacio entre los dos puntos más cercanos medidos desde su centro. Cuanto
menor sea esa distancia mayor es la nitidez. La resolución se caracteriza por los píxel representadlos en horizontal y
vertical; un ejemplo es la resolución 800X600: 800 píxels horizontal y 600 píxels vertical. A más resolución más píxels
representados. La tasa de refresco es la frecuencia con la que el haz de electrones barre la pantalla. Cuanto mayor sea el
valor menor parpadea la pantalla (por ejemplo: 75 Hz equivale a 75 barridos por segundo). Las dimensiones de los tubos
están representadas en pulgadas. Se trata de una medida inglesa. Hay que saber que 1 pulgada equivale a 2,54
centímetros. Existen monitores de varias pulgadas: 13, 14, 15, 17, 20, 21 y más grandes aún.
Un punto determinado de la pantalla del sistema informático se localiza mediante el «mapeo» de la pantalla de la
computadora. El mapeo consiste en identificar cada uno de los diferentes píxeles que componen la pantalla de la
computadora, con unas determinadas coordenadas. Posteriormente, estas coordenadas se almacenan en una zona de la
memoria principal que se utiliza por el sistema informático para localizar cada uno de los píxeles.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 55
II: TECNOLOGÍA BÁSICA

Dependiendo de la tarjeta gráfica que se utilice, se almacenará mayor o menor cantidad de información sobre cada uno
de los píxeles y los atributos (color, luminosidad, etc.) que tenga asociados.

La práctica totalidad de los monitores actuales emplean tecnología analógica, aunque la circuitería que los controla es
digital. Es decir, la señal que recibe el monitor desde la tarjeta de vídeo es la que realmente es analógica. El resto, tanto
la placa controladora como los propios botones de control suelen ser digitales, en la actualidad, en la mayoría de
monitores. Esto es algo que hay que tener muy en cuenta a la hora de hablar de las características de un monitor.
Los principales tipos de monitores son los siguientes:
a) Monitor de rayos catódicos.
El tubo de imagen, o tubo de rayos catódicos (CRT), es una especie de botella de cristal cerrada al vacío, con
tres cañones de electrones, una máscara o rejilla y una pantalla de vidrio, recubierta en su parte interna por una
película de fósforo que se ilumina al recibir el impacto de los electrones. La pantalla de fósforo está formada por
una espesa matriz de puntos que, a su vez, se componen de tres burbujas de color verde, rojo y azul. Cuando
se activa la señal de vídeo, los cañones disparan un flujo de electrones, cada cañón a la burbuja de su color
correspondiente, obteniéndose así la luz del color deseado con una mayor o menor intensidad. La mezcla de
todos estos pequeños puntos de color genera la imagen total que se ve en el monitor. A este fenómeno se le
suele denominar mezcla aditiva del color. La distancia entre las burbujas de color es tan pequeña que el ojo
humano no puede apreciarla, y en realidad, cada grupo de tres burbujas se aprecia como un solo punto.
Para que los electrones lleguen al lugar deseado se aplican fuertes campos electromagnéticos que los desvían
hasta hacerles llegar al lado de la pantalla que les corresponda. El rayo de electrones recorre toda la pantalla,
comenzando por la esquina superior izquierda hasta barrer toda la superficie de izquierda a derecha y de arriba
a abajo.
El número de veces que el cañón consigue recorrer la pantalla entera en un segundo determina la velocidad o
frecuencia de refresco del monitor.
Este tipo de pantallas de computadora son, externamente, similares a las pantallas de los aparatos de televisión,
pero se diferencian de manera importante en su modo de funcionamiento.
Las pantallas de las computadoras proporcionan una mayor calidad de imagen, mostrándola entre 50 y 80 veces
por segundo para evitar el “efecto parpadeo”, que causa fatiga visual al usuario.
El número de barridos de líneas por segundo que realizan las pantallas de las computadoras es también
considerablemente mayor que el de las pantallas de televisores convencionales. En algunos casos, se llega a
multiplicar por cinco el número de barridos por segundo que realizan las pantallas de sistemas informáticos de
alta calidad con respecto al número de barridos que realizan las pantallas de los televisores.
Las razones por las que se han ido sustituyendo en la actualidad son:
 Son pesados y voluminosos.
 Consumen mucha energía eléctrica.
 La tecnología de barrido que emplean provocan parpadeo de las imágenes y causan sobreesfuerzo y
fatiga en los ojos.
 La forma cilíndrica o esférica de la superficie visible provoca distorsiones en los extremos de la pantalla,
lo que afecta a la calidad de las imágenes.
b) Monitor de cristal líquido (LCD).
Comparados con las pantallas de tubo de rayos catódicos, se puede decir que las pantallas LCD son más
delgadas, livianas y consumen menos energía.
El llamado cristal líquido no es sólido ni líquido, sino algo intermedio. Son cristales sumamente sensibles a la
temperatura, a los que les afecta la corriente eléctrica.
Para los monitores se emplean dos tipos de LCD:
 LCD de matriz activa: utilizan transistores de película delgada (thin film transistors, TFTs). Los TFTs son
transistores y capacitores conmutables. Se organizan en una matriz sobre un sustrato de vidrio.
 LCD de matriz pasiva: utilizan una malla simple para proveer carga a un píxel específico en la pantalla.
Para el efecto se utilizan 2 capas de vidrio transparente y conductivo llamados sustratos. El cristal líquido

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 56
II: TECNOLOGÍA BÁSICA

se ubica entre los dos sustratos. Los problemas de esta tecnología son la lenta respuesta a cambios y el
control impreciso del voltaje.

Pese a todo, los monitores LCD no pueden competir en algunos aspectos con los clásicos CRTs. Entre otras
cosas por: distorsiona los colores cuando el ángulo de visión cambia, incluso dentro de los márgenes previstos,
son sensibles a las bajas temperaturas, necesitan retroiluminación, y sus tamaños son limitados. Por eso,
mientras los fabricantes de pantallas se enfrascaron en una carrera por resolver estos problemas (que se han
mejorado notablemente en los productos actuales), otros diseñadores empezaron a buscar alternativas.
c) Monitor de plasma.
Son el tipo de pantallas que se están imponiendo actualmente en los sistemas informáticos portátiles, puesto
que tienen las mismas ventajas que las anteriores, alcanzando, además, una mayor definición y la posibilidad
del color.
Se basan en el principio de que haciendo pasar un alto voltaje por un gas a baja presión se genera luz. Estas
pantallas usan fósforo como los CRT, pero emiten menos que las LCD y frente a éstas consiguen una gran
mejora del color y del ángulo de visión.
Estas pantallas son como fluorescentes, y cada píxel es como una pequeña bombilla de color, el problema de
esta tecnología es la duración y el tamaño de los píxeles, por lo que su implantación más común es en grandes
monitores.
Están conformadas por miles y miles de píxeles que constituyen la imagen, y cada píxel está compuesto por tres
píxeles, uno con fósforo rojo otro con verde y el último con azul, cada uno de estos subpixeles tienen un
receptáculo de gas (una combinación de xenón, neón y otros gases).
Un par de electrodos en cada píxel ioniza al gas volviéndolo plasma, generando luz ultravioleta que excita al
fósforo que a su vez emite luz que en su conjunto forma una imagen.
El tamaño físico de la pantalla de los sistemas informáticos se expresa en pulgadas de diagonal, de la misma
manera que las pantallas de los televisores normales.
El tamaño de pantalla de computadora más habitual entre los actuales sistemas microinformáticos suele ser el
de 14 pulgadas, si bien existen tamaños de pantalla diferentes para sistemas informáticos especializados, por
ejemplo 21 pulgadas para sistemas informáticos de autoedición, etc.
Los sistemas informáticos portátiles suelen tener, en la actualidad, tamaños de pantalla de entre 9 y 14
pulgadas.
d) Monitor OLED (Organic Light Emitting Diode, Diodos emisores de luz orgánicos):
Las dos diferencias básicas con los LCDs son “emisor de luz” y ”orgánico”. El hecho de que estos dispositivos
emitan luz supone una primera diferencia crucial, pues los sistemas LCD en sí se limitan a dejar pasar o
bloquear la luz producida por lámparas convencionales situadas detrás de ellos. Estas lámparas ocupan buena
parte del grosor de la pantalla, por lo que, al no existir en una pantalla hecha con OLED’s, permite que éstas
sean mucho más finas.
La misma naturaleza de OLED provee de él muchas ventajas sobre el LCD:
 Su uso de los materiales plásticos u orgánicos (mejor que los compuestos cristalinos o metálicos) prevé
una pantalla que sea más ligera y más flexible que las pantallas del LCD.
 Los materiales orgánicos usados para OLED también significan una exhibición más brillante con menos
consumo de energía.
 Las pantallas de OLED también tienen campos visuales mucho más grandes comparados a otros sistemas
de visualización (alrededor 170 grados, que significa que un espectador puede mirar una pantalla de
OLED de casi cualquier ángulo confortablemente), en comparación con las pantallas del LCD que
requieren al espectador mirar de frente para apreciar completamente el cuadro exhibido.
e) Monitor SED (Surface-conduction Electron-emitter Display).
Ofrece la calidad del clásico tubo de rayos catódicos junto al tamaño de los televisores LCD.
Funciona de forma parecida a la tecnología tradicional de rayos catódicos (CRT), a través de la emisión de
electrones que excitan una capa de fósforo, proyectando luz y mostrando la imagen. La diferencia entre SED y
CRT es que mientras CRT utiliza un solo tubo para proyectar los electrones, SED tiene tantos mini-proyectores
como puntos de luz en pantalla.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 57
II: TECNOLOGÍA BÁSICA

Combinando las ventajas del LCD y del CRT se obtendrían las ventajas de SED. Mientras que los monitores LCD
compiten por ofrecer un tiempo de respuesta cada vez más bajo que, hoy en día, puede estar entre los 2 y los 3
milisegundos, el SED ofrece un tiempo de respuesta inferior a 1 milisegundo, lo que permite mostrar imágenes
más claras y con más definición.

El ángulo de visión que ofrece SED es de 180 grados, es decir, se pueden ver las imágenes desde cualquier
lugar que se mire la pantalla (desde detrás no, claro). Además, el ratio de contraste es de 100.000:1 y el nivel
de negro es muy bueno, al contrario que muchos LCDs que no muestran un negro completo, sino un poco
aclarado.
Además, el consumo energético de SED es mucho menor que el del plasma, cosa buena para el medioambiente
y para nuestros bolsillos.
f) Monitor FED (Field Emission Technology)
En estos monitores se mezclan conceptos básicos de la televisión de tubo de rayos catódicos (CRT) y de las
pantallas LCD. El FED es igualmente una tecnología similar a la SED, pero utilizando un conjunto de nanotubos
de carbono para emitir los electrones necesarios que muevan los puntos de fósforo y así crear la imagen.
Los FED funcionan básicamente de la misma manera que los tubos CRT, es decir, un haz de electrones incide
sobre fósforo produciendo luminiscencia, lo cual bien combinado permite reproducir imágenes en la pantalla. La
diferencia esencial entre estas tecnologías está precisamente en el tubo, que pasa de ser un elemento
objetivamente grande a ser una agrupación de pequeñísimos tubos catódicos. Éstos están dispuestos sobre una
superficie plana a pocos milímetros de la pantalla de fósforo, y el efecto visual que producen es el de los
mejores CRT, pero con la “finura” de las pantallas LCD (son monitores planos).
Por último, tan solo comentar que los monitores utilizan su propia fuente de alimentación, integrada en el interior de la
carcasa del monitor. Unos toman la alimentación directamente del enchufe correspondiente desde la red eléctrica y otros,
sin embargo, emplean un conector que viene directamente desde la fuente de alimentación del PC. La principal ventaja
de esta opción es que cuando se apaga el PC, lo hace el monitor al mismo tiempo.
046b.2.2.4. Periféricos de Comunicaciones
Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro periférico
externo a la computadora. Entre ellos se pueden destacar: módem, tarjeta de red, tarjeta Wireless, tarjeta Bluetooth,
controladores de puertos (serie, paralelo, infrarrojo, etc.), Hub USB,. A continuación se describe con más detalle alguno
de ellos.
046b.2.2.4.1. Módem
La necesidad de comunicarse entre ordenadores distantes condujo al empleo de la red telefónica para el transporte de
datos, al margen de su tradicional uso para la transmisión de voz. La mayoría de las líneas telefónicas están diseñadas
para transmisión de información analógica, principalmente de voz, mientras que los ordenadores trabajan con
información digital. Por lo tanto, se hacía necesario un sistema de conversión entre señales analógicas y digitales. Es aquí
donde entra en juego un dispositivo fundamental: el módem.
Módem es una palabra formada por la unión de otras dos: modulador y demodulador (MOdulador/DEModulador). Se
emplea para designar a todo aquel dispositivo que es capaz de convertir información digital de nuestro ordenador en
información analógica y transmitirla a través de una línea de teléfono de la Red Telefónica Básica (RTB), también
denominada Red Telefónica Conmutada (RTC). En el otro extremo de la línea, otro módem se encarga de volver a
convertir de nuevo esta información analógica en información digital. De esta forma es posible transmitir todo tipo de
información a través de la red telefónica: voz, correo electrónico, imágenes, archivos, documentos, etc.
Los primeros módems eran dispositivos asíncronos, es decir, no disponían de una señal de reloj para sincronizar la
transmisión. Operaban a velocidades muy bajas, unos 18 Kbps. Los datos asíncronos no iban acompañados de ninguna
señal de reloj y los módems que establecían la comunicación únicamente conocían la velocidad de transmisión nominal.
Los bits se agrupaban en tramas de caracteres, con bits de comienzo y de parada. Generalmente se utilizaba el código
ASCII de 7 bits con paridad impar para representar la información. Los actuales módems son síncronos, ya que disponen
de un reloj que sincroniza la transmisión de los datos, y funcionan habitualmente a velocidades de 56 Kbps.
Cuando se habla de módem es muy frecuente escuchar términos como baudio bps (bits por segundo), bytes y cps
(caracteres por segundo). Concretamente:
 Baudio: una unidad que debe su nombre al inventor francés Baudot, expresa el número de cambios que sufre la
señal en una línea de comunicaciones en un segundo.
 Bit: mínima unidad con la que codificar información, se puede representar un cero o un uno.
 Byte u octeto: cada grupo de bits en los que se puede agrupar la información. En líneas generales, un byte sirve
para codificar un carácter (una letra, un número o un símbolo), por lo que se puede asimilar un byte con una
letra, un número ó cualquier otro carácter.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 58
II: TECNOLOGÍA BÁSICA





 Bits por Segundo (bps): unidad habitual empleada para medir la velocidad de transferencia de un módem. Tal y
como su nombre indica es el número de bits, unos o ceros, que el módem es capaz de enviar (recibir en un
segundo). Dividiendo esta cantidad por 8 se obtiene 12, cantidad correspondiente de bytes que puede ser
enviada o recibida en un segundo.

Los principales tipos de módems son los siguientes


a) Módems para PC’s
La distinción principal que se suele hacer es entre modems internos y módems externos, aunque, recientemente,
han aparecido los modems llamados "modems software", más conocidos como "winmodems". También existen los
módems para XDSL, RDSI, etc. y los que se usan para conectarse a través de cable coaxial de 75 Ohms (cable
modems).
 Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes que
forman el módem. Existen para diversos tipos de conector:
o Bus ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos años se
utilizó en exclusiva este conector, hoy en día en desuso.
o PCI: el formato más común en la actualidad.
La principal ventaja de estos módems reside en su mayor integración con el ordenador, ya que no ocupan espa-
cio sobre la mesa y reciben energía eléctrica directamente del propio ordenador. Además, suelen ser algo más
baratos debido a que carecen de carcasa y transformador, especialmente si son PCI (en este caso, son casi to-
dos del tipo "módem software"). Por el contrario, son algo más complejos de instalar y la información sobre su
estado sólo puede obtenerse por software.
 Externos: similares a los anteriores, pero externos al ordenador o PDA. La ventaja de estos módems reside en
su fácil transportabilidad entre ordenadores diferentes (algunos de ellos más fácilmente transportables y
pequeños que otros), además en que es posible conocer el estado del módem (marcando, con/sin línea,
transmitiendo...) mediante los LED de estado que incorporan. Por el contrario, y obviamente, ocupan más
espacio que los internos.
 Módems software HSP (softmoden o winmodems): son módems generalmente internos, en los cuales se han
eliminado varias piezas electrónicas (por ejemplo, chips especializados), de manera que el microprocesador del
ordenador debe suplir su función mediante un programa. Lo normal es que utilicen como conexión una ranura
PCI (o una AMR), aunque no todos los módems PCI son de este tipo. El uso de la CPU entorpece el
funcionamiento del resto de aplicaciones del usuario. Además, la necesidad de disponer del programa puede
imposibilitar su uso con sistemas operativos no soportados por el fabricante, de manera que, por ejemplo, si el
fabricante desaparece, el módem quedaría eventualmente inutilizado ante una futura actualización del sistema.
A pesar de su bajo coste, resultan poco o nada recomendables.
 Modems completos: los modems clásicos no HSP, bien sean internos o externos. En ellos, el rendimiento
depende casi exclusivamente de la velocidad del módem y de la UART del ordenador, no del microprocesador.
 Cable modem: es un tipo especial de módem diseñado para modular la señal de datos sobre una infraestructura
de televisión por cable. El término Internet por cable (o simplemente cable) se refiere a la distribución de un
servicio de conectividad a Internet sobre esta infraestructura de telecomunicaciones.
Se utilizan principalmente para distribuir el acceso a Internet de banda ancha, aprovechando el ancho de banda
que no se utiliza en la red de TV por cable.
Los abonados de un mismo vecindario comparten el ancho de banda proporcionado por una única línea de cable
coaxial. Por lo tanto, la velocidad de conexión puede variar dependiendo de cuanta gente este usando el servicio
al mismo tiempo.
A menudo, la idea de una línea compartida se considera como un punto débil de la conexión a Internet por
cable. Desde un punto de vista técnico, todas las redes, incluyendo los servicios DSL, comparten una cantidad
fija de ancho de banda entre multitud de usuarios, pero ya que las redes de cable tienden a abarcar áreas más
grandes que los servicios DSL, se debe tener más cuidado para asegurar un buen rendimiento en la red.
Una debilidad más significativa de las redes de cable al usar una línea compartida es el riesgo de la pérdida de
privacidad, especialmente considerando la disponibilidad de herramientas de hacking para cable módems. De
este problema se encarga el cifrado de datos y otras características de privacidad especificadas en el estándar
DOCSIS (Data Over Cable Service Interface Specification), utilizado por la mayoría de cable módems.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 59
II: TECNOLOGÍA BÁSICA

b) Módems telefónicos
Su uso más común y conocido es en transmisiones de datos por vía telefónica.
Los ordenadores procesan datos de forma digital; sin embargo, las líneas telefónicas de la red básica sólo transmiten
señales analógicas.
Los métodos de modulación y otras características de los módems telefónicos están estandarizados por el UIT-T (el
antiguo CCITT) en la serie de Recomendaciones "V". Estas Recomendaciones también determinan la velocidad de
transmisión. Destacan:
 V.32. Transmisión a 9.600 bps.
 V.32 bis. Transmisión a 14.400 bps.
 V.34. Transmisión a 33.600 bps. Uso de técnicas de compresión de datos.
 V.90. Transmisión a 56'6 Kbps de descarga y hasta 33.600 bps de subida.
 V.92. Mejora sobre V.90 con compresión de datos y llamada en espera. La velocidad de subida se incrementa,
pero sigue sin igualar a la de descarga.
Existen, además, módems DSL (Digital Subscriber Line), que utilizan un espectro de frecuencias situado por encima
de la banda vocal (300 - 3.400 Hz) en líneas telefónicas o por encima de los 80 KHz ocupados en las líneas RDSI, y
permiten alcanzar velocidades mucho mayores que las de un módem telefónico convencional. También poseen otras
cualidades, como es la posibilidad de establecer una comunicación telefónica por voz al mismo tiempo que se envían
y reciben datos.
En función del tipo de módem, la conexión se realizará de una forma u otra.
 La conexión de los módems telefónicos con el ordenador se realiza generalmente mediante uno de los puertos
serie (ya que todos los módems son dispositivos serie) tradicionales o COM (de COMunicaciones). El chip de la
placa base del PC encargado de controlar estos puertos es el denominado UART ( Universal Asinchronous
Transmisor/Receiver, Transmisor/Receptor Universal Asíncrono), y es el que condiciona, en gran parte, la
velocidad y el rendimiento que va a ofrecer el módem. La UART es un chip diseñado originalmente por National
Semiconductor en el momento del lanzamiento del IBM PC original. Hoy en día existen varios fabricantes que
integran una UART compatible con la original.
Generalmente, la UART va integrada dentro del chip de entrada/salida de la placa base formando parte de ésta.
Las UART más antiguas eran de tipo 8250. Concretamente, su denominación era INS8250-B (8 bits), o bien INS
16450 (16 bits), algo más nuevas.
Actualmente, todas las placas base integran como mínimo una UART NS 16550A o compatible, de alta velocidad,
con un buffer adicional para datos de 16 bytes, lo que les permite tener 16 caracteres de datos en espera de ser
enviados, evitando así la limitación del módem debido a la velocidad de comunicación de éste con el puerto serie.
La UART del ordenador deberá ser capaz de proporcionar la suficiente velocidad de comunicación. La UART debe
ser de 16550 o superior para que el rendimiento de un módem de 28.800 bps, o más, sea el adecuado. Estos
módems necesitan un enchufe para su transformador.
 Modems PC Card: son módems en forma de tarjeta, que se utilizaban en portátiles, antes de la llegada del USB,
que puede ser utilizado tanto en los ordenadores de sobremesa como en los portátiles. Su tamaño es similar al de
una tarjeta de crédito, algo más gruesa, pero sus capacidades pueden ser igual o más avanzadas que en los
modelos normales.
 Existen modelos para puerto USB (conexión también de tipo serie, pero con mayor velocidad), de conexión y
configuración aún más sencillas, que no necesitan toma de corriente. Hay modelos tanto para conexión mediante
telefonía fija, como para móvil.
 Conexión directa a la línea telefónica mediante un conector estándar tipo RJ -11, con cuatro hilos o conexiones.
Por último comentar, que existen una serie de factores que limitan la velocidad del módem, entre las cuales se pueden
mencionar:
 El propio ordenador, y más concretamente el puerto serie. En este sentido, es fundamental el tipo de UART que
integre la placa base, como ya hemos comentado. El primero de los cuellos de botella que puede limitar la
velocidad de un módem es la UART, es decir, el chip que controla el puerto serie del PC. El bus PCI de la mayoría
de las arquitecturas de PC existentes opera con bloques de 32bits, mientras que un cable serie transmite los bits
de uno en uno. La UART, por lo tanto, tiene que manejar todo ese tráfico a la máxima velocidad.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 60
II: TECNOLOGÍA BÁSICA


 El estado de la línea telefónica. En función de la calidad de la misma, el módem podrá enviar y recibir datos a
mayor o menor velocidad. El sistema telefónico actual, aunque es digital en gran parte, sigue manteniendo
elementos analógicos, concretamente las líneas, lo que conlleva una serie de limitaciones, como el ancho de
banda y la posibilidad de ruido en la línea. Para evitar estos problemas se desarrollaron sistemas específicos. Uno
es el denominado handshaking o establecimiento de la comunicación. Mediante este método, los dos módem a
comunicar establecen una velocidad de transmisión aceptable en función de las condiciones de la línea en ese
momento.
 El tipo de módem conectado al otro extremo limitará la velocidad de nuestro módem. En una conexión entre dos
módems, la velocidad de comunicación siempre se adaptará a la del más lento.
046b.2.2.4.2 Tarjeta de red
Una tarjeta de red permite la comunicación (preparar, enviar y controlar los datos) entre diferentes aparatos conectados
entre sí mediante un cable de red y también compartir recursos entre dos o más computadoras (discos duros, CD-ROM,
impresoras, etc.) A las tarjetas de red también se les llama adaptador de red o NIC (Network Interface Card, Tarjeta de
interfaz de red).
Para asegurar la compatibilidad entre el ordenador y la red, la tarjeta debe adaptarse a la arquitectura del bus de datos
del ordenador y poseer un tipo de conexión adecuado al cable. Cada tarjeta está diseñada para funcionar con un tipo de
cable específico. Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red
(coaxial fino, coaxial grueso, Token Ring, etc.), pero actualmente el más común es del tipo Ethernet utilizando una
interfaz o conector RJ-45.
En general, el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de una
computadora o impresora, pero también se suele utilizar para referirse también a dispositivos integrados en la placa base
del equipo o para expansiones con el mismo fin, que en nada recuerdan a la típica tarjeta con chips y conectores
soldados (las PCMCIA ó Secure Digital SIO de las PDA’s).
Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado dirección MAC (Media
Access Control). Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical
Engineers (IEEE). Los tres primeros octetos del número MAC son conocidos como OUI (Organizationally Unique
Identifier) e identifican a proveedores específicos y son designados por la IEEE.
Las tarjetas de red presentan configuraciones que pueden modificarse. Algunas de estas son: los interruptores de
hardware (IRQ) la dirección de E/S y la dirección de memoria (DMA).
 Interrupción (IRQ): en la mayoría de los casos, las tarjetas de red utilizan las IRQ 3 y 5. Se recomienda utilizar la
IRQ 5 (si está disponible); la mayoría de las tarjetas la utilizan de manera predeterminada.
 Dirección base de entrada/salida (E/S): cada dispositivo debe tener una dirección diferente para el puerto
correspondiente.
 Dirección de memoria: designa la ubicación de la memoria RAM en el ordenador. La tarjeta de red utiliza esta
ranura como búfer para la información que entra y sale. Esta configuración puede denominarse Dirección de inicio
de RAM. Por lo general, la dirección de la memoria de la tarjeta es D8000. En algunas tarjetas se suele omitir el
último 0. Se ha de tener cuidado en no elegir una dirección que ya esté siendo utilizada por otro dispositivo. Sin
embargo, debe tenerse en cuenta que, en ocasiones, algunas tarjetas de red no poseen una dirección de memoria
configurable porque no usan las direcciones de la memoria RAM del equipo.
046b.3. PDA
Una PDA (Personal Digital Assistant) es un dispositivo móvil del tamaño de la palma de una mano que integra una serie
de servicios para procesar datos e información de todo tipo (audio, video, texto, etc.) y que dispone de un sistema
operativo con versiones reducidas de software de los PC’s de sobremesa.
La aparición de la primera PDA corrió a cargo de la compañía Apple Computers. Su presidente, John Sculley, presentó el
primer prototipo en una feria tecnológica estadounidense a comienzos del año 1992, una propuesta que no solo no llamó
la atención del público, sino que además supuso uno de los fracasos más notables de su historia (tanto a nivel financiero
como a nivel de crítica), porque, a pesar de que ya incorporaba la mayoría de características que tiene cualquier PDA
moderna (conexión a redes, reconocimiento de escritura, etc.), , estaban poco desarrolladas aún y presentaban ciertos
fallos.
En 1995, con la aparición de la empresa Palm, Inc., comenzó la etapa de crecimiento y desarrollo tecnológico para el
mercado de estos dispositivos, con la presentación de las Palm Pilot en 1996. Tal fue el éxito que las PDA son a veces
llamadas Palm o Palm Pilot, lo cual constituye un caso de una marca registrada que se transforma en el nombre genérico
del producto.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 61
II: TECNOLOGÍA BÁSICA

El éxito de las Palm radicó en que sus diseñadores no trataron de crear un computador completo. Dando por hecho que
éstos ya existían, crearon la Palm como un “satélite” o un complemento del PC de la oficina o de casa, que permitía
intercambiar (sincronizar) rápida y fácilmente la información más importante y que se podía llevar consigo en todo
momento. Algunas de las características principales de las Palm (y por extensión a todas la PDA) son las siguientes:
 Bajo Costo.
 Alta duración de sus baterías.
 Sincronización simple con el PC, incluso de forma remota a través de un módem.
 Software de calidad con aplicaciones de fácil desarrollo.
Microsoft no pudo resistir ante la tentación de fabricar y comercializar un dispositivo que comenzaba a tener futuro, y así,
en 1998, la compañía de Bill Gates irrumpió en el mercado de las PDAs con su modelo Palm PC, que introducía una
variante adaptada del sistema operativo Windows, y que paso a llamarse Pocket PC tras la demanda de su principal
competidor. La irrupción en el sector con Microsoft Windows CE (2000) y Windows Mobile (2003) las dotó de mayores
capacidades multimedia y conectividad, y sobre todo, incorporó a un público ya acostumbrado al uso de sus programas y
que los podían encontrar en versión reducida.
Con la llegada de los Smartphones (teléfonos inteligentes), híbridos entre PDA y teléfono móvil, se incorporaron nuevos
competidores al mercado y nuevos usuarios avanzado de móviles al mercado.
La PDA, originalmente, fue diseñada como agenda electrónica (calendario, lista de contactos, bloc de notas y
recordatorios) con un sistema de reconocimiento de escritura, pero actualmente, una PDA puede realizar muchas de las
funciones que hace una computadora de escritorio (ver películas, crear documentos, juegos, correo electrónico, navegar
por Internet, reproducir archivos de audio, cámara digital, etc.) con la ventaja de ser portátil.
Una PDA típica tiene una pantalla táctil para introducir información, un slot de memoria para almacenarla (para el uso de
tarjetas SD, miniSD o microSD), una conexión de cable a través de interfaz USB, una conexión inalámbrica a través de
Bluetooth o WiFi y acceso a redes o Intranet.
Una de las funciones más importantes de las PDA’s es la sincronización con los ordenadores personales. Esto permite la
actualización de los datos, haciendo que la información del computador y del PDA’s sea la misma. La sincronización
también evita la pérdida de la información almacenada en caso de que la PDA se pierda, sea robada o destruida. Otra
ventaja es que se puede introducir información mucho más rápido desde el computador y transmitirla luego al
dispositivo.
Ya que las PDA están diseñadas para complementarse con el PC, necesitan trabajar con la misma información en ambos
lugares. El software de sincronización de la PDA trabaja en conjunto con software que se instala en el PC. Los
dispositivos Microsoft Pocket PC usan Active Sync y los dispositivos Palm OS usan HotSync.
El proceso de sincronización tiene dos pasos importantes:
 Los usuarios móviles envían los cambios realizados en las copias locales (en las PDA) de los datos fuente.
 Los usuarios reciben los cambios realizados en los datos fuente que residen en PC desde la última sincronización
Los sistemas operativos de las PDA’s son sencillos, intuitivos y tienen la capacidad de guardar mucha información en
poco espacio. Por ello, la eficiencia es un requisito crítico especialmente en el uso del espacio de memoria y
almacenamiento secundario. Se pueden mencionar los siguientes sistemas operativos de acuerdo al fabricante que los
patrocina:
 Android: sistema operativo de Google basado en el núcleo Linux. Permite controlar dispositivos por medio de
bibliotecas desarrolladas o adaptadas por Google mediante el lenguaje de programación Java. Sus principales
características son:
- Framework de aplicaciones: permite el reemplazo y la reutilización de los componentes.
- Navegador integrado: basado en el motor Open Source Webkit.
- SQlite: base de datos para almacenamiento estructurado que se integra directamente con las aplicaciones.
- Multimedia: Soporte para medios con formatos comunes de audio, video e imágenes planas (MPEG4, H.264,
MP3, AAC, AMR, JPG, PNG, GIF).
- Máquina virtual Dalvik: Base de llamadas de instancias muy similar a Java.
- Telefonía GSM: dependiente del terminal.
- Bluetooth, EDGE, 3g y Wifi: dependiente del terminal.
- Cámara, GPS, brújula y acelerómetro: dependiente del terminal
- Pantalla Táctil.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 62
II: TECNOLOGÍA BÁSICA

Todas las aplicaciones creadas con la plataforma Android incluyen como base un correo electrónico, calendario,
programa de SMS, mapas, navegador, contactos, y algunos otros servicios mínimos. Todas ellas escritas en el
lenguaje de programación Java.
Es el nuevo competidor del iPhone OS con la gran ventaja de ser Open Source. El fabricante HTC (conjuntamente
con Google) desarrolló el primer dispositivo basado en Android y, posteriormente, muchos han sido los que han
apostado por el nuevo entorno.
 Blackberry: este sistema operativo escrito en Java se remonta a la aparición de los primeros dispositivos que
permitían el acceso a correo electrónico, navegación web y sincronización con programas como Microsoft
Exchange o Lotus Notes, aparte de poder hacer las funciones usuales de un teléfono móvil.
Esta claramente orientado a su uso profesional como gestor de correo electrónico y agenda. Desde la última
versión se puede sincronizar el dispositivo con el correo electrónico, el calendario, tareas, notas y contactos de
Microsoft Exchange Server, además es compatible también con Lotus Notes y Novell GroupWise.
La principal ventaja de los sistemas Blackberry es que permite el acceso en tiempo real al correo electrónico. Este
es el motivo por el que mucha gente opta por este e sistema, que esta dirigido principalmente a la empresa, y
que a pesar de haber visto como competidores como Symbian, Palm o Windows Mobile avanzaban rápidamente,
se ha mantenido en primera línea.
 iOS (anterior iPhone OS): sistema operativo de Apple basado en Mac OS X y que se usa en los dispositivos iPhone,
iPod touch e iPad.
Su principal característica es la rapidez, tanto del menú como de sus aplicaciones e Internet, ausencia de virus y
troyanos en el dispositivo móvil, y capacidad para multitud de distintas aplicaciones, eso sí, firmadas por Apple.
Actualmente estamos ante la versión 3.X de Iphone, aunque en breve saldrá la versión 4.0 con el nuevo
dispositivo de Apple, con una nueva posibilidad multitarea, algo que se añora en las versiones actuales.
 Symbian OS: sistema operativo producto de la alianza de varios fabricantes de telefonía móvil (Nokia, Sony
Ericsson, Samsung, Siemens AG).
Las aplicaciones compatibles con Symbian se desarrollan a partir de lenguajes de programación orientados a
objetos como C++, Java y Visual Basic para dispositivos móviles, entre otros, incluyendo algunos lenguajes
disponibles en versión libre. La extensa variedad de aplicaciones que se pueden desarrollar van desde
administradores de archivos, hasta visualizadores de películas, guías de ciudades, mapas, diccionarios, emuladores
de juegos, por mencionar algunas.
Cada aplicación se puede instalar en el dispositivo con la ayuda de una computadora, una interfaz USB o firewire,
dependiendo del modelo y el cable correspondiente. Las aplicaciones se graban en la memoria flash del dispositivo
dentro del proceso de sincronización de archivos, contactos y correos electrónicos.
Symbian es actualizable. Esta tarea puede realizarla el usuario, dependiendo del modelo de su equipo, a través de
los sitios en Internet de los fabricantes de teléfonos, o bien, al obtener el disco compacto o tarjeta de memoria
flash de los distribuidores autorizados. Adicionalmente, Symbian proporciona una interfaz gráfica fácil de
comprender, llena de iconos y opciones, con lo cual se evita que el usuario deba aprender manuales inmensos
para explotar las capacidades de su equipo de comunicación móvil.
Entre las principales ventajas de este sistema operativo ya maduro y bien conocido por todos, está su facilidad de
comprensión por los usuarios y su multitud de aplicaciones disponibles. Como principal desventaja se puede citar
la lentitud respecto a otros sistemas operativos, y el incordio de tener que firmar algunas aplicaciones para
disponer de ellas en el equipo.
 Palm OS: sistema operativo de PalmSource Inc (actual Acces Ltd.). En la versión actual incorpora mejoras con
soporte a nuevos procesadores, al color, a nuevos puertos de expansión, a la telefonía, comunicaciones y
seguridad. Ha adoptado la arquitectura ARM.
Se podría decir que es un sistema intermedio entre Blackberry y Windows Mobile, más parecido a este segundo.
Es un sistema que, debido a la competencia de Windows Mobile, ve como su mercado se hace cada día más
pequeño. A pesar de esto, Palm es un sistema operativo 100% recomendable para los amantes de las PDA´s.
 Windows Mobile (anterior Windows CE y Windows Phone): sistema operativo basado en el núcleo del sistema
operativo Windows CE que cuenta con un conjunto de aplicaciones básicas utilizando las API de Microsoft
Windows. Originalmente apareció bajo el nombre de Pocket PC, como una ramificación de desarrollo de Windows
CE para equipos móviles con capacidades limitadas.
Está diseñado para ser estéticamente similar a las versiones de escritorio de Windows. Además, existe una gran
oferta de software de terceros disponible para Windows Mobile, la cual se puede adquirir a través de Windows
Marketplace for Mobile.

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 63
II: TECNOLOGÍA BÁSICA

Originalmente apareció bajo el nombre de Pocket PC, como una ramificación de desarrollo de Windows CE para
equipos móviles con capacidades limitadas. Windows Mobile ha evolucionado y cambiado de nombre varias veces
durante su desarrollo, siendo la última versión la llamada Windows Phone 7.
La principal ventaja de Windows Mobile es su gran adaptabilidad de formatos en cuanto a procesadores de texto,
tablas, multimedia se refiere, pudiendo tener un pequeño ordenador dentro del dispositivo móvil. Su
inconveniente quizá sea su complejidad y, en ocasiones, complicada interfaz.
 Sharp Zaurus (con Linux): es el nombre de una serie de PDA hechas por la corporación Sharp. Zaurus fue la más
popular PDA durante la década de 1990 en Japón. La primera Sharp PDA en usar una variante del núcleo Linux
fue la SL-5000.
Generalizando las características de una PDA se pueden mencionar las siguientes:
 Son ligeras y de reducido tamaño: ofrecen gran movilidad y ubicuidad.
 Cuentan con una pantalla táctil: accesible mediante un pequeño puntero.
 Cuentan con servicios multimedia: altavoz, micrófono y grabadora de voz. Por tanto, cuenta con una interfaz, por
tanto enriquecida: a nivel táctil, vocal.
 Permiten la conexión con periféricos: gracias a un slot”‘secure digital”.
 Permiten las siguientes conexiones inalámbricas:
- Bluetooth: es un estándar de protocolo de radio y comunicación diseñado para consumir poca energía, con
corto alcance, y basado en micro chips barato. Debido a que usa un sistema de comunicación de radio, no es
necesario que un dispositivo esté frente al otro para poder comunicarse. Es suficiente con que estén en el
área de alcance uno de otro, pudiendo estar incluso en habitaciones diferentes si la señal es lo
suficientemente fuerte. La configuración de estos dispositivos es muy simple, a diferencia del Wi-Fi, por lo
tanto de más fácil acceso para la población que no está habituada a la tecnología
- Wi-Fi: es una “red de área local inalámbrica” (WLAN) que permite conectarse a Internet en dispositivos
móviles, siempre y cuando esté cerca de un punto de acceso, o Hotspot. También permite la conexión entre
dos dispositivos con Wi-Fi. En un principio, cuando esta tecnología apareció en el mercado, hubo muchos
problemas debido a que algunos dispositivos no funcionaban de manera correcta cuando interactuaban entre
si, para esto se formó la Wi-Fi Alliance, que creó normas que deben cumplir todos los productos que utilicen
Wi-Fi, actualmente se utiliza la especificación IEEE 802.11. Esta tecnología es más potente que el Bluetooth,
y tiene mas alcance, aunque consume mucha mas batería, y necesita ser configurada, lo que representa una
dificultad para a los usuarios que no están acostumbrados a relacionarse con la tecnología.
- IrDA (Infrared Data Assocation): este es otro protocolo para intercambio de datos, esta vez, a través de luz
infrarroja, entre dos dispositivos, se utiliza en redes de área personal. Esta tecnología es de muy corto
alcance (1metro aprox.), lo que permite ser usados en lugares que requieren seguridad, consume muy poca
energía, los sensores deben estar alineados para que se transfiera la información. Antes se utilizaba en PDAs
y celulares, pero ahora se está dejando de usar para dar paso al Wi-Fi, y Bluetooth.
 Funcionan con baterías (de ION/Litio).
Las baterías de iones de litio que no sufren el llamado efecto memoria y cuentan con una gran capacidad
específica. Las PDAs vienen con baterías basadas en esta tecnología, por varias ventajas:
- Una elevada densidad de energía. Acumulan mucha mayor carga por unidad de volumen.
- Poco peso.
- Poco espesor. Esto las hace especialmente interesantes para integrarlas en dispositivos portátiles que deben
tener poco espesor.
- Carecen de efecto memoria (pérdida en la capacidad de la batería debido a repetidas cargas y descargas que
se efectúen en la batería sin haberla descargado por completo previamente)
- Descarga lineal. Durante toda la descarga, el voltaje de la batería apenas varía, lo que evita la necesidad de
ineficaces circuitos reguladores. Esto puede ser una desventaja, ya que hace difícil averiguar el estado de
carga de la batería.

Aunque también presentan las siguientes desventajas:

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 64
II: TECNOLOGÍA BÁSICA

- Independientemente de su uso, sólo tienen una vida útil de 3 años.


- Soportan un número limitado de cargas
- Son caras. Actualmente, el precio se aproxima rápidamente al de las otras tecnologías.
Las especificaciones de las PDA’s acostumbran a ser ambiguas cuando tratan sobre la autonomía de
funcionamiento con baterías, es decir, el tiempo que pueden ser utilizados sin ser recargados. Esto se debe a la
dificultad de proporcionar una cifra que refleje tanto la propia tecnología de las baterías, que van variando su
comportamiento con el tiempo, como el perfil de uso del equipo, que puede variar enormemente de un usuario a
otro. Por ello, existen programas que registran el voltaje de la batería a lo largo de su ciclo de uso, tomando el
ato en cada operación de puesta en marcha y registrándolo de forma acumulada hasta un máximo de tiempo.
 Usan memoria de almacenamiento flash.
Estas son las sucesoras de las EEPROM, posibles de borrar y grabar electrónicamente. Las ventajas de estas es
que permiten que múltiples posiciones de memoria sean escritas o borradas en una misma operación de
programación, frente a las EEPROM anteriores que sólo dejan escribir o borrar una única celda cada vez. Por ello,
flash permite funcionar a velocidades muy superiores cuando los sistemas emplean lectura y escritura en
diferentes puntos de esta memoria al mismo tiempo.
Las principales características de este tipo de memoria son:
- No es volátil.
- Su volumen de almacenamiento varía de 512MB hasta 16 GB.
- Su velocidad de transferencia va desde 7 hasta 30 MB/s.
- Son más económicas en comparación con otras memorias de este volumen de almacenamiento, como las
EEPROM.
- Tienen un diseño que le permite soportar golpes.
- Su funcionalidad es silenciosa ya que no posee sistemas mecánicos.
- Su pequeño tamaño es determinante a la hora de elegir un dispositivo portátil.
- Tienen una cantidad limitada de escritura, normalmente es 10.000 veces.
- Su información esta guardada en forma cifrada.
- Resiste temperaturas de -25°C a 85°C.
Se pueden mencionar los siguientes formatos de este tipo de memorias:
- Secure Digital (SD): formato normalmente aplicado a cámaras fotográficas digitales, Wii's, ordenadores PDA.
Algunas cámaras fotográficas digitales requieren tarjetas de alta velocidad para grabar vídeo con fluidez o
para capturar múltiples fotografías en una sucesión rápida. Por esto, existen dos tipos de SD, una que tiene
una tasa de transferencia normal y otra con números mas elevados.
- Compact flash (CF): formato aplicado en algunas PDAs. Existen de dos tipos de velocidad como las SD, por el
mismo motivo, también esta extensión es unas de las primeras aplicadas a flash, vino después de la NOR,
básicamente se caracterizó por las mismas razones que la Secure Digital: buena relación en capacidad de
almacenamiento-costo y un tamaño versátil. Gracias a su mayor tamaño en comparación con las tarjetas más
pequeñas que aparecieron posteriormente, muchos otros formatos pueden ser usados directamente en una
ranura de tarjeta CF con un adaptador (incluyendo SD)
 Cuentan con un puerto USB para conexión a través de cable.
 Emplea microprocesadores específicos, de reducidas prestaciones y tamaños: Intel XScale de 400 MHz, Texas
Instruments OMAP 1510 144 MHz, etc…cuentan con una velocidad inferior a la del PC
Las PDAs usan una estructura de microprocesador llamada ARM (Advanced RISC Machine), estos son
procesadores integrados RISC de 32 bits (Reduced Instruction Set Computer). Este tipo de procesador, ejecuta
menos instrucciones y mas simples, y consumen muy poca energía, haciéndolo ideal para estos dispositivos
móviles.
El microprocesador StrongARM es una versión más rápida del diseño del ARM. Fue fruto de la colaboración en
1995 entre Advanced RISC Machines y Digital Equipment Corp.

DEC fabricó varios microprocesadores StrongARM basados en el núcleo de procesador RISC a 32 bits, que se
utilizaban en terminales de redes. A finales del año 1997, Intel compró la tecnología StrongARM, y poco después,

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 65
II: TECNOLOGÍA BÁSICA

anunciaba su intención de utilizar los procesadores de StrongARM en dispositivos personales como los entonces
emergentes PDA.
Fue sustituido por el Intel XScale, que es la quinta generación de la arquitectura ARM. Está basado en el ISA v5TE
sin las instrucciones de coma flotante. El XScale usa un entero de 7 niveles y 8 niveles de memoria Superpipeline
de arquitectura RISC. Es el sucesor de la línea de microprocesadores y microcontroladores Intel StrongARM, que
Intel adquirió de la división de Semiconductores Digitales de DEC como efecto colateral de un pleito entre las dos
compañías. Intel usó el StrongARM para sustituir su propia línea de anticuados procesadores RISC, el i860 y el
i960.
 Tradicionalmente no tienen capacidad de teléfono ni de envío de fax.
Igualmente, se pueden mencionar las siguientes limitaciones:
 Potencia de computación.
 Capacidad de almacenamiento.
 Duración de las baterías (una de sus principales limitaciones)
 No conectan con ciertos periféricos.
 Capacidad de visualización.

Los dispositivos Pocket PC son PDA’s que ejecutan el sistema operativo Windows CE o Windows Mobile (versión Pocket
PC). Microsoft sacó esta línea al mercado en 1998, con el nombre Palm PC. Debido a una demanda de Palm, el nombre
fue cambiado a PocketPC.
Cualquier dispositivo que sea clasificado como un PocketPC debe:
 Ejecutar el sistema operativo Microsoft Windows CE o Windows Mobile (versión Pocket PC)
 Tener un conjunto de aplicaciones en ROM
 Incluir una pantalla táctil.
 Incluir un dispositivo apuntador, llamado stylus o estilete
 Incluir un conjunto de botones de hardware para activar aplicaciones
Algunas de las aplicaciones que se incluyen con estos dispositivos son versiones reducidas de Microsoft Outlook, Internet
Explorer, Word, Excel, Windows Media Player, etc.
Actualmente hay pocos fabricantes y se concentran la gran mayoría en el continente asiático. Entre ellos, el más
importante, y que recientemente se convirtió en distribuidor, es HTC (antiguo proveedor de HP) Acer o Fujitsu entre
otros. Otros fabricantes de dispositivos Pocket PC son Quanta, Foxcon, Inventec, Asus o Compal, concentrados todos
ellos en Taiwan, y dedicados también a la fabricación de otros equipos electrónicos, como portátiles o dispositivos GPS.
En cuanto a los distribuidores, sin embargo, hay bastantes más: HP, Fujitsu Siemens, Garmin, Acer, Casio y un largo
etcétera, que encargan a los fabricantes antes mencionados el diseño de sus equipos y a los que sólo les ponen su marca
y se encargan de distribuirlos y dar soporte técnico.
Sin embargo, y aunque el funcionamiento interno de los dos sistemas (Palm vs. Pocket PC) es radicalmente distinto,
ambos convergen hacia un interfaz muy similar, orientado a la sencillez de manejo y a la completa accesibilidad
pudiéndose utilizar en cualquier momento y lugar.
Debido a la continua evolución de la tecnología, en los últimos años han surgido una serie de dispositivos que combinan
funcionalidades proporcionados por otros ya existentes:
 Teléfono inteligente (smartphone) es un teléfono móvil con funciones de una tradicional PDA. Estos dispositivos
(además de servir para comunicarse) permiten almacenar información, enviar correos electrónicos, instalar
programas de terceros, sincronizar datos con el PC etc.
Ejemplos de estos dispositivos son: el Treo 650 de Palm OS (el primer smartphone integrado), el Curve 8900 de
BlackBerry, el Nokia E71 con Symbian, HTC Magic con Android, el HTC HD2 en Windows Mobile y el iPhone.


 PDA Phone. Hace años, se diferenciaba entre PDA y teléfono inteligente (smartphone) simplemente por la
capacidad de la pantalla: si el dispositivo tenía pantalla táctil era una PDA y si no la tenía era un teléfono

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 66
II: TECNOLOGÍA BÁSICA

inteligente. Actualmente muchos fabricantes de teléfonos inteligentes ya ofrecen esta característica y a pesar de
que los denominan con término genérico de PDA, en realidad son PDA phones (PDA con capacidades telefónicas).
046b.4. TABLET PC
El Tablet PC (creado por Microsoft en 2002) se trata de un ordenador extraplano con unas funcionalidades similares a las
de un ordenador portátil pero que, a diferencia de éste, no dispone de teclado físico. Esto obliga a que exista un
elemento físico que haga de interfaz de comunicación entre el Tablet PC y el usuario. Esta interfaz no es uno, sino dos:
una pantalla electrosensible y un lápiz EMR (ElectroMagnetic Resonance), o lo que es lo mismo, un lápiz
electromagnético. Esto se complementa con una serie de botones de acceso directo. Se puede decir que es una solución
híbrida entre el portátil y la PDA.
Se pueden destacar las siguientes características:
 Ligeros: 1,5 a 2 kg de peso.
 Batería de larga duración: la vida útil de la batería, de hasta cinco horas, le garantiza total fiabilidad mientras está
fuera de la oficina.
 Ofrece tecnología inalámbrica 802.11 integrada.
 Cuenta con una agenda inteligente, permitiendo interaccionar directamente con la pantalla a través de la
tecnología de ”tinta digital”. La pantalla es TFT táctil.
 Ofrece un controlador de gráficos dedicado (de NVIDIA).
 Respecto a la conectividad, emplea los mismos de PC (ventaja frente a la PDA).
 Emplea, asimismo, los mismos procesadores que un portátil, y la misma memoria, pero con módulos SODIMM
(Small Outline Dual Inlinne memory Module).
 Los discos duros son de 2,5 pulgadas (igual de nuevo que el de un portátil).
 Ofrece nuevas formas de control mediante voz y escritura manuales.
 Fabricantes: Apple, Dell, Samsung, HP, NEC, Balckberry, Lenovo, Acer, etc.
En cuanto a los tipos de Tablet PC se pueden mencionar los siguientes:
 Pizarra: no tiene teclado, y en su lugar, el usuario dependerá de la pluma stylus y la pantalla táctil para introducir
texto y realizar funciones. Por supuesto, si se quiere tener un teclado se puede configurar uno vía puerto USB.
Son resistentes y están fabricadas para durar mucho tiempo, ideales para el trabajo de campo en varias
industrias tales como salud y educación.
 Convertible: es más móvil y accesible, ya que incluye un teclado incorporado debajo del monitor mientras el
monitor es capaz de girar, ponerse de pie, y cerrar en la parte superior del teclado. Una desventaja, sin embargo,
es que la bisagra giratoria del teclado puede dañarse fácilmente. Los fabricantes están trabajando para superar
esta debilidad
 Híbrido: combina lo mejor de ambos mundos, al unirse la tecnología de pizarra con las funciones de un
convertible. Con un híbrido de Tablet PC, se puede utilizar el monitor solo como un equipo de pizarra o conectar
un teclado y tener el monitor giratorio alrededor como un convertible. Es posible separar el monitor y el teclado
cuando se desee. En este modelo se incluyen el lápiz y las funciones de pantalla táctil.
Además de los sistemas operativos mencionados anteriormente en el caso de las PDA’s, es posible señalar también
los siguientes:
 Chrome OS: es un proyecto llevado a cabo por la compañía Google para desarrollar un sistema operativo basado
en web. Es un sistema realizado con base en código abierto (Núcleo Linux) y orientado inicialmente para
miniportátiles y que funcionará sobre microprocesadores con tecnología x86 o ARM.
 Meego: es la unión de los sistemas operativos Maemo y Moblin, con el que Intel y Nokia pretenden competir con
el sistema Android de Google. El proyecto del nuevo sistema, a diferencia de Android, está auspiciado por la Linux
Foundation. Se presenta como un sistema preparado para funcionar en netbooks, dispositivos portátiles, sistemas
en vehículos, televisiones y teléfonos multimedia. Básicamente se trata de una distribución Linux con soporte para
ARM e Intel/Atom que usa Qt (biblioteca multiplataforma para desarrollar interfaces gráficas de usuario) para su
interfaz

Alguna de las principales características:

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 67
II: TECNOLOGÍA BÁSICA

 Facilidad de conversión de la escritura a mano en texto, con capacidades de reconocimiento de escritura que
facilitan el reconocimiento de entradas habituales (como direcciones de correo electrónico y direcciones URL),
además de la detección automática de la altura de los caracteres y el orden de las pulsaciones de tecla.
 Crear, editar y organizar notas y dibujos manuscritos en un formato digital.
 Conexión desde cualquier lugar fuera del trabajo por la compatibilidad proporcionada con redes inalámbricas y con
autonomía debido a la larga duración de la batería.
 Soporte multilingüe con reconocimiento de escritura y voz en varios idiomas.
El iPad de Apple ha logrado posicionarse como pionero y referente en el segmento de mercado de los tablets PC. No hay
ni un sólo fabricante de tecnología que no haya anunciado oficialmente que está trabajando en su propio tablet. A
continuación se adjunta una tabla con una comparativa con algunos de sus principales competidores (año 2010):

E Q U I P O S
iPad Archos 10.1 Streak Galaxy Toshiba S7

Fabricante Apple Archos Dell Samsung Folio 10i Huawei


S.O. iPhone OS 4.1 Android 2.2 Android 1.6 Android 2.2 Android 2.2 Android 2.1
Qualcomm ARM Cortex Tegra 2 de Qualcomm
Procesador Apple A4 ARM Cortex A8
SnapDragon A8 Nvidia SnapDragon
Almacenamiento 16, 32, 64Gb 8, 16Gb 512Mb 16, 32Gb 16Gb 32Gb
10
Pantalla 9,7 pulgadas 10.1 pulgadas 5 pulgadas 7 pulgadas 7 pulgadas
pulgadas
Blueetooth, Blueetooth, Blueetooth, Blueetooth, Blueetooth,
Conectividad Blueetooth, WiFi
WiFi, 3G WiFi, 3G WiFi, 3G WiFi, 3G WiFi, 3G
USB No Si No Si Si Si
Cámara No Si Si Si Si Si
Webcam No Si Si Si Si Si
Teléfono NO No Si Si No Si

46-B. Dispositivos personales de PC, PDA, Tablet. Pocket PC. La conectividad de los dispositivos personales. Pág. 68

También podría gustarte