Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Carrera: Informática
Área: Informática
Derechos Reservados
D.R. © 2005, Colegio Nacional de Educación Profesional Técnica
Av. Conalep #5, Col. Lázaro Cárdenas, C.P. 52140, Metepec, Estado
de México
HECHO EN MÉXICO
Primera Edición
ISBN: En trámite
www.conalep.edu.mx
Directorio
Director General
José Efrén Castillo Sarabia
Secretario General
Juan Manuel García Rodríguez
Secretario de Administración
Horacio Bernal Rodríguez
Asesoría externa
Instituto de Investigación y Desarrollo de Educación Avanzada S.C.
(IIDEA)
Asesoría interna
Especialistas de Contenido
Jorge Alberto Garza Béjar
Revisión Pedagógica
Patricia Toledo Márquez
Revisores de la Contextualización
Agustín Valerio
Armando Guillermo Prieto Becerril
Este manual ha sido diseñado bajo la Modalidad Educativa Basada en Normas de Competencia, con el fin
de ofrecerte una alternativa efectiva para el desarrollo de habilidades que contribuyan a elevar tu
potencial productivo, a la vez que satisfagan las demandas actuales del sector laboral.
• Analiza el Propósito del módulo que se indica al principio del manual y contesta la pregunta ¿Me
queda claro hacia dónde me dirijo y qué es lo que voy a aprender a hacer al estudiar el contenido del
manual? si no lo tienes claro pídele al docente que te lo explique.
• Revisa el apartado especificaciones de evaluación son parte de los requisitos que debes cumplir para
aprobar el módulo. En él se indican las evidencias que debes mostrar durante el estudio del módulo
ocupacional para considerar que has alcanzado los resultados de aprendizaje de cada unidad.
• Es fundamental que antes de empezar a abordar los contenidos del manual tengas muy claros los
conceptos que a continuación se mencionan: competencia laboral, unidad de competencia (básica,
genéricas específicas), elementos de competencia, criterio de desempeño, campo de aplicación,
evidencias de desempeño, evidencias de conocimiento, evidencias por producto, norma técnica de
institución educativa, formación ocupacional, módulo ocupacional, unidad de aprendizaje, y resultado
de aprendizaje. Si desconoces el significado de los componentes de la norma, te recomendamos que
consultes el apartado glosario de términos, que encontrarás al final del manual.
• Analiza el apartado «Normas Técnicas de competencia laboral, Norma técnica de institución educativa».
• Revisa el Mapa curricular del módulo autocontenido específico. Está diseñado para mostrarte
esquemáticamente las unidades y los resultados de aprendizaje que te permitirán llegar a desarrollar
paulatinamente las competencias laborales que requiere la ocupación para la cual te estás formando.
• Realiza la lectura del contenido de cada capítulo y las actividades de aprendizaje que se te recomiendan.
Recuerda que en la educación basada en normas de competencia laborales la responsabilidad del
aprendizaje es tuya, ya que eres el que desarrolla y orienta sus conocimientos y habilidades hacia el
logro de algunas competencias en particular.
• En el desarrollo del contenido de cada capítulo, encontrarás ayudas visuales como las siguientes, haz lo
que ellas te sugieren efectuar. Si no haces no aprendes, no desarrollas habilidades, y te será difícil
realizar los ejercicios de evidencias de conocimientos y los de desempeño.
Investigación documental
Estudio individual
Comparación de resultados
con otros compañeros Repetición del ejercicio
Trabajo en equipo
Contextualizaciòn
Para que analices la relación que guardan las partes o componentes de la NTCL o NIE con el
contenido del programa del módulo autocontenido Específico de la carrera que cursas, te
recomendamos consultarla a través de las siguientes opciones:
• Acércate con el docente para que te permita revisar su programa de estudio del módulo
autocontenido Específico de la carrera que cursas, para que consultes el apartado de la norma
requerida.
• Consulta la página de Intranet del CONALEP http://intranet/ en caso de que el programa de estudio
del módulo autocontenido específico esté diseñado con una NIE.
Las autoevaluaciones de conocimientos correspondientes a cada capítulo además de ser un medio para
reafirmar los conocimientos sobre los contenidos tratados, son también una forma de evaluar y recopilar
evidencias de conocimiento.
Al término del módulo deberás presentar un Portafolios de Evidencias1, el cual estará integrado por las listas
de cotejo correspondientes a las prácticas de ejercicio, las autoevaluaciones de conocimientos que se
encuentran al final de cada capítulo del manual y muestras de los trabajos realizados durante el desarrollo
del módulo, con esto se facilitará la evaluación del aprendizaje para determinar que se ha obtenido la
competencia laboral.
Deberás asentar datos básicos, tales como: nombre del alumno, fecha de evaluación, nombre y firma del
evaluador y plan de evaluación.
1El portafolios de evidencias es una compilación de documentos que le permiten al evaluador, valorar los conocimientos, las habilidades y las destrezas
con que cuenta el alumno, y a éste le permite organizar la documentación que integra los registros y productos de sus competencias previas y otros
materiales que demuestran su dominio en una función específica (CONALEP. Metodología para el diseño e instrumentación de la educación y capacitación
basada en competencias, Pág. 180).
Actualización de
Equipo de Cómputo
72 hrs
Actualización de
Equipo de Cómputo
72 hrs
7 hrs.
5 hrs.
RESULTADO DE APRENDIZAJE
1.1. Realizar el diagnóstico del estado del equipo de cómputo con base en las necesidades del usuario,
características del equipo y/o centro de trabajo.
• Concepto de Actualización.
Sabemos bien que una computadora trabaja con dos áreas definidas: el hardware (parte física) y el software
(los programas o parte abstracta). Para que los PC trabajen óptimamente, estas dos áreas deben formar un
conjunto armonioso cuyo balance vamos a analizar en las siguientes líneas a fin de tener elementos de base
para tomar una decisión sobre ACTUALIZAR o REEMPLAZAR la máquina cuando el tiempo ha pasado sobre
ella.
La actualización del hardware. ACTUALIZAR una computadora no es un paso sencillo como parece. Va a
requerir la EVALUACIÓN del PC como máquina en su conjunto, para tomar una decisión al respecto.
Básicamente se trata de decidir si LOS COMPONENTES básicos permiten la EJECUCIÓN de los programas que
NECESITAMOS para trabajar con el PC. Cuando decimos programas, nos referimos al Software actual:
Windows XP, Office 2000 o XP, Corel Draw 12, Autocad 12, juegos de estrategia grandes (como Warcraft ) o
programas didácticos como Enciclopedia Encarta 2003, etc. Puesto que se necesita cierto conocimiento de
hardware y experiencia de trabajo con el software actual, te mostramos algunas observaciones útiles para
ayudarte a evaluar los PC que podrían actualizarse.
Sobre el cambio de partes. Lamentablemente tenemos que decir que es una de las mayores decepciones
producida a raíz de la expectativa creada en la venta de los PC. Muchos usuarios han sido 'culturizados' para
creer que los PC solo necesitan 'pequeños cambios' a través de los años para 'mantenerse al día'. La realidad
nos muestra que un PC es OBSOLETO a los DOS AÑOS (si al momento de la compra era el más alto en
prestaciones). Pero como no todo el mundo compra el PC MAS MODERNO, este lapso es indudablemente más
corto que el de la norma (se conoce a esto como el cumplimiento de la LEY DE MOORE que dice que cada 18
meses el número de los transistores de los Chips microprocesadores se DUPLICA).
Como evaluar si se puede o no actualizar un PC. Aquí las pautas: (utilizamos el Microprocesador para hacer las
comparaciones)
2. Un PC que tenga una motherboard para Pentium 4 de menos de 1 GHz, no puede ACTUALIZARSE a un
Pentium 4 de 2 GHz porque la velocidad de su bus es incompatible. Si el procesador de un PC es
anterior a los mencionados Celerón, Pentium II o Pentium III, ya puedes deducir que lo mejor seria
comprar uno nuevo.
Donde obtener medidas de comparación y evaluación. Se pueden obtener visitando principalmente los sitios
Web de los fabricantes de Motherboards. Afortunadamente se esta utilizando bastante la Red para orientar a
los compradores. Si no estas familiarizado con las categorías de motherboards, tipos de Microprocesadores y
memoria Ram, la fuente rápida y práctica debería ser tu Soporte técnico de confianza. Otra fuente de
información para hacer comparaciones (principalmente para averiguar que Procesador va con x motherboard
o cuanta memoria y tamaño de disco duro debería poseer un PC determinado), la constituyen las paginas Web
de los sitios que VENDEN PC por Internet, pues ellos exhiben diferentes configuraciones para la diversidad de
usuarios informáticos.
• Importancia de actualización
¿Qué puede hacer usted para ponerse al día? Ahora más que antes, la mejor manera de dar a su antiguo
Pentium, un aumento de rendimiento, es mejorar su CPU y el RAM.
Para el artículo de actualizaciones de este año, probamos cinco procesadores actualizados. Pusimos tres chips
un procesador Intel Pentium MMX OverDrive de 125 MHz, un Evergreen PR-166, y un Evergreen MXPro-233
de preestreno en una Gateway 2000 P-75. Además, insertamos un Intel PMMX OverDrive de 166 MHz y una
versión de preestreno del Pentium MMX OverDrive de 200 MHz en una Compaq ProLinea P-100 PC. (El nuevo
Kingston TurboChip 200, que está diseñado para convertir un P-75, -90, o -100 en un PMMX-200, no estuvo
disponible a tiempo para ser probado).
Para ver en qué magnitud estos chips de mejora elevan el rendimiento, probamos cada sistema con nuestra
serie de pruebas PC WorldBench con sus procesadores originales. También sometimos los sistemas a una serie
de pruebas que usan el software de MMX. Después instalamos las actualizaciones y ejecutamos las pruebas
nuevamente.
Verificamos además si elevar la memoria en nuestros sistemas de prueba de 16MB a 32MB aceleraría las
aplicaciones. Y finalmente, combinamos cada mejora del CPU con una actualización de RAM de 16MB y
ejecutamos las pruebas una vez más. El sobre, por favor.
Si está actualizando su sistema P-75, la combinación de chip/RAM también es un negocio redondo. Cuando
colocamos un chip MMX OverDrive de 125 MHz y 16MB de RAM en nuestro sistema Gateway 2000 P-75,
obtuvimos una marca PC WorldBench de 162 lo que representó un 28 por ciento de aumento en el
rendimiento. Considere que no está a la par con el desempeño de P-120 (el P-120 promedio con 32MB
produce 187), y tampoco tiene el desempeño de un P-100 (el P-100 promedio con 32MB logra una marca de
176), pero es mucho más rápido que su P-75 actual y solamente le costará 300 dólares.
¿Y qué pasa si simplemente añade más memoria a su P-100 o P-75? Solamente si usted ejecuta muchos
programas a la vez. Una actualización de 16MB de RAM en un sistema de 16MB puede ser buena para las
multitareas (algo que nuestra serie de pruebas no hace), pero solamente impulsa la velocidad de aplicaciones
individuales en un 2 por ciento.
¿Sabe usted que actualizar su tarjeta gráfica puede hacer más por su PC que agregar 16MB de RAM? ¿Se
pregunta usted si debe comprar un disco duro EIDE o SCSI? ¿Y es hora ya de comprar una unidad de DVD-
ROM? Dependiendo de cómo use su PC, puede necesitar una actualización, como una tarjeta gráfica de 3D,
un disco duro mayor, o una unidad de CD-ROM más rápida. Después de discutir sus opciones de procesadores
y de RAM, le orientaremos en la selección de los aditamentos correctos sin llevarlo a la bancarrota.
A fin de cuentas, usted es el único que puede decidir cuánto es lo que puede gastar en las mejoras de su PC.
Le sugerimos que se ponga un límite de 600 dólares: 300 dólares por una actualización de rendimiento y 300
dólares por una actualización de otras opciones. Si gasta más de eso es mejor comprar un nuevo sistema y
una buena garantía de tres años.
• Detección de necesidades.
El ciclo de vida de los ordenadores personales es demasiado corto: un equipo comprado hace un mes, ya no
es el más puntero: habrán surgido nuevos procesadores, nuevas tarjetas gráficas, memorias, etc.
Pero habitualmente no se necesita un equipo de última generación para realizar el trabajo usual de oficina.
− se puede ampliar la memoria, por ejemplo si el equipo tiene 64 MB, añadir un módulo de 128 MB,
para conseguir un total de 192 MB. Se reduce la paginación (acceso a disco para guardar y recuperar
programas), y la mejora puede ser muy notable. Coste aproximado: 600.00
− se puede cambiar el microprocesador: siempre que la placa base lo admita, por ejemplo, pasar de
Pentium-III-500 MHz a Pentium-III-1 GHz. Atención: duplicar la velocidad del procesador, no implica
conseguir el doble de rendimiento; es sólo uno de los factores que inciden en el rendimiento. Coste
aproximado: 2,000.00
− se puede cambiar la placa base. Esta operación no es recomendable, a no ser que cuente con
asesoramiento especializado. Suele implicar la reinstalación del sistema operativo.
− se puede cambiar el disco duro: a uno de más capacidad, si el actual está casi lleno (casi lleno: menos
de 15% libre); o a uno de mayor velocidad, si trabajamos con grandes bases de datos; por ejemplo,
pasar de 5.400 rpm a 7.200 rpm.
− se puede poner una tarjeta gráfica más rápida: esto no tiene incidencia en aplicaciones de ofimática
habituales, pero puede ser determinante si trabajamos con CAD.
Si se cambian micro y placa base, o más de 2 componentes, probablemente no merezca la pena el coste de la
ampliación, comparado con el precio de una nueva CPU.
Cuando estamos dispuestos a invertir nuestros ahorros en un equipo, lo primero que solemos hacer es visitar
varias tiendas y pedir presupuestos. Sin embargo, normalmente olvidamos pedir que especifiquen cada uno
de los componentes de nuestro equipo, a ser posible por escrito, para poder hacer una comparación de
precios en función del equipamiento y características de cada uno.
NUNCA debemos escoger un equipo únicamente por su precio, pues en informática, y en todos los demás
campos, nadie da duros a cuatro pesetas. Si un equipo es anormalmente barato, deberíamos fijarnos bien en
las características de éste, pues es posible que nos estén instalando componentes ya desfasados o de dudosa
calidad.
¿Quién no recuerda el caso de los famosos, y aún presentes, Pentium remarcados? ¿O el de la falsa memoria
caché? Fabricantes como AMD advierten en su página WEB de la existencia en el mercado de procesadores
AMD remarcados, con el peligro que esto supone para su buen funcionamiento y su duración.
Lo mejor que se puede hacer es dirigirse a la tienda de informática de confianza, o cualquiera que nos hayan
recomendado y exigir unas características e incluso unos componentes determinados en cuanto a marca y
modelo.
Hay muchas tiendas de informática, algunas pertenecientes a cadenas de franquicias, que ofrecen unos
equipos muy equilibrados con unos componentes de reconocida calidad, con la ventaja de garantizar la
compatibilidad y buen montaje del equipo, así como la posibilidad de sustituir componentes por otros de la
mismas características.
Sin embargo, hay compradores que buscan algo más. Aquellos que quieren el ordenador que les ofrezca la
máxima calidad y las máximas prestaciones, o aquellos que desean actualizar su equipo cambiando alguno de
sus componentes.
Siempre llega un momento en que nuestro querido ordenador se nos queda "pequeño". Si este momento ha
llegado para tí, aquí tienes los pasos a seguir para solucionarlo de la forma más económica posible.
Procesador: Hoy en día para poder ejecutar todo el software que se encuentra disponible y el que está a la
vuelta de la esquina es aconsejable pensar en CPU's tipo Pentium II. De todas maneras si no nos llega para
tanto nos puede servir, por ejemplo un AMD K6 a 233 o incluso a 266.
Si nuestro presupuesto es muy escaso, puedes optar por una velocidad más baja (por ejemplo 166) y pasarte
por nuestra página de Overclocking.
Placa base: Normalmente actualizamos la placa base para poder montar un procesador más potente que la
actual no soporta. En el caso de ordenadores no "clónicos" en el que es casi imposible cambiarla, se puede
optar por procesadores tipo "Overdrive" de Intel o de otras marcas, o bién por uno de mayor velocidad que el
actual pero de la misma "família".
En un entorno típico de Windows 95, y programas no muy exigentes puede ser suficiente con 16 Mb, pero si
nos vamos ya a las últimas versiones de éste con Internet Explorer 4.0 y shell integrado necesitaremos un
mínimo de 32 Mb, si no queremos notar como se ralentiza todo.
Tarjeta de video: En entornos de ventanas tener una buena tarjeta se nota en el rendimiento, y si utilizamos
juegos modernos, programas de CAD, u otros que hagan uso intensivo de gráficos 2D o 3D, como las
aplicaciones que utilizan DirectX, entonces si no contamos con ella tendremos un "cuello de botella" muy
importante. Deberíamos actualizarnos a una tarjeta PCI ó AGP con soporte hardware de 3D y 4 Mb. Si no
vamos a utilizar juegos ni programas 3D puede ser suficiente con una tarjeta tipo S3 Trio 64 V2 con 2 Mb.
Disco duro: La capacidad del disco duro no influye directamente en el rendimiento siempre y cuando
tengamos espacio libre suficiente para la memoria virtual (un archivo de intercambio de unos 64 Mb suele ser
suficiente). De todas formas la capacidad suele ser un buen indicador de la "edad" del disco, y, normalmente,
cuanto más actual sea su diseño más rápido será su funcionamiento.
Si realmente tenemos problemas de espacio en disco deberíamos pensar en una unidad tipo IDE Ultra DMA/33
o Ultra-2 SCSI.
Si nuestro bolsillo no admite este gasto una buena solución es la utilidad DriveSpace 3 que viene incluida con
la versión OSR2 de Windows 95, sobretodo si la complementamos con otra utilidad que se llama "agente de
compresión" y que viene con el IE4 o con el Microsoft Plus.
Multimedia: Es imprescindible contar con una unidad de CD-ROM, y muy recomendable una tarjeta de sonido
con sus altavoces y su micrófono.
La unidad de CD: si sólo la usamos para instalar programas y escuchar CD's de música cualquier unidad nos
sirve, aunque sea una 2X, pero si lo que pretendemos es ejecutar programas o leer datos directamente del CD,
entonces lo normal será contar con una unidad tipo 24X.
La tarjeta de sonido: es aconsejable que sea, como mínimo compatible Sound Blaster 16 a nivel de registros.
Si no disponemos de presupuesto y somos un poco manitas podemos realizar nosotros mismos un DAC, que
nos servirá como tarjeta de sonido, incluso podemos hacer dos y tener una tarjeta estéreo, conectándolo a
cualquier radiocasete que ya tengamos nos puede salir todo sin apenas coste. Eso sí, cada DAC necesita una
salida paralelo para conectarlo. Próximamente os explicará como construirlo y dónde conseguir los drivers
para Windows.
Diagnosticando
El primer paso es detectar cual es la avería , se debe realizar una tarea de diagnostico en base a los síntomas
que presenta el PC y no se trata de descartar uno por uno las posibles causas sino de utilizar diagramas de
flujo que nos permiten diagnosticar rápidamente el problema.
Los diagramas de flujo son diagramas de árbol que le permitirán hallar rápidamente cual es el problema .
Si cambiando la fuente el ordenador sigue sin encender debemos buscar otra causa : el interruptor y así
sucesivamente .
Debemos usar una serie de diagramas de flujo para la detección de averías, luego con la practica el técnico
memorizará fácilmente estos diagramas y se dirigirá rápidamente a diagnosticar efectivamente cual es la falla
de una computadora .
Para cada síntoma estándar o para los mas comunes que encierran el 90 % de los casos que se presentan hay
diagramas que permiten llegar rápidamente a detectar cual es la falla , además de que un técnico debe
conocer cuales son las averías más frecuentes que aparecen y comenzar a investigar por ellas como posibles
causas .
Por ejemplo en el caso anterior si una computadora es relativamente nueva ( 1 año o 1 año y medio) es raro
que el interruptor no funcione pero si es un ordenador que tiene cuatro años o mas es posible que el uso haya
descompuesto esta simple pieza así como otros contactos. El tipo de uso que se le de al PC es fundamental y
el tiempo de funcionamiento que el mismo tenga son dos variables fundamentales.
Hay averías de todo tipo : puede fallar la placa madre , la placa de video , los chips de memoria ram , la
ventilación de microprocesador , etc . Cada falla de cada uno de estos componentes tiene sus síntomas
típicos, por ejemplo si se congela la pantalla o los programas se bloquean o funcionan inestablemente lo mas
probable es que se deba a una mala ventilación del microprocesador , si cambiando el ventilador o
aumentando su frecuencia no solucionamos el problema podemos estar ante un fallo de la placa madre o del
microprocesador en si mismo .
Reparando
Un vez que hemos hecho el diagnostico de la falla o fallas (ya que puede haber mas de una) debemos pasar a
la etapa de reparación . Todo técnico tiene que tener claro que es lo que es viable reparar y que es lo que es
aconsejable reemplazar . En si se reparan pocas cosas ya que la mayoría de los componentes son de
electrónica microscópica a la al cual no se le puede meter mano . Por ejemplo si un disco duro falla lo ultimo
que debemos hacer es desarmarlo por que es la manera segura de arruinarlo totalmente . Lo mismo puede
decirse del microprocesador , del cdrom , etc .
A lo que llamamos reparación es ,en el 80 –90 % de los casos , una sustitución de una pieza defectuosa por
una nueva mas un trabajo de configuración . La computadora no es como cualquier aparato eléctrico al cual
usted le reemplaza una pieza y ya queda pronto . A veces puede ser así pero muchas otras debe realizar una
tarea de configuración desde el sistema operativo para que este reconozca a la nueva pieza introducida .
La tarea de reparación de PCs incluye la configuración de software , principalmente del sistema operativo y de
controladores (pequeños archivos de configuración) de periféricos como impresoras, escanares, cámaras ,
redes, etc .Muchas veces el problema que presenta el ordenador puede ser solo un problema de configuración
de software lo cual no quiere decir que sea fácil de resolver . El técnico debe conocer como instalar y
configurar un sistema operativo .
Otra función del técnico en reparación de PC es la de actualizar ordenadores pero esto lo veremos en el
próximo boletín
Su computadora trabaja más de lo que usted cree. Está constantemente dando prioridad a las tareas,
ejecutando órdenes y distribuyendo la memoria. Es realmente sorprendente la eficacia de estos equipos. Sin
embargo, con el tiempo ocurren errores en el disco duro, los datos se desorganizan y las referencias se
vuelven obsoletas. Estos pequeños problemas se acumulan y ponen lento su sistema operativo, las fallas del
sistema y software ocurren con más frecuencia y las operaciones de encendido y apagado se demoran más.
Para que su sistema funcione adecuadamente e incluso para que sobre todo no se ponga tan lento, programe
un horario de mantenimiento mensual. Asegúrese de incluir estas labores en su rutina:
− Explore el disco duro para saber si tienen errores y solucionar los sectores alterados
− Desfragmente el disco duro
− Elimine las entradas de registro inválidas y los accesos directos dañados
Norton SystemWorks™ tiene todas las herramientas que necesita para programar y realizar cada una de estas
tareas. También puede utilizar Speed Disk™ y Norton Disk Doctor™ para desfragmentar y explorar los discos
duros y Norton Win Doctor™ que es una herramienta excelente para mantener su sistema operativo de
Windows en buen estado.
Mantenimiento de rutina
Para garantizar una experiencia informática eficaz y placentera, mantenga su computadora limpia y bien
organizada. Elimine los programas antiguos y las unidades de disco para liberar la memoria y reducir la
posibilidad de conflicto del sistema. Si elimina los archivos antiguos y temporales, abre espacio para el trabajo
importante actual. Además, entre más pocos archivos innecesarios tenga en su computadora, estará más
protegido de amenazas como el hurto de la identidad en Internet. Además de la limpieza digital, es también
importante utilizar productos de limpieza para la parte física de las computadoras. Si se deja la suciedad y el
polvo por mucho tiempo, se pueden acumular y causar daño al hardware. Así que saque tiempo todos los
meses para realizar las siguientes labores:
Las fallas de los sistemas suceden así como los cortes de luz. Y algunas veces, no importa qué tanto cuidado
tenga, inadvertidamente borra los archivos. Haga copias de respaldo de su sistema con frecuencia para
garantizar que nunca pierda la información. Recomendamos hacer copias de respaldo una vez al mes y guarde
por lo menos dos copias: una para la casa y la otra para otro sitio. Por ejemplo, puede hacer las copias en dos
CDs y mantener uno en la casa y el otro en el trabajo. O si trabaja en la casa, use un servicio de Internet para
almacenar remotamente su información. De esa manera, si sufre un incendio, inundación o hurto, su
información estará protegida y guardada en un servidor remoto.
Si no ha creado un disco de arranque del sistema aún, debe hacerlo. Con un disco del sistema, usted puede
iniciar su computadora desde otra unidad de disco si no la puede arrancar desde el disco duro. Si ha instalado
y configurado Norton SystemWorks, puede usar el CD de Norton SystemWorks como disco de arranque.
Aquellas personas que tengan la oficina en la casa o redes extendidas de hogar pueden invertir en
herramientas de recuperación como Norton Ghost™ o GoBack™ 3 Deluxe. Con Norton Ghost usted puede
crear una replica exacta de todo el sistema, incluyendo toda la información, la configuración del sistema y las
preferencias. Si su sistema es alterado, puede usar su copia de respaldo de Ghost para recuperar fácilmente
todo el sistema, exactamente como era. O, si quiere agregar una computadora a su red del hogar, puede usar
la imagen de Ghost para poner en Internet otra computadora, totalmente preconfigurada. GoBack3 Deluxe
brinda una forma de rastrear y recuperar los archivos o configuración críticos. De manera transparente, rastrea
los cambios que usted hace y si la información o el sistema son alterados, recuperará sus archivos y
configuración hasta un punto determinado de su historia. Incluso si usted está usando estas herramientas, no
ignore estas y otras tareas básicas de respaldo.
Además de los controles periódicos de seguridad, usted también debe revisar la configuración de la seguridad
cuando haga un cambio importante al sistema. Por ejemplo, si ha pasado recientemente a un servicio de
Internet por cable o DSL, debe volver atrás para reevaluar su situación de seguridad. Podía encontrar que debe
tomar nuevas precauciones, como agregar un firewall personal a la configuración. Si dedica tiempo a realizar
evaluaciones periódicas de seguridad y a las siguientes tareas de rutina, su computadora permanecerá
protegida y segura.
− Ejecute una exploración antivirus semanalmente con el programa confiable de protección antivirus
Norton AntiVirus de Symantec
− Asegúrese de que todas sus herramientas de seguridad incluyendo las definiciones de virus están
actualizadas
− Si tiene un firewall o un programa completo de seguridad como Norton Internet Security, revise sus
preferencias y la configuración para garantizar que corresponden a su situación de seguridad
− Ejecute la herramienta de diagnóstico de la seguridad en su sistema para garantizar que tiene la
protección que necesita
Casi todas las partes de su computadora requieren cuidado ocasional, desde la desfragmentación del disco
duro hasta el análisis de la seguridad y limpieza del monitor y ratón. Si no programa un horario periódico, es
probable que nunca logre hacer muchas de estas tareas. Use este artículo para crear una rutina completa de
mantenimiento y sígala por lo menos una vez al mes. El resultado será una computadora sana, confiable y
segura.
Desde el punto de vista del rendimiento y la seguridad, la actualización de su software y sistema operativo es
tan importante como mantenerlos limpios. La nueva realidad digital es un mundo en constante evolución y
mejoramiento donde tener la última tecnología es una clara ventaja. Para estar actualizado, verifique las
actualizaciones o mejoras de software cada vez que realice el mantenimiento del sistema. También debe
verificar sus suscripciones y licencias para asegurarse de que no están vencidas. Esto es especialmente
importante para las suscripciones de seguridad. Las amenazas a la seguridad están en constante movimiento.
Nuevos virus y métodos de penetración aparecen todos los días y usted debe actualizar sus herramientas de
seguridad para estar protegido. La próxima vez que realice el mantenimiento ordinario del sistema, agregue
estos aspectos en su lista.
− Actualice su software y sistema operativo, prestando especial atención a los parches de seguridad
− Renueve los servicios de suscripciones vencidas de software
− Asegúrese de actualizar su software favorito con la última versión
Mantenimiento de la seguridad
Ahora más que nunca, debe incluir un control exhaustivo a la seguridad en su rutina de mantenimiento. El
control de seguridad debe por lo menos hacer una exploración antivirus y una actualización de las definiciones
de virus. También debe revisar que la configuración de su software de seguridad esté activada y funcionando
de manera adecuada. Además de estas tareas básicas, podría utilizar una herramienta como Symantec™
Security Check para realizar un control total a la seguridad. Symantec Security Check es un servicio en la Web
gratuito que también viene en productos como Norton Internet Security™ , identifica los vacíos de seguridad
que tiene su sistema y ofrece sugerencias para solucionarlos.
• Plan de actualización
Tanto si piensa montar un ordenador desde cero, como si quiere instalar una tarjeta de sonido o un nuevo
disco duro, conviene que tenga en cuenta ciertas precauciones y formas de actuar, no sea que por ahorrarse
5.000 pesos de mano de obra acabe gastando 20.000 en una nueva placa o micro...
Material necesario
− un destornillador de punta de tamaño medio o grande, para los tornillos de la carcasa y los que
sujetan las tarjetas de expansión;
− destornilladores planos en varios tamaños, desde medio hasta alguno pequeño de no más de 2 a 3
mm de ancho (de los llamados "de relojería");
− pinzas para manejar los "jumpers" y llegar a lugares de difícil acceso;
− material de escritura (bloc, bolígrafo).
− un tester o multímetro, preferiblemente digital, para comprobar los voltajes y amperajes de la fuente
de alimentación y demás periféricos;
− pelacables y/o cuchilla (cutter);
− soldador de electrónica (sólo para expertos en su uso);
− alicates o tenazas (aunque no sea deseable, a veces no queda más remedio que usarlos...);
− cualquier otra cosa que se le ocurra: llave inglesa, cables eléctricos con pinzas, clips (sí, de los de
oficina), pegamento extra rápido, chapas de metal... ¡Nunca se sabe qué va a ser útil!
Consejos fundamentales
O, si lo prefiere, los Mandamientos de la Actualización. Si le ocurre alguna desgracia que no esté prevista aquí,
¡me arranco la barba!, como diría el capitán Haddock.
Resumiendo: crea fervientemente en la Ley de Murphy y actúe en consecuencia. Para los que desconozcan
dicha ley, allá van unos cuantos enunciados:
El último de estos enunciados es de oscuro y termodinámico origen, aunque tiemblo de pensar lo que diría mi
profesor de Termodinámica si me oyera enunciarlo así...
Aunque muchos se olviden, y otros puedan pensar que es una pérdida de tiempo, la limpieza de nuestro
equipo de computación contribuye enormemente a prolongar su vida útil. Es por ello que es importante
adoptar esa sana costumbre, y dedicarles algunos minutos al cuidado cotidiano.
Muchos de los accidentes más comunes ocurren como consecuencia de descuidos; otros, ni siquiera
alcanzamos a percibirlos. Un vaso de agua derramado sobre el teclado o restos de comida que caen, pueden
llevarnos a adoptar una actitud más cuidadosa; pero el polvo que se levanta cuando limpiamos, la ceniza del
cigarrillo, y otras pequeñas partículas difíciles de ver, contribuyen con su acción casi invisible a ocasionar fallas
en la computadora sin que lleguemos a darnos cuenta.
El pequeño tamaño de la mayoría de estas partículas les permite meterse, sin mayores inconvenientes, dentro
de los teclados, del monitor y la impresora, adherirse a la pantalla y diseminarse por el interior de la unidad
Entonces, para un buen mantenimiento de la PC, conviene empezar por medidas de tipo preventiva: mientras
menos se ensucie nuestro equipo, menores serán las posibilidades de un mal funcionamiento. Aunque esto
pueda parecer obvio, no todo el mundo toma los recaudos necesarios.
Es fundamental, para evitar que penetre el polvo, ponerle una funda de plástico a cada una de las partes. Si al
comprar su computadora no recibió estos elementos de protección, puede adquirirlos en cualquier casa de
computación. Hay kits que incluyen fundas para el teclado, el monitor y el gabinete por un precio que no
supera los 15 pesos.
Lo ideal es limpiar la máquina cada 20 días aproximadamente. Antes de comenzar con la tarea no olvide
desenchufar el equipo, porque si bien los productos que se utilizan no son líquidos, conviene siempre evitar la
posibilidad de algún cortocircuito.
Cada uno de los componentes requiere una atención especial, y la hora de realizar la limpieza deberemos
hacerla con cada elemento por separado. Así como el funcionamiento del mouse, el teclado y el monitor son
distintos, también debe serlo el mantenimiento que le hagamos.
Teclado
Por el contacto permanente con las manos y dadas sus características de construcción, el elemento que más
sufre la suciedad es el teclado. Para eliminar el polvo acumulado deberemos tomarlo por los bordes, darlo
vuelta y sacudirlo. Con esto caerá la mayor parte de la suciedad, para eliminar el resto y que generalmente
queda atrapada entre las teclas, hay que utilizar un soplador de alta presión o una pistola de aire a presión.
Luego habrá que limpiar tecla por tecla con una gamuza seca y espuma limpiadora. Para sacar las teclas de su
lugar (imprescindible para hacer el trabajo correctamente) se empujan hacia arriba con lo que se consigue
desprenderlas. Si tenemos problemas con las primeras (ya que a veces es difícil agarrarlas) habrá que utilizar
un destornillador a modo de palanca. Para limpiar el mouse hay que darlo vuelta y girar la tapa que sostiene
la bolilla (en el sentido de las flechas) con lo que se consigue sacarla. Una vez hecho esto, hay que pasar un
hisopo con alcohol a los rodillos. Hay ocasiones, especialmente cuando llevamos mucho tiempo sin limpiarlo,
en que además deberemos raspar suavemente la superficie de los rodillos para conseguir elimiminar toda la
suciedad.
Para la impresora se utiliza una pistola de aire presurizado, y el cabezal de las disqueteras (que es el que lee la
información que hay en el disco) se limpia con disquetes específicos para esa tarea.
Todos estos elementos, desde las fundas, las pistolas de aire presurizado, las espumas limpiadoras hasta los
disquetes se venden en los comercios de computación.
Mantener limpia la computadora es importante para reducir las causas por las que puede fallar el equipo. La
prevención en esto (dejar tapados los elementos cuando no los usamos) es fundamental.
Competencias Analítica
Promover habilidades cognitivas que les permitan utilizar hábitos y técnicas de estudio que potencialicen su
estilo de aprendizaje.
Cuando estamos dispuestos a invertir nuestros ahorros en un equipo, lo primero que solemos hacer es visitar
varias tiendas y pedir presupuestos. Sin embargo, normalmente olvidamos pedir que especifiquen cada uno
de los componentes de nuestro equipo, a ser posible por escrito, para poder hacer una comparación de
precios en función del equipamiento y características de cada uno
El ciclo de vida de los ordenadores personales es demasiado corto: un equipo comprado hace un mes, ya no
es el más puntero: habrán surgido nuevos procesadores, nuevas tarjetas gráficas, memorias, etc.
Resumiendo: crea fervientemente en la Ley de Murphy y actúe en consecuencia. Para los que desconozcan
dicha ley, allá van unos cuantos enunciados:
El último de estos enunciados es de oscuro y termodinámico origen, aunque tiemblo de pensar lo que diría
mi profesor de Termodinámica si me oyera enunciarlo así...
Aunque muchos se olviden, y otros puedan pensar que es una pérdida de tiempo, la limpieza de nuestro
equipo de computación contribuye enormemente a prolongar su vida útil. Es por ello que es importante
adoptar esa sana costumbre, y dedicarles algunos minutos al cuidado cotidiano.
Muchos de los accidentes más comunes ocurren como consecuencia de descuidos; otros, ni siquiera
alcanzamos a percibirlos. Un vaso de agua derramado sobre el teclado o restos de comida que caen, pueden
llevarnos a adoptar una actitud más cuidadosa; pero el polvo que se levanta cuando limpiamos, la ceniza del
cigarrillo, y otras pequeñas partículas difíciles de ver, contribuyen con su acción casi invisible a ocasionar
fallas en la computadora sin que lleguemos a darnos cuenta.
Competencias de Información
Identificará el alumno como los medios de información como el Internet, periódico, boletines , revistas entre
otros nos permiten realizar un mercadeo para establecer el costo competitivo de un producto en el mercado,
esto con la finalidad de que se tomen decisiones oportunas en las empresas.
Buscar fuentes de información bibliográfica, hemerográfica, Internet y videotecas que amplíe el acervo de
conocimientos.
El alumno:
Consultará en la página de Internet: http://www.conozcasuhardware.com/actualiz/index.htm para obtener
información técnica de varios tipos de hardware existentes en el mercado.
• Internos
− Memoria RAM
1. RAM,
2. ROM
3. MEMORIA VIRTUAL.
Memoria RAM
Es la memoria de acceso aleatorio (Random Access Memory). Se llama de acceso aleatorio porque el
procesador accede a la información que está en la memoria en cualquier punto sin tener que acceder a la
información anterior y posterior.
Es la memoria que se actualiza constantemente mientras el ordenador está en uso y que pierde sus datos
cuando el ordenador se apaga.
DRAM
Es la memoria de acceso aleatorio dinámica (Dynamic Random Access Memory). Está organizada en
direcciones de memoria (Addresses) que son reemplazadas muchas veces por segundo.
Es la memoria de trabajo, por lo que a mayor cantidad de memoria, más datos se pueden tener en ella y más
aplicaciones pueden estar funcionando simultáneamente, y por supuesto a mayor cantidad mayor velocidad
de proceso, pues los programas no necesitan buscar los datos continuamente en el disco duro, el cual es
muchísimo más lento.
La memoria RAM dinámica puede ser de diferentes tipos de acuerdo con su tecnología de fabricación: FPM,
EDO, SDRAM, BEDO y más recientemente RDRAM. Además, cualquiera de los tipos anteriores puede
presentarse en módulos de memoria SIN PARIDAD, CON PARIDAD o de tipo ECC.
Los módulos de memoria CON PARIDAD (parity) se distinguen porque tienen un número impar de chips. El
chip que hace el número par no es de memoria, sino que es el chip de paridad, que se utiliza para comprobar
el flujo de datos y eliminar los errores que se pueden producir. Este tipo de módulos se usan especialmente en
ordenadores que funcionan como servidores, por la necesidad que existe de mantener la integridad de los
datos t porque el precio de éstos módulos es muy superior a los módulos sin paridad, por que sería muy
costoso para usuarios domésticos.
Los módulos de memoria ECC (Error Correction Code) se usan también en servidores y poseen otro método
diferente de corrección de errores, aunque más preciso que el anterior. La diferencia consiste en que en los
módulos con paridad se compara cada byte antes y después de pasar por la DRAM y si se detecta un error se
pierde la información y se repite el proceso, pero no se sabe dónde ocurrió el error. En los módulos ECC los
errores se detectan con mayor precisión y además se pueden corregir los errores, por eso esta última
tecnología es más cara.
En los módulos de memoria SIN PARIDAD, no se detectan los errores y los datos se procesan como si no
hubiese ocurrido nada, con la consiguiente corrupción de datos que se produce ocasionalmente en los
equipos sin saber por qué o por qué no.
Su nombre procede del modo en que transfiere los datos, llamado paginamiento rápido. Es la memoria
normal, no EDO, y era el tipo de memoria más popular hasta hace aproximadamente un año. Era el tipo de
Mientras que la memoria tipo FPM sólo podía acceder a un solo byte (una instrucción o valor) de información
de cada vez, la memoria EDO permite mover un bloque completo de memoria a la caché interna del
procesador para un acceso más rápido por parte de éste. Su mayor calidad le hizo alcanzar velocidades de
hasta 45 ns, dejando satisfechos a los usuarios de los ordenadores Pentium, Pentium Pro, y los primeros
Pentium II que demandan mayor velocidad de proceso. Su compatibilidad es muy alta y su precio muy bajo, lo
que la ha convertido en la opción más popular aún hoy en día. Se presenta en módulos SIMMde 72 contactos
(32 bits) y módulos DIMM (Dual In-line Memory Modules)de 168 contactos (64 bits - el formato DIMM no
debe confundirse con la memoria SDRAM, de la que hablaremos a continuación)
Es un tipo síncrono de memoria, que, lógicamente, se sincroniza con el procesador, es decir, el procesador
puede obtener información en cada ciclo de reloj, sin estados de espera, como en el caso de los tipos
anteriores. La memoria EDO está pensada para funcionar a una velocidad máxima de BUS de 66 Mhz (la
máxima velocidad de bus de los procesador de Intel y el doble de la del BUS PCI), llegando a alcanzar 75MHz y
83 MHz ( necesarias para algunos procesadores de CYRIX, ¡¡o para hacer OVERCLOCKING!!) en los módulos de
45 y 50ns, aunque con cierta inestabilidad. Sin embargo, la memoria SDRAM puede aceptar velocidades de
BUS de hasta 100 MHz, lo que dice mucho a favor de su estabilidad y ha llegado a alcanzar velocidades de 10
ns. Se presenta en módulos DIMM de 168 contactos (64 bits). El ser una memoria de 64 bits, igual que los
procesadores Pentium, Pentium Pro y Pentium II, implica que no es necesario instalar los módulos por parejas
de módulos de igual tamaño, velocidad y marca ( esto último muy recomendable y casi siempre
imprescindible).
Este tipo de memoria sólo es soportado por los chipsets 82430VX y 82430TX de Intel para Pentium y 82440LX
de Intel para Pentium II, y los chipsets 580VP, 590VP y 680VP de VIA Technologies.
PC-100 DRAM
Este tipo de memoria, en principio con tecnología SDRAM, aunque también la habrá EDO, cumple las
especificaciones establecidas por INTEL para el correcto y estable funcionamiento de la memria RAM con el
nuevo bus de 100MHz implementado en su chipset 440BX. La especificación para este tipo de memoria se
basa sobre todo en el uso no sólo de chips de memoria de alta calidad, sino también en circuitos impresos de
alta calidad de 6 o 8 capas, en vez de las habituales 4; en cuanto al circuito impreso este debe cumplir unas
tolerancias mínimas de interferencia eléctrica; por último, los ciclos de memoria también deben cumplir unas
especificaciones muy exigentes. De cara a evitar posibles confusiones, los módulos compatibles con este
estándar deben estar identificados así: PC100-abc-def.
Fue diseñada originalmente para el conjunto de chipsets de Intel 82430HX para soportar mayores velocidades
de BUS. Al igual que la memoria SDRAM, esta memoria es capaz de transferir datos al procesador en cada
ciclo de reloj, pero no de forma continuada, como la anterior, sino a ráfagas (bursts), reduciendo, aunque no
suprimiendo totalmente, los tiempos de espera del procesador para escribir o leer datos de memoria.
Es un tipo de memoria de 64 bits que puede producir ráfagas de 2ns y puede alcanzar tasas de transferencia
de 533 MHz, con picos de 1,6 GB/s. Pronto podrá verse en el mercado y es posible que tu próximo equipo
tenga instalado este tipo de memoria. Es el complemente ideal para las tarjetas gráficas AGP, evitando los
cuellos de botella en la transferencia entre la tarjeta gráfica y la memoria de sistema durante el acceso directo
a memoria (DIME) para el almacenamiento de texturas gráficas. Hoy en día la podemos encontrar en las
consolas NINTENDO 64, pero el problema de este tipo de memoria es que los fabricantes, a diferencia de la
DDR RAM y la SLDRAM que son arquitecturas abiertas, deben pagar derechos a Intel. Este tipo de memoria
será lanzada al mercado por SAMSUNG e HITACHI en breve, y está apoyada por INTEL, que incluirá soporte
para este tipo de memoria en sus próximos chipsets. Se esperan los primeros módulos de este tipo de
memoria para principios de 1998.
Funcionará a velocidades de 83, 100 y 125MHz, pudiendo doblar estas velocidades en la transferencia de
datos a memoria. En un futuro, esta velocidad puede incluso llegar a triplicarse o cuadriplicarse, con lo que se
adaptaría a los nuevos procesadores y a bus AGP 100Mhz x2 y x4. Este tipos de memoria tiene la ventaja de
ser una extensión de la memoria SDRAM, con lo que facilita su implementación por la mayoría de los
fabricantes, aunque no disponga del apoyo de INTEL, y además. al ser una arquitectura abierta, no habría que
pagar derechos a Intel ni a otro fabricante. Su principal problema es el apoyo de Intel a la RDRAM.
Actualmente VIA, con su chipset MVP3, soporta memoria DDR DRAM. Fujitsu ha anunciado los primeros
módulos de este tipo de memoria con velocidad de 200MHz para finales de 1998.
SLDRAM
Funcionará a velocidades de 400MHz, alcanzando en modo doble 800MHz, con transferencias de 800MB/s,
llegando a alcanzar 1,6GHz, 3,2GHz en modo doble, y hasta 4GB/s de transferencia. Se cree que puede ser la
memoria a utilizar en los grandes servidores por la alta transferencia de datos. Su problema, al igual que en la
DDR SDRAM es la falta de apoyo por parte de Intel. SIEMENS y MICRON van a empezar a producir memoria
SLDRAM. Se esperan los primeros módulos de este tipo de memoria para principios de 1998.
ESDRAM
Este tipo de memoria es apoyado por ALPHA, que piensa utilizarla en sus futuros sistemas. Funciona a
133MHz y alcanza transferencias de hasta 1,6 GB/s, pudiendo llegar a alcanzar en modo doble, con una
velocidad de 150MHz hast 3,2 GB/s. El problema es el mismo que el de las dos anteriores, la falta de apoyo, y
en este caso agravado por el apoyo minoritario de ALPHA, VLSI, IBM y DIGITAL.
La memoria FPM (Fast Page Mode) y la memoria EDO también se utilizan en tarjetas gráficas, pero existen
además otros tipos de memoria DRAM, pero que SÓLO de utilizan en TARJETAS GRÁFICAS, y son los
siguientes:
SRAM
Memoria estática de acceso aleatorio (Static Random Access Memory) es la alternativa a la DRAM. No necesita
tanta electricidad para su refresco y reemplazo de las direcciones y funciona más rápido porque no está
reemplazando constantemente las instrucciones y los valores almacenados en ella. La desventaja es su altísimo
coste comparado con la DRAM. Puede almacenar y recuperar los datos rápidamente y se conoce normalmente
como MEMORIA CACHE.
Hay dos tipo de memoria caché: L1 (level 1 - primer nivel) y L2 (level 2 - segundo nivel). La caché L1 va
incorporada en el procesador y la caché L2 es una pieza externa, aunque en el Pentium Pro y en el DEC Alpha
también va integrada en el procesador y el el Pentium II va en la tarjeta del procesador . En estos tres últimos
casos, algo menos en el último de ellos, la velocidad de la caché L2 es aún mayor que en el caso de ser una
pieza externa (como en los procesadores Pentium de Intel, y los de AMD y Cyrix) porque la caché no pasa por
una línea de BUS y opera a la misma velocidad que el procesador (la mitad en el caso del Pentium II).
La memoria caché es una capa intermedia entre la memoria DRAM y el procesador, y en ella se guarda un
registro de las direcciones de memoria utilizadas recientemente y los valores que contienen. Cuando el
procesador pide acceso a la memoria la dirección y el valor están en la caché, pero si no lo están lo copiará de
la memoria y reemplazará el antiguo valor con éste. De este modo el procesador puede acceder con mayor
rapidez a los datos más utilizados y se aceleran todos los procesos.
Al ser mucho más rápida la caché L1, un mayor tamaño implica una mayor velocidad de proceso, como es el
caso entre los procesadores Pentium clásicos (16Kb de caché L1) y los Pentium MMX (32 Kb de caché L1), o los
procesadores K6 de AMD y los procesadores CYRIX con extensiones MMX (64Kb de caché L1). La ausencia de
caché L2 afecta negativamente a las prestaciones del equipo, pero la diferencia entre 256Kb y 512Kb (o
incluso 2Mb en las placas con chipset VIA) es en torno a un 5%, excepto si se utiliza un sistema operativo
como WINDOWS NT, OS/2 o UNIX, donde los requerimientos de memoria son muy altos y donde se necesitan
almacenar gran cantidad de datos de memoria en la caché. Esta necesidad puede existir también con
WINDOWS 98 (¡O cómo quiera que se llame finalmente!)
− The Asynchronous Static RAM (Async SRAM): la antigua caché de los 386, 486 y primeros Pentium,
más rápida que la DRAM pero que provoca igualmente estados de espera en el procesador. Su
velocidad es de 20 ns, 15 ns 0 12 ns.
− The Synchronous Burst Static RAM (Sync SRAM):es la mejor para un bus de 66MHz y puede sinsronizar
la velocidad de la caché con la velocidad del procesador. Su velocidad es de 8.5 ns a 12 ns
− The Pipelined Burst Static RAM (PB SRAM): funciona de manera continuada sincronizada con el
procesador a velocidades de hasta 133 MHz. Tarda un poco más en cargar los datos que la anterior,
pero una vez cargados, el procesador puede acceder a ellos con más rapidez. Su velocidad es de 4.5
ns a 8 ns.
Tag RAM
Este tipo de memoria almacena las direcciones de cualquier dato de memoria DRAM que hay en la memoria
caché. Si el procesador encuentra una dirección en la TAG RAM, va a buscar los datos directamente a la caché,
si no, va a buscarlos directamente a la memoria principal.
Memoria ROM
Es una memoria de sólo lectura (Read Only Memory) en la que no se puede escribir como la RAM, y que
guarda la información almacenada en ella incluso después de apagar el equipo. También se puede acceder a
este tipo de memoria de forma aleatoria.
La configuración de la BIOS de la placa base, asi como la configuración de los distintos dispositivos instalados
en el equipo se guarda en memoria ROM. A la información de los dispositivos escrita en la memoria ROM de
cada uno de ellos se llama FIRMWARE.
La ROM estándar se escribe durante el proceso de fabricación de un componente y nunca puede cambiarse.
Sin embargo existen algunos tipos de memoria ROM que pueden cambiarse:
Memoria Virtual
Es una manera de reducir el acceso constante a memoria por parte del procesador.
En este caso, el procesador toma una parte del disco duro y la convierte en memoria RAM. Es decir, se utiliza
el disco duro para almacenar direcciones de memoria, y aunque el disco duro es mucho más lento que la
memoria RAM (10-15 milisegundos para un disco duro moderno frente a 70-10 nanosegundos para la
memoria actual), es mucho más rápido tomar los datos en formato de memoria virtual desde el disco duro
que desde las pistas y sectores donde se almacenan los archivos de cada programa.
− Tarjeta Madre
Una primera distinción la tenemos en el formato de la placa, es decir, en sus propiedades físicas.
Dicho parámetro está directamente relacionado con la caja, o sea, la carcasa del ordenador.
− El siguiente parámetro es el tipo de bus. Hoy en día el auténtico protagonista es el estandar PCI de 32
bits en su revisión 2.1, pero también es importante contar con alguna ranura ISA de 16 bits, pues
algunos dispositivos como módems internos y tarjetas de sonido todavía no se han adaptado a este
estándar, debido básicamente a que no aprovechan las posibilidades de ancho de banda que éste
posee.
Tambien existe un PCI de 64 bits, aunque de momento no está muy visto en el mundo PC.
− Otros tipos de bus son el ISA de 8 bits, no usado ya por ser compatible con el de 16 bits, el EISA,
usado en algunas máquinas servidoras sobre todo de Compaq, el VL-Bus, de moda en casi todos los
486, o el MCA, el famoso bus microcanal en sus versiones de 16 y 32 bits patrocinado por IBM en sus
modelos PS/2.
− Otra característica importante es el formato y cantidad de zócalos de memoria que admite. En parte
viene determinado por el chipset que utiliza. La más recomendable es la DIMM en formato SDRAM y
como mínimo 3 zócalos. En el caso de módulos SIMM de 72 contactos el mínimo es de 6 (recordad
que van de 2 en 2).
ATX:
El estándar ATX es el más moderno y el que mayores ventajas ofrece. Está promovido por Intel, aunque es una
especificación abierta, que puede ser usada por cualquier fabricante sin necesidad de pagar royalties. La
versión utilizada actualmente es la 2.01.
Entre las ventajas de la placa cabe mencionar una mejor disposición de sus componentes, conseguida
básicamente girandola 90 grados. Permite que la colocación de la CPU no moleste a las las tarjetas de
expansión, por largas que sean. Otra ventaja es un sólo conector de alimentación, que además no se puede
montar al revés.
La CPU está colocada al lado de la F.A. (Fuente de Alimentación) para recibir aire fresco de su ventilador.
Los conectores para los dispositivos IDE y disqueteras quedan más cerca, reduciendo la longitud de los cables
y estorbando menos la circulación del aire en el interior de la caja.
Además de todas estas ventajas dicho estandar nos da la posibilidad de integrar en la placa base dispositivos
como la tarjeta de video o la tarjeta de sonido, pero sacando los conectores directamente de la placa,
dándonos un diseño más compacto, y sin necesidad de perder ranuras de expansión.
Así podemos tener integrados los conectores para teclado y ratón tipo PS/2, serie, paralelo o USB que son
habituales en estas placas, pero también para VGA, altavoces, micrófono, etc... sin apenas sacrificar espacio.
Baby AT:
Este formato está basado en el original del IBM PC-AT, pero de dimensiones más reducidas gracias a la mayor
integración en los componentes de hoy en día, pero físicamente compatible con aquel.
Aún hoy en día es el más extendido. En este tipo de placas es habitual el conector para el teclado 'gordo'
Entre sus ventajas cabe destacar el mejor precio tanto de éstas como de las cajas que las soportan, aunque
esta ventaja desaparecerá a medida que se vaya popularizando su contrincante.
Leyendo las ventajas de las placas ATX se pueden entrever los inconvenientes de dicha arquitectura.
Fácilmente se puede afirmar que el componente más importante en un sistema PC es la tarjeta principal o
tarjeta madre.
Algunas compañías, como IBM, se refieren a la tarjeta madre como tarjeta del sistema o tarjeta plana. Los
términos tarjeta madre, tarjeta principal, tarjeta del sistema o tarjeta plana se emplean indistintamente.
Algunos fabricantes han ido tan lejos como para hacer sus sistemas tan incompatibles físicamente con otros
sistemas como sea posible, de tal suerte que las refacciones, reparaciones y actualizaciones son prácticamente
imposibles de encontrar o realizar - excepto, por supuesto, con el fabricante original del sistema, a un precio
significativamente más alto del que costaría la parte equivalente en un sistema estándar.
Por ejemplo, si falla la tarjeta madre en chasis AT actual (o cualquier sistema que utilice una tarjeta madre y
gabinete Baby-AT), se puede encontrar un sin número de tarjetas de reemplazo que se ajustarán
directamente, con su propia selección de procesadores y velocidades de reloj, a muy buen precio. Si falla la
tarjeta madre en una computadora reciente de IBM, Compaq, Hewlett - packard, Packard Bell, Gateway, AST u
otro sistema con características propias, usted pagara por una refacción disponible sólo con el fabricante
original y tendrá poca o ninguna oportunidad para seleccionar un procesador más rápido o mejor que el que
falló.
En otras palabras, actualizar o reparar estos sistemas mediante sustitución de la tarjeta madre es difícil y por
lo regular no es costeable.
Criterios de selección.
El objetivo consiste en asegurar que el sistema seleccionado sea verdaderamente compatible y tenga por
delante una larga vida de servicio y actualizaciones.
Los primeros elementos de la lista son los más importantes y los que se encuentran el final tienen quizás
menor importancia (aunque son todos importantes).
- Procesador.
Una tarjeta madre Pentium debe utilizar como mínimo la segunda generación 3.3v de procesadores Pentium,
la cual tiene una configuración Socket 5 o Socket 7 de 296 pins, la cual difiere físicamente del diseño de
primera generación Socket 4 de 273 pins.
Las tarjetas madre con la configuración Socket 7 también manejan los recientes procesadores con la
tecnología MMX, incluyendo a los K6 de AMD.
Todos los Pentium de segunda generación (75 MHZ y superiores) tienen por completo las mejoras SL.
Los mas recientes Procesadores Pentium Pro y Pentium II tienen configuraciones propias, únicas de tarjeta
madre y por ello no son compatibles con otras tarjetas madre basadas en Pentium.
Sockets de procesador.
Una tarjeta madre Pentium debe tener por lo menos un Socket ZIF que siga la especificación Socket 7 (321
pins) de Intel.
Este Socket, con uno adyacente para el VRM (Módulo Regulador de Voltaje), permitiría que seleccionen
futuros procesadores Pentium disponibles a velocidades más altas.
Aunque el Socket 5 es similar al Socket 7, muchos de los más recientes y rápidos Pentium -incluyendo los
procesadores equipados con MMX - requieren del Socket 7.
Las tarjetas madre Pentium Pro (P6) usan el Socket 8 y muchas están preparadas para admitir varios
procesadores. Antes de incurrir en el gasto de comprar una tarjeta de procesadores múltiples, asegúrese de
que su sistema operativo pueda manejarla.
Observe que todos los procesadores Pentium y Pentium Pro que se venden hoy en día operan a un múltiplo de
velocidad de la tarjeta madre. Por ejemplo, el Pentium 75 opera a una velocidad de tarjeta madre de 50 MHZ;
los chips Pentium de 60, 90, 120, 150 y 180 MHZ operan a una velocidad base de la tarjeta madre de 60 MHZ;
y los Pentium de 66, 100, 133, 166 y 200MHZ operarán para una configuración de la velocidad de 66 MHZ de
la tarjeta madre.
Los Pentium Pro 150, 180, y 200 operan a velocidades de 50, 60 y 66 MHZ, respectivamente. Todos los
componentes de la tarjeta madre (en especial la memoria caché) deben estar habilitados para operar a la
máxima velocidad permisible de la tarjeta madre.
El caché de nivel 2 debe ser de diseño de escritura -hacia -atrás y debe contener chips lo suficientemente
rápidos para manejar la velocidad máxima de tarjetas madre, lo que implica 15 ns o mas rápidos para
velocidades máximas de tarjetas madre de 66 MHz.
Para la tarjetas Pentium Pro, el caché debe ser de tipo SRAM Síncrona (RAM estática), a la que también se le
denomina SRAM en ráfaga por conductos.
Memoria RAM
Todas las tarjetas madre Pentium y Pentium Pro deben emplear ya sea SIMMs (Modulo sencillo de memoria en
línea) de 72 pins, o bien DIMMs(Modulo Dual de Memoria en líneas) de 168 pins.
Debido al diseño de 64 bits de estas tarjetas, los SIMMs de 72 pins deben instalarse por pares, mientras que
los DIMMs se instalan uno a la vez uno por banco de 64 bits.
Considere con cuidado la cantidad total de memoria que puede manejar la tarjeta. Mientras que se considera
que 16 Mb son apenas el mínimo para las aplicaciones consumidoras de memorias de hoy en día, en realidad
podría requerir mucho más.
Las tarjetas madre Pentium deben de manejar un mínimo de 128 Mb, y muchas tarjetas Pentium II actuales
¡manejan mas de 1 Gb¡ Una tarjeta madre debe contener por lo menos cuatro conectores de memoria (de 72
o 168 pins, o una combinación) y entre más, mejor.
Para un máximo desempeño, busque sistema que manejen SIMMs/DIMMs de tipo SDRAM (DRAM Sincrona) o
EDO (salida de Datos Ampliada). Los SIMMs deberán tener una velocidad de 70 ns o más.
Lo ideal en los sistemas de misión crítica es que usen SIMMs de paridad y asegurarse de que la tarjeta madre
maneje por completo la verificación de paridad o incluso también el ECC Código de corrección de errores.
Observe que el popular conjunto de chips Tritón Pentium de Intel (82439 NX) y él más reciente Tritón Pentium
de Intel (82430FX) no maneja ninguna verificación de paridad, pero sus otros conjuntos de chips Pentium,
como el anterior Neptuno (82439NX) y él más reciente tritón II (82430 HX) en efecto ofrece el manejo de la
paridad.
El Tritón II ofrece la capacidad ECC utilizando SIMMs estándar de paridad Todos los conjuntos de chips
Pentium Pro actuales manejan también paridad de memoria y son ideales para servidores y otros usos de
misión crítica cuando están equipados con SIMMs o DIMMs de paridad.
Tipo de bus.
Las tarjetas madre Pentium. Pentium Pro y Pentium II deben tener cuatro ranuras de bus ISA y tres o cuatro
ranuras de bus local PCI. Observar el diseño de las ranuras para asegurarse de que las tarjetas que se inserten
en ellas no bloqueen el acceso a los conectores de memoria, o queden bloqueadas por otros componentes del
gabinete.
El diseño del BIOS debe ser de ROM rápida (Flash ROM) o EEPROM (memoria Programable y borrable
Eléctricamente Solo de lectura), para una fácil actualización.
El BIOS debe manejar la especificación plug and Play, IDE, Mejorada o ATA rápida, así como unidades de disco
flexible de 1.44 Mb. Asimismo, dentro del BIOS debe estar integrado el manejo de APM (administración
Avanzada de corriente).
Se puede instalar en la más amplia variedad de diseños de gabinete y en la mayoría de los sistemas, es
ajustable. Para el mas alto desempeño y futura flexibilidad, muchas tarjetas madre y sistemas recientes
incorporan el nuevo factor de tamaño ATX, el cual tiene un desempeño distinto y ventajas funcionales sobre la
Baby - AT.
Interfaces integradas.
De manera ideal, una tarjeta madre debe contener tantos controladores e interfaces estándar integrados
como sea posible (con excepción del vídeo).
Una tarjeta madre debe tener integrado un controlador de disco flexible que maneje unidades de 1.44 Mb,
buses locales primario y secundario (bus PCI o VL) integrados; conectores IDE mejorados (también llamados
ATA rápidos); Dos puertos seriales integrados de alta velocidad (deben usar UARTs de tipo 16550 A con búfer);
y un puerto paralelo integrado de alta velocidad (compatible con EEP/ESP).
Algunos sistemas recientes, en particular los que tienen factor de forma ATX o NLX, deben incluir integrado
un puerto USB (Bus Serial Universal).
En el futuro próximo, los puertos USB se convertirán en un elemento "obligatorio " en los sistemas multimedia.
La tarjeta madre debe manejar por completo la especificación PnP de Intel. Esto permite la configuración
automática de adaptadores PCI, así como de adaptadores ISA PnP.
Administración de corriente.
La tarjeta madre debe manejar por completo los procesadores SL mejorados con APM (administración
Avanzada de Corriente) y protocolos SMM (modo de Administración del sistema), que permita disminuir la
energía en diversos componentes del sistema a diferentes niveles de estados de actividad y consumo de
energía.
El popular conjunto de chips original Tritón Intel (430 FX), junto con las mas recientes 430 TX y 430 VX, no
maneja la verificación de paridad de memoria.
Para aplicaciones críticas que usan tarjetas madre Pentium, en donde es importante la precisión e integridad
de los datos, se recomienda usar una tarjeta basada en el conjunto de chips Tritón II (430 HX) o cualquier otro
similar que maneje el ECC de memoria empleando módulos de paridad efectiva de memoria.
Como algo adicional, el conjunto de chips 430 HX maneja el USB y varias CPUs, duales, haciéndolo realmente
versátil.
Actualmente las tarjetas madre Pentium II tiene el conjunto de chips Orinó (450 KX y 450 GX) de alta
tecnología.
Documentación.
Una buena documentación técnica es obligatoria.
Debe contener información sobre todos y cada uno de los jumpers e interruptores que se encuentran en la
tarjeta, la descripción de pins de todos los conectores, las especificaciones de chips de caché RAM; SIMMs y
otros componentes conectables, así como cualquier otra información técnica aplicable.
Yo adquiriría también, por separado, la documentación del fabricante del BIOS, que cubra el BIOS específico
utilizado en el sistema, así como los manuales que comprendan el conjunto de chips específicos que emplean
la tarjeta madre.
En forma adicional, son recomendables los manuales de cualquier otro chip controlador o de E/S que tenga la
tarjeta, los cuales se podrían adquirir con el respectivo fabricante.
También convendría tener disponible un soporte en línea y actualizaciones de la documentación, aunque esto
no debe aceptarse en sustitución de buenos manuales impresos.
Advertencia
La mayoría de los fabricantes de conjuntos de chips sólo hacen un chip en particular por poco tiempo,
superándolo con rapidez con una versión mejorada o modificada. Los manuales sólo están disponibles
durante el tiempo en que se fabrica el chip, de modo que si se espera demasiado, se encontrara con que
dichos documentos ya no están disponibles. ¡El momento de reunir la documentación sobre su tarjeta madre
es ahora!
AMI.
Aunque AMI adapta el código ROM para un sistema en particular no vende al OEM el código fuente ROM.
Un fabricante de equipo original debe obtener cada nueva versión cuando esta disponible. Como muchos de
ellos no necesitan o no desean cada nueva versión antes de obtener la licencia de una nueva.
El AMI BIOS es actualmente el BIOS más popular en los sistemas de computadoras personales. Las versiones
más recientes del AMI BIOS se denominan Hi-Flex debido a la alta flexibilidad que se encuentra en el programa
de configuración del BIOS.
El AMI Hi-Flex BIOS es utilizado por Intel, AMI y muchos otros fabricantes de tarjetas madre.
TIP.
Un buen truco para ayudarle a visualizar el identificador del BIOS consiste en apagar e incluso desconectar el
teclado, o presionar una tecla al encender de nuevo.
Esto provocara un error del teclado, y la cadena de identificación permanecerá en la pantalla.
Todo AMI BIOS exhibe la cadena de identificación principal del BIOS durante la POST (Pruebe Automática al
Encender), en la esquina inferior izquierda de la pantalla, bajo el mensaje propiedad.
El AMI Hi-Flex BIOS puede además exhibir dos cadenas adicionales de identificación si se presiona la tecla
Insert durante POST. Estas cadenas adicionales exhiben las opciones que están instaladas en el BIOS.
El BIOS AMI tiene muchas características, incluyendo el programa integrado de configuración que se activa al
presionar la tecla Supr o Esc durante los primeros segundos cuando sé inicializa la computadora. El BIOS
indicara brevemente que tecla oprimir y cuando hacerlo.
El BIOS de AMI ofrece la definición por parte del usuario del tipo del disco duro, que es esencial para el uso
optimo de muchas unidades IDE o ESDI. Las versiones más recientes del BIOS manejan unidades IDE mejoradas
y configurarán de manera automática los parámetros de la unidad.
Una característica única del BIOS de AMI es que, además de la configuración, tiene integrado un paquete de
diagnostico manejado por menú que en esencia es una versión reducida del producto independiente
AMIDIAG.
El BIOS de Award tiene las características normales que usted esperaría incluyendo el programa integrado de
configuración que se activa al presionar Ctrl-Alt-Esc, esta configuración ofrece al usuario la posibilidad de
definir el tipo de unidad de disco, lo cual se requiere para el empleo de unidades de disco IDE o ESDI en toda
su extensión.
En general, el BIOS de Award es de alta calidad, tiene un mínimo de problemas de compatibilidad y ofrece un
elevado nivel de apoyo.
Phoenix.
Por muchos años el BIOS de Phoenix ha sido el estándar de compatibilidad mediante el que se juzga a los
demás.
Fue una de las primeras compañías en intervenir legalmente la ingeniería del BIOS de IBM por medio de un
enfoque de "cuarto tipo".
En este enfoque, un grupo de ingenieros estudió el BIOS de IBM y escribieron una especificación de cómo
debe funcionar el BIOS y que características debe comprender. Luego, esta información se pasa a un segundo
grupo de ingenieros los cuales nunca habían visto el BIOS de IBM.
Ellos podían entonces escribir legalmente un nuevo BIOS para las especificaciones establecidas por el primer
grupo. Así, este trabajo sería único y no una copia del BIOS de IBM; sin embargo, funcionaría del mismo
modo.
Este código ha sido refinado a través de los años y tiene muy pocos problemas de compatibilidad en
comparación con algunos otros distribuidores de BIOS.
El Bios emite un amplio conjunto de códigos de sonido que pueden emplearse para diagnosticar problemas
severos de la tarjeta madre que evitaría la operación normal del sistema.
Las tarjetas madre de Micronics siempre han utilizado el BIOS de Phoenix, y se utilizan en muchos de los
sistemas compatibles de marcas populares.
Phoenix ha sido uno de los más grandes OEMs del MS-DOS de Microsoft. Si tiene MS-DOS, también tendrá la
versión OEM de Phoenix. Por su estrecha relación con Microsoft, ha tenido acceso al código fuente del DOS, lo
cual ayuda a eliminar problemas de compatibilidad.
Para ahorrar dinero, algunos distribuidores de computadoras compatibles usan partes que están por debajo
del estándar.
La CPU es uno de los componentes más caros en la tarjeta madre, y muchas tarjetas madre se venden a los
ensambladores de sistemas sin la CPU instalada, por lo que resulta tentador para el ensamblador instalar una
CPU con rango de velocidad menor a la velocidad operativa real.
Si la compañía que fabrica el chip de CPU instalado en este sistema, probo el chip para operar de manera
confiable a 100Mhz, hubiera etiquetado la parte de acuerdo a ello.
Después de todo, la compañía podría vender más caro el chip si funcionara ala velocidad de reloj más alta.
Es fácil caer en esta practica porque los chips con especificaciones de velocidad mayores cuestan más, Intel y
otros fabricantes de chips por lo regular especifican sus productos en forma conservadora.
Se ha tomado varios procesadores 486 a 25Mhz y se han operado a 33Mhz y parecen funcionar muy bien. Los
chips Pentium 90 que se han probado parece que operan bien a 100Mhz. Aunque pudiera comprar un sistema
Pentium 90 y tomara la decisión de operarlo ha 100Mhz, si experimentase bloqueos y fallas en la operación,
regresaría de inmediato a 90Mhz y probaría de nuevo.
Si comprara un sistema de 100Mhz de un distribuidor, esperaría que todas sus partes fueran de 100Mhz y ¡no
partes de 90Mhz operando por arriba de su velocidad! Actualmente, muchos chips tendrán alguna forma de
disipador de calor, lo cual ayuda a prevenir el sobrecalentamiento, pero que también puede servir para
encubrir a un chip "forzado".
Para determinar la velocidad en la que esta catalogado un chip de CPU, observe lo que esta escrito sobre el
chip. La mayoría de las veces, el numero de parte terminara con un sufijo -xxx, en donde xxx un numero que
indica la velocidad máxima. Pro ejemplo-100 indica que el chip esta catalogado o tiene la especificación para
operar a 100Mhz.
Advertencia.
Dichos programas solo pueden indicarle la velocidad ala que esta operado el chip en el momento en que se
prueba no es su verdadera capacidad.
También ignore las luces del indicador de velocidad en la parte frontal de algunos gabinetes. Estos indicadores
digitales se pueden ajustar mediante jumpers para mostrar ¡prácticamente cualquier velocidad que desee! No
guardan una relación directa con la velocidad real del sistema
Existen varios factores de forma compatibles que se utilizan para las tarjetas madres.
El factor de forma se refiere a las dimensiones físicas y al tamaño de la tarjeta y dicta el tipo de gabinete en
que puede ajustarse la tarjeta.
En general, los tipos de factores de forma de tarjeta madre disponible son los siguientes:
En algunos sistemas, los componentes que por lo regular se encuentran en una tarjeta madre, se ubican en
una tarjeta adaptadora de expansión conectada a una ranura.
En estos sistemas, la tarjeta con las ranuras se denomina plano posterior, en vez de tarjeta madre. A los
sistemas que usan este tipo de construcción se les llama sistema de plano posterior.
Un plano posterior activo significa que la tarjeta principal del plano posterior contiene el control del bus y
además, por lo regular, otros circuitos.
Los diseños de sistema de tarjeta madre y de plano posterior tiene tantas ventajas como desventajas. La
mayoría de las computadoras personales originales se diseñaron como plano posteriores a finales de los años
setenta.
Apple e IBM cambiaron el mercado a la ahora tradicional tarjeta madre con un tipo de diseño de ranura, ya
que este tipo de sistema generalmente es mas barato que producir en masa, que uno con el diseño de plano
posterior.
El procesador actualizable representa otro clavo en el ataúd de los diseños de plano posterior. Intel ha
diseñado todos sus procesadores 486, Pentium MMX y Pentium Pro para que sean actualizables en el futuro a
procesadores más rápidos (en ocasiones llamados over drive), simplemente intercambiando (o agregando) el
nuevo chip de procesador.
Cambiar sólo el chip de procesador por uno más rápido es una de las formas más sencillas y en general más
costeables de hacer actualizaciones sin cambiar toda la tarjeta.
AT de tamaño natural
A la tarjeta madre AT de tamaño completo se le llama así debido a que corresponde al diseño de la tarjeta
madre original de la IBM AT.
Esto permite una tarjeta muy grande de hasta 12 pulgadas de ancho por 13.8 pulgadas de largo.
El conector del teclado y los conectores de ranuras deben apegarse a requerimientos específicos de ubicación
para ajustarse a las aperturas del gabinete.
Este tipo de tarjeta sólo se ajusta en los gabinetes populares Baby-AT o minitorres y debido a los avances en la
miniaturización en cómputo, la mayoría de los fabricantes ya no las producen.
BABY AT
Factor de forma Baby-AT es en esencia el mismo de la tarjeta madre de la IBM XT original, con modificaciones
en las posiciones de los orificios de, tornillos, para ajustarse en un gabinete de tipo AT.
Estas tarjetas madre tienen también una posición especifica del conector del teclado y de los conectores de
ranuras para alinearse con las aperturas del gabinete.
La tarjeta madre Baby-AT se ajustara a cualquier tipo de gabinete con excepción de los de perfil bajo y línea
esbelta. Debido a su flexibilidad, este es ahora el factor más popular.
La más notable consiste que las ranuras de expansión están montadas sobre una tarjeta de bus vertical que se
conecta en la tarjeta madre.
Las tarjetas de expansión deben conectarse en forma lateral en la tarjeta vertical. Esta colocación lateral
permite el diseño de gabinete de perfil bajo. Las ranuras se colocan a uno o ambos lados de la tarjeta vertical
dependiendo del sistema y diseño del gabinete.
Otra característica distintiva del diseño LPX es la colocación estándar de conectores en la parte posterior de la
tarjeta. Una tarjeta LPX tiene una fila de conectores para vídeo(VGA de 14 pins), paralelo (de 25 pins), dos
puertos seríales (cada uno de 9 pins) y conectores de ratón y teclado de tipo mini-DIN PS/2.
ATX
El factor de forma ATX es una velocidad reciente en los factores de forma de tarjetas madre.
El ATX es una combinación de las mejores características de los diseños de las tarjetas madre Baby-AT y LPX,
incorporando muchas nuevas mejoras y características.
El factor de forma ATX es en esencia una tarjeta madre Baby-AT girada de lado en el chasis, junto con una
ubicación y conector de la fuente de poder modificada lo mas importante por saber en primera instancia
sobre el factor de forma ATX consiste que es físicamente incompatible con los diseños previos tanto del Baby-
AT como del LPX.
En otras palabras se requiere de un gabinete y una fuente de poder diferentes que correspondan con la tarjeta
madre ATX. Estos nuevos diseños de gabinete se han vuelto comunes y se les puede encontrar en muchos
sistemas.
La especificación oficial ATX fue liberada por Intel en julio de 1995, y esta escrita como una especificación
abierta para la industria. La ultima revisión de la especificación es la versión 2.01, publicada en febrero de
1997. Intel ha publicado especificaciones detalladas para que otros fabricantes puedan emplear el diseño ATX
en sus sistemas.
El ATX mejora a las tarjetas madre Baby-AT y LPX en diversas áreas principales:
La parte posterior de la tarjeta madre incluye un área de conectores de E/S aplicado, que es de 6.25 pulgadas
de ancho por 1.75 pulgadas de alto. Esto permite que los conectores externos se coloquen directamente sobre
la tarjeta y evita la necesidad de cables que vayan desde los conectores internos hacia la parte posterior del
gabinete, como ocurre en los diseños Baby-AT.
Esto es una bendición para el usuario final promedio, el cual siempre tiene que preocuparse respecto al
intercambio de los conectores de la fuente de poder y, en consecuencia, ¡echar a perder la tarjeta madre!
Los módulos de CPU y memoria están reubicados de modo que no interfieran con ninguna tarjeta de
expansión de bus y no se pueda tener acceso a ellos para su actualización sin retirar ninguna de las tarjetas
adaptadoras de bus instalada.
El CPU y la memoria se reubican cerca de la fuente de poder el cual tiene un solo ventilador que le suministran
aire, eliminando Así la necesidad de ventiladores de enfriamiento de la CPU, los cuales son ineficientes y
propensos a fallas.
También hay espacio para un disipador de calor pasivo grande sobre la CPU.
Los conectores internos de E/S para las unidades de disco duro y flexibles están reubicados para estar cerca de
los compartimentos de las unidades y retirados de la parte inferior de las áreas de la ranura de la tarjeta de
expansión y de las bahías de unidades.
Enfriamiento mejorado.
La CPU y la memoria principal se enfrían directamente mediante el ventilador de la fuente de poder,
eliminando la necesidad de ventiladores separados para el gabinete o la CPU.
También el ventilador de la fuente de poder sopla dentro del chasis, lo que presuriza y minimiza en gran
medida la entrada de polvo y la suciedad al sistema.
Todo esto contribuye a reducir en gran medida no solo el costo de la tarjeta madre, sino que también el costo
de un sistema completo, incluyendo en gabinete y la fuente de poder.
En resumen la tarjeta madre ATX es básicamente un diseño Baby-AT girado hacia los lados.
Las ranuras de expansión están ahora paralelas a la dimensión más corta y no interfieren con la CPU, la
memoria o los conceptos de E/S. Además del diseño ATX del tamaño natural, Intel ha especificado también un
diseño mini-ATX, el cual se ajustará al mismo gabinete.
Aunque los orificios son similares a los del gabinete Baby-AT, por lo general no son compatibles los gabinetes
para los dos formatos. La fuente de poder requeriría de un adaptador de conector para ser intercambiables,
aunque el diseño de la fuente de poder de la ATX básica es similar a la fuente de poder estándar de la línea
esbelta.
De manera clara, las ventajas del factor ATX hacen de él una buena elección para sistemas de alta calidad.
Se trata de un factor de forma de factor bajo, similar en apariencia al LPX, pero con varias mejoras diseñadas
para permitir una integración total de las ultimas tecnologías.
Mientras que la principal limitante de las tarjetas LPX comprenden la incapacidad de manejar el tamaño físico
de los nuevos procesadores, así como sus características térmicas más elevadas, el factor de forma NLX se
diseño específicamente para abordar estos problemas.
Procesador
GENERACIONES DE MICROPROCESADORES
Si deseas conocer más sobre los procesadores más antiguos y aprender más sobre las generaciones de
microprocesadores, podrás hacerlo viendo sus imágenes y descargando sus fichas resumen. Haz click en
alguno de los apartados siguientes:
GENERACIÓN PRIMERA: AMD 8088, INTEL 8088, INTEL 8086, NEC V20
GENERACIÓN SEGUNDA: AMD 286, INTEL 286
GENERACIÓN TERCERA: INTEL 386DX, INTEL 386SX, INTEL386SL, AMD 386DX, AMD 386SX
GENERACIÓN CUARTA: CYRIX 486 DLC, INTEL 486 DX, INTEL 486 SX, INTEL 486DX2 ORIGINAL, INTEL 486DX2
E. STAR, INTEL 486DX2 W. BACK, INTEL 486DX2 ODRIVE, INTEL 486DX4 ORIGINAL, INTEL 486DX4 ODRIVE,
AMD 486 DX, AMD 486 DX2, AMD 486 DX4, AMD 5X86
Introducción
La CPU gestiona cada paso en el proceso de los datos. Actúa como el conductor y el supervisor de los
componentes de hardware del sistema. Asimismo, está unida, directa o indirectamente, con todos los demás
componentes de la placa príncipal. Por lo tanto, muchos grupos de componentes reciben órdenes y son
activados de forma directa por la CPU .
El procesador está equipado con buses de direcciones, de datos y de control, que le permiten llevar a cabo sus
tareas. Estos sistemas de buses varían dependiendo de la categoría del procesador, lo cual se analizará más
adelante.
También durante el desarrollo de los ordenadores personales han ido varíando las unidades funcionales
internas de los procesadores, evolucionando drásticamente. Se ha incorporado un número de transistores y
circuitos integrados cada vez mayor , y dentro de un espacio cada vez más reducido, a fin de satisfacer las
demandas cada vez más exigentes de mayores prestaciones por parte del software. Por ejemplo, el
microprocesador Pentium contiene, ubicados sobre una placa de cerámica de aproximadamente 6 milímetros
cuadrados, más de tres millones de transistores.
Por todo lo expuesto, se hacen lógicamente necesarios unos procesos de fabrícación también complejos y
especiales. Esta técnica permite construir elementos casi microscópicos (un micrómetro, o la millonésima parte
de un metro). Esta técnica desarrollada por Intel se conoce como CHMOS-IV .Para apreciar la miniaturízación
en cuestión, pensemos que un solo pelo humano tiene una anchura que se extendería sobre 100
unidades de este tipo.
La configuración y capacidad de este procesador son los críteríos fundamentales que determinan el
rendimiento de todo el ordenador
Funcionamiento
La unidad central de proceso (CPU), procesador o microprocesador, es el verdadero cerebro del ordenador. Su
misión consiste en controlar y coordinar todas las operaciones del sistema. Para ello extrae, una a una, las
instrucciones del programa que está en la memoría central del ordenador (memoria RAM),las analiza y emite
las órdenes necesarías para su completa realización.
Para entender cómo funciona un microprocesador, hay que tener en prímer lugar una clara idea acerca de las
partes o bloques que lo componen. De otro modo, será prácticamente imposible hacerse una idea sobre su
funcionamiento. De una forma global, podemos considerar al microprocesador dividido en tres grandes
bloques:
UNIDAD DE
DECODIFICACIÓN
UNIDAD DE EJECUCIÓN
UNIDAD ARITMÉTICO- LÓGICA (ALU)
Podemos, entonces, considerar a un microprocesador compuesto por las dos siguientes unidades:
Unidad de control
Unidad aritmético-lógica (ALU)
UNIDAD DE CONTROL
Es el centro nervioso del ordenador, ya que desde ella se controlan y gobiernan todas las operaciones. Cómo
funciones básicas tiene:
− Contador de programa
− Registro de instrucciones
Registro de instrucción. Contiene la instrucción que se está ejecutando en cada momento. Esta instrucción
llevará consigo el código de operación (un código que indica qué tipo de operación se va a realizar, por
ejemplo una suma) y en su caso los operandos (datos sobre los que actúa la instrucción, por ejemplo los
números a sumar) o las direcciones de memoria de estos operandos.
Reloj. Proporciona una sucesión de impulsos eléctricos o ciclos a intervalos constantes (frecuencia constante),
que marcan los instantes en que han de comenzar los distintos pasos de que consta cada instrucción.
Secuenciador. En este dispositivo se generan órdenes muy elementales (microórdenes) que, sincronizadas por
los impulsos de reloj, hacen que se vaya ejecutando poco a poco la instrucción que está cargada en el registro
de instrucción.
Esta unidad se encarga de realizar las operaciones elementales de tipo aritmético (sumas, restas, productos,
divisiones) y de tipo lógico (comparaciones). A través de un bus interno se comunica con la unidad de control
la cual le envia los datos y le indica la operación a realizar .
− Circuito operacional
− Registros de entrada (REN)
− Registro acumulador
− Registro de estado (flags)
Circuito operacional. Contiene los circuitos necesarios para la realización de las operaciones con los datos
procedentes de los registros de entrada (REN). Este circuito tiene unas entradas de órdenes para seleccionar la
clase de operación que debe realizar en cada momento (suma, resta, etc).
Registros de entrada (REN). En ellos se almacenan los datos u operandos que intervienen en una instrucción
antes de la realización de la operación por parte del circuito operacional. También se emplean para el
almacenamiento de resultados intermedios o finales de las operaciones respectivas.
Registro acumulador. Almacena los resultados de las operaciones llevadas a cabo por el circuito operacional.
Está conectado con los registros de entrada para realimentación en el caso de operaciones encadenadas.
Asimismo tiene una conexión directa al bus de datos para el envío de los resultados a la memoria central o a
la unidad de control.
Registro de estado (flags). Se trata de unos registros de memoria en los que se deja constancia algunas
condiciones que se dieron en la última operación realizada y que habrán de ser tenidas en cuenta en
operaciones posteriores. Por ejemplo, en el caso de hacer una resta, tiene que quedar constancia si el
resultado fue cero, positivo o negativo.
Se conoce como set de instrucciones al conjunto de instrucciones que es capaz de entender y ejecutar un
microprocesador.
Instrucciones de transferencia de datos. Estas instrucciones mueven datos (que se consideran elementos de
entrada/salida) desde la memoria hacia los registros internos del microprocesador, y viceversa. También se
usan para pasar datos de un registro a otro del microprocesador. Existen algunas instrucciones que permiten
mover no sólo un dato, sino un conjunto de hasta 64 KBytes con una sola instrucción.
Instrucciones de cálculo. Son instrucciones destinadas a ejecutar ciertas operaciones aritméticas, como por
ejemplo sumar, restar, multiplicar o dividir, o ciertas operaciones lógicas, como por ejemplo ANO, OR, así
como desplazamiento y rotación de bits.
Instrucciones de transferencia del control del programa. Permiten romper la secuencia lineal del programa
y saltar a otro punto del mismo. Pueden equivaler a la instrucción GOTO que traen muchos lenguajes de
programación.
Instrucciones de control. Son instrucciones especiales o de control que actúan sobre el propio
microprocesador. Permiten acceder a diversas funciones, como por ejemplo activar o desactivar las
interrupciones, pasar órdenes al coprocesador matemático, detener la actividad del microprocesador hasta
que se produzca una interrupción, etc.
Por ejemplo, una instrucción que sume dos números está formado por:
Existen instrucciones que sólo tienen un operando o incluso que no tienen ninguno, estando formadas
solamente por el código de operación.
Para que un programa pueda ser ejecutado por un ordenador, ha de estar almacenado en la memoria central
(memoria RAM). El microprocesador tomará una a una las instrucciones que lo componen e irá realizando las
tareas correspondientes.
− Fase de búsqueda
− Fase de ejecución
Fase de búsqueda. En esta fase se transfiere la instrucción que se va a ejecutar desde la memoria central a la
unidad de control.
Fase de ejecución. Consiste en la realización de todas las acciones que conlleva la propia instrucción.
CISC y RISC
Una forma de clasificar los microprocesadores es en función de las instrucciones que son capaces de ejecutar.
Podemos encontrar dos tipos: microprocesadores: con tecnología CISC y RISC.
CISC: Complex Instructions Set Computer, Ordenador con un conjunto de instrucciones complejo.
RISC: Reduced Instructions Set Computer, Ordenador con un conjunto de instrucciones reducido.
Anteriormente hemos definido el set de instrucciones como el conjunto de instrucciones que es capaz de
entender y ejecutar un microprocesador. Si ese microprocesador entiende y ejecuta muchas instrucciones
(cientos de ellas), se trata entonces de un microprocesador CISC. En cambio, si el microprocesador entiende y
ejecuta muy pocas instrucciones (decenas de ellas), se trata entonces de un microprocesador RISC.
En principio, parece que la tecnología CISC es mucho más ventajosa que la RISC. Pero no es así: un micro CISC
tarda mucho tiempo en ejecutar cada una de esas instrucciones. En cambio un micro RISC, como sólo
entiende unas cuantas, su diseño interno le permite ejecutarlas en muy poco tiempo, a una gran velocidad,
mucho más rápido que un microprocesador CISC.
Intel no fabrica microprocesadores completamente RISC para no perder la compatibilidad con los
microprocesadores anteriores.
Microprocesadores CISC Interpretan y ejecutan un gran número de instrucciones. Son más lentos.
Microprocesadores RISC Interpretan y ejecutan sólo unas pocas instrucciones. Son mucho más rápidos que los
microprocesadores CISC.
Todos los microprocesadores utilizandos en la fabricación de ordenadores personales, son de tecnología CISC.
En resumen
El microprocesador (CPU o simplemente procesador) es el chip más importante del ordenador. Sin él, no
podría funcionar. Constituye el centro neurálgico desde donde se controla todo lo que ocurre dentro de un
ordenador. Está unido directa o indirectamente con todos los demás componentes de la placa base (y por
tanto con todos los componentes del ordenador). Actúa como el conductor y supervisor de los componentes
de hardware del sistema.
La misión de un microprocesador es la de controlar y coordinar todas las operaciones del sistema. Para ello
extrae las instrucción es del programa que ordenador, las analiza y emite las órdenes necesarias para su
completa realización.
Para comprender cómo funciona el microprocesador podemos considerarle dividido en tres grandes bloques
funcionales:
− Unidad de control
− Unidad aritmético-lógica (ALU)
La unidad de control es el centro nervioso de la computadora y desde ella se controlan y gobiernan todas las
operaciones del microprocesador.
Consta de:
− Contador de programa
− Registro de instrucciones
− Decodificador
− Reloj
− Secuenciador
La unidad aritmético-lógica realiza las operaciones matemáticas. Se comunica a través de un bus interno con
la unidad de control la cual le envía los datos y le indica la operación a realizar. Está formada por los
siguientes elementos:
.Los pasos globales que se siguen a la hora de ejecutar una instrucción son:
− Búsqueda de la instrucción
− Decodificación de la instrucción
− Búsqueda de los operandos, si los hubiera
− Ejecución de la instrucción
− Almacenamiento del resultado, si se produce alguno
Microprocesadores CISC son aquellos que interpretan y ejecutan un gran número de instrucciones. Los
microprocesadores RISC interpretan y ejecutan sólo unas cuantas. Son más rápidos los microprocesadores
RISC que los CISC.
− BIOS
BIOS: "Basic Input-Output System", sistema básico de entrada-salida. Programa incorporado en un chip de la
placa base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador.
Bueno, ya está. ¿Cómo, que es poco? Bueno... para los exigentes, algunas explicaciones adicionales:
Lo que es más: ¿cómo sabe el ordenador que tiene un disco duro (o varios)? ¿Y la disquetera? ¿Cómo y donde
guarda esos datos, junto con el tipo de memoria y caché o algo tan sencillo pero importante como la fecha y
la hora? Pues para todo esto está la BIOS.
Resulta evidente que la BIOS debe poderse modificar para alterar estos datos (al añadir un disco duro o
cambiar al horario de verano, por ejemplo); por ello las BIOS se implementan en memoria. Pero además debe
mantenerse cuando apaguemos el ordenador, pues no tendría sentido tener que introducir todos los datos en
cada arranque; por eso se usan memorias especiales, que no se borran al apagar el ordenador: memorias tipo
CMOS, por lo que muchas veces el programa que modifica la BIOS se denomina "CMOS Setup".
En realidad, estas memorias sí se borran al faltarles la electricidad; lo que ocurre es que consumen tan poco
que pueden ser mantenidas durante años con una simple pila, en ocasiones de las de botón (como las de los
relojes). Esta pila (en realidad un acumulador) se recarga cuando el ordenador está encendido, aunque al final
fenece, como todos.
Entrando en la BIOS
Ante todo, conózcanse. La BIOS es la responsable de la mayoría de esos extraños mensajes que surgen al
encender el ordenador, justo antes del "Iniciando MS-DOS" o bien Windows 95, NT, Linux, OS/2 o lo que sea.
La secuencia típica en que aparecen (eso sí, muy rápido) suele ser:
− Primero los mensajes de la BIOS de la tarjeta gráfica (sí, las tarjetas gráficas suelen tener su propia
BIOS, ¿passa algo?).
− El nombre del fabricante de la BIOS y el número de versión.
− El tipo de microprocesador y su velocidad.
− La revisión de la memoria RAM y su tamaño.
− Un mensaje indicando cómo acceder a la BIOS ("Press Del to enter CMOS Setup" o algo similar);
volveremos sobre esto).
− Mensajes de otros dispositivos, habitualmente el disco duro.
Todo esto sucede en apenas unos segundos; a veces, si el monitor está frío y tarda en encender, resulta casi
imposible verlos, no digamos leerlos, así que ármese de valor y reinicie varias veces, ¡pero no a lo bestia!
Espere a que termine de arrancar el ordenador cada vez y use mejor el Ctrl-Alt-Del (es decir, pulsar a la vez y
en este orden las teclas "Ctrl", "Alt" y "Del" -el "Supr" de los teclados en español-) que el botón de "Reset". Es
más, si tiene un sistema operativo avanzado como OS/2, Linux, Windows 9x o NT, debe hacerlo mediante la
opción de reiniciar del menú correspondiente, generalmente el de apagar el sistema (o con la orden "reboot"
en Linux).
Bien, el caso es que al conjunto de esos mensajes se le denomina POST (Power-On Self Test, literalmente
autotesteo de encendido), y debe servirnos para verificar que no existen mensajes de error, para ver si, grosso
modo, la cantidad de memoria corresponde a la que debería (puede que sean unos pocos cientos de bytes
menos, eso es normal y no es un error, es que se usan para otras tareas) y para averiguar cómo se entra en la
BIOS.
Generalmente se hará mediante la pulsación de ciertas teclas al arrancar, mientras salen esos mensajes. Uno
de los métodos más comunes es pulsar "Del", aunque en otras se usa el "F1", el "Esc" u otra combinación de
teclas (Alt-Esc, Alt-F1...). Existen decenas de métodos, así que no le queda más remedio que estar atento a la
pantalla o buscar en el manual de su placa o en el sitio web del fabricante de la BIOS.
Bien, ya entró en la BIOS. ¿Y ahora, qué? Bueno, depende de su BIOS en concreto. Las BIOS clásicas se
manejan con el teclado, típicamente con los cursores y las teclas de Intro ("Enter"), "Esc" y la barra espaciadora,
aunque también existen BIOS gráficas, las llamadas WinBIOS, que se manejan con el ratón en un entorno de
ventanas, lo cual no tiene muchas ventajas pero es mucho más bonito.
− Configuración básica, llamado generalmente "Standard CMOS Setup" o bien "Standard Setup".
− Opciones de la BIOS, llamado "BIOS Features Setup" o "Advanced Setup".
− Configuración avanzada y del chipset, "Chipset Features Setup".
− Otras utilidades, en uno o varios apartados (autoconfiguración de la BIOS, manejo de PCI,
introducción de contraseñas -passwords-, autodetección de discos duros...).
Pulse en las imágenes sobre los apartados que le interesen o siga leyendo para una explicación en
profundidad uno por uno. Los ejemplos corresponderán a BIOS clásicas de las que se manejan por teclado,
aunque sirven perfectamente para BIOS gráficas, que sólo añaden más colorido a las operaciones.
Tenga en cuenta que JUGAR CON LA BIOS PUEDE SER REALMENTE PELIGROSO para su ordenador, así que
COPIE LA CONFIGURACIÓN ACTUAL en unos folios antes de tocar nada, e incluso si no piensa hacer
modificaciones; nunca se sabe, recuerde la Ley de Murphy. Y por supuesto, aunque los consejos que se darán
sirven para la mayoría de los casos, nadie mejor que el fabricante para hablar de su propio producto, así que
léase en profundidad el manual de su placa base y téngalo a mano. Si no se lo entregaron con el ordenador,
mal asunto. Intente que se lo den o que le hagan una copia, aunque si se trata de un ordenador de marca a
veces es casi imposible; miedo a que les copien sus secretos o afán de tener al usuario atado a su servicio
técnico, vaya usted a saber...
Por cierto, para salir de un menú se suele usar la tecla "Esc"; además, ningún cambio queda grabado hasta que
no se lo indicamos al ordenador al salir de la BIOS (lo cual es un consuelo para los manazas).
Configuración básica
¿Ya ha copiado la configuración actual de su BIOS en unos folios? ¿Y a qué espera? En fin... bajo el nombre de
Standard CMOS Setup o similar, se suele englobar la puesta al día de la fecha y hora del sistema, así como la
configuración de discos duros y disqueteras. La pantalla de manejo suele ser similar a ésta:
El tipo de disquetera y pantalla es también sencillo de entender y manejar. Salvo casos prehistóricos la
pantalla será VGA o bien EGA, y esto último ya es bastante raro; cuando dice "monocromo" suele referirse a
pantallas MGA, ésas de fósforo blanco, verde o ámbar de hace más de diez años, no a las VGA de escala de
grises modernas, téngalo en cuenta.
Lo más interesante y difícil está en la configuración de los discos duros. En general serán únicamente discos
del tipo IDE (incluyendo los EIDE, Ata-4, Ultra-DMA y demás ampliaciones del estándar), en ningún caso SCSI
(vaya, casi un pareado, SCSI se dice "es-ca-si") ni otros antiguos como MFM o ESDI, que se configuran de otras
formas, por ejemplo mediante otra BIOS de la propia controladora SCSI.
En los casos antiguos (muchos 486 y anteriores) podremos dar valores sólo a dos discos duros, que se
configuran como Maestro, master, el primero y Esclavo, slave, el segundo, del único canal IDE disponible. En
los casos más modernos de controladoras EIDE podremos configurar hasta cuatro, en dos canales IDE, cada
uno con su maestro y su esclavo. Para los que no entiendan nada de esto, recomiendo la lectura del apartado
Instalar un disco duro.
− Tipo (Type): o uno predefinido, o Auto para que calcule el ordenador los valores correctos, o User para
introducir los valores a mano, o bien None para indicar que no hay ningún disco.
− Tamaño (Size): lo calcula el ordenador a partir de los datos que introducimos.
− Cilindros (Cylinders): pues eso, cuántos son.
− Cabezas (Heads): lo dicho, cuántas son.
− Precompensación de escritura (WritePrecomp): un parámetro muy técnico, usado sobre todo en los
discos antiguos. En los modernos suele ser cero.
− Zona de aparcado de las cabezas (LandZone): otro tecnicismo, que modernamente suele ser cero o
bien 65535 (que en realidad significa cero).
− Sectores (Sectors): pues eso, cuántos hay por cada pista.
− Modo de funcionamiento (Mode): para discos pequeños, de menos de 528 MB, el modo Normal. Para
discos de más de 528 MB (cualquiera moderno tiene 4 ó 5 veces esa capacidad), el modo LBA o bien el
Large, menos usado y sólo recomendado si no funcionara el LBA. En muchos casos se permite la
autodetección (opción Auto).
Por ejemplo, en la imagen aparece un disco de 420 MB, con 986 cilindros, 16 cabezas... y trabajando en modo
Normal, puesto que no supera los 528 MB. Todos estos valores suelen venir en una pegatina adherida al disco
duro, o bien se pueden hallar mediante la utilidad de autodetección de discos duros, que se ilustra más
adelante.
En cualquier caso, generalmente existe más de una combinación de valores posible. Por cierto, los lectores de
CD-ROM de tipo IDE no se suelen configurar en la BIOS; así, aunque realmente ocupan uno de los lugares
(usualmente el maestro del segundo canal o el esclavo del primero) se debe dejar dichas casillas en blanco,
eligiendo None o Auto como tipo.
Opciones de la BIOS
O generalmente, en inglés, BIOS Features. Se trata de las diversas posibilidades que ofrece la BIOS para realizar
ciertas tareas de una u otra forma, además de habilitar (enable) o deshabilitar (disable) algunas características.
Las más importantes son:
Vamos a exponer los conceptos fundamentales acerca de una de las operaciones de mantenimiento menos
atractivas para el usuario, por su elevado riesgo... y sin embargo una de las más comunes e importantes,
especialmente dado el vertiginoso ritmo actual de renovación del hardware.
Las siguientes páginas se enfocan hacia la actualización de la BIOS de la placa base, aunque casi todo resulta
aplicable para actualizar la BIOS de otros elementos, como tarjetas gráficas, controladoras de disco duro.
Antes de empezar con la mecánica del asunto, debemos considerar un poco qué es la BIOS, y cómo resulta
posible actualizarla.
La BIOS es un programa informático (es decir, es software) que se encuentra almacenado en un chip de la
placa base, generalmente de forma rectangular y unos 4 x 1,5 cm, con 28 pequeñas patitas. Esta "cucaracha"
es el formato estándar, si bien en algunos casos se utilizan otros chips o está integrada en un chip
multifunción (como el FirmWare Hub de las placas con chipset Intel 820).
El programa de la BIOS tiene una característica importante que lo diferencia de los programas normales: no
debe borrarse al apagar el ordenador. Por ello, se almacena en un chip de memoria del tipo ROM (Read Only
Memory, memoria de sólo lectura) en lugar de en la habitual memoria RAM.
En las placas base modernas (más o menos desde la aparición de los Pentium) se utilizan los Flash ROM,
porque tienen la gran ventaja de que pueden ser actualizados por el usuario mediante un simple programa
software, mientras que los EEPROM (más antiguos) requieren ser retirados e introducidos en un aparato
especial para ser reescritos.
La mayor parte de la siguiente exposición se referirá a la actualización de BIOS del tipo Flash, si bien al final
trataremos un poco los aspectos hardware de la actualización de BIOS EEPROM.
Aparte de para pasar el rato en una aburrida tarde de verano, por dos motivos fundamentales:
Como hemos dicho ya, debe tenerse en cuenta que actualizar la BIOS conlleva ciertos riesgos, así que si no nos
encontramos en uno de los casos anteriores, sin duda lo mejor es no actualizar la BIOS; como suele decirse, "si
algo funciona, ¡no lo toques!"
¿Y qué clase de problemas nos soluciona una actualización de BIOS? Bien, nada mejor que un ejemplo casi
real; hemos ido a la página de actualización de BIOS del fabricante de placas base ABIT y hemos seleccionado
algunos posibles motivos:
NOTAS:
Soporta CPUs PentiumIII 800MHz(100MHz FSB), 733MHz(133MHz FSB) y
800MHz(133MHz FSB).
Soporta discos duros de 40GB y más.
Soporta CPUs Celeron 533MHz (66MHz FSB).
Mayor compatibilidad con la velocidad de DRAM igual a Host Clock +33.
Corrige el problema de capacidad de memoria incorrecta bajo Linux.
Corrige el problema con el ACPI bajo Windows2000.
Mejora la función de encendido mediante el botón del ratón tras apagar
el sistema bajo Win98SE.
Mejora la función de asignación IRQ.
Soluciona los problemas con fechas del Año 2000.
Evidentemente, la lista anterior es una exageración conseguida mediante el famoso "cortar y pegar", pero
supongo que resulta ilustrativa de lo que podemos esperar solucionar o añadir al cambiar de BIOS.
Tarjetas gráficas
Hoy en día todas las tarjetas de vídeo son gráficas e incluyen aceleración por hardware, es decir, tienen "chips"
especializados que se encargan de procesar la información recibida desde el bus e interpretarla para generar
formas, efectos, texturas, que de otra forma no serían posibles o con peor calidad, o colapsarían al ordenador
y a su bus.
La primera distinción a efectuar es si la tarjeta soporta aceleración 2D, 3D o ambas. Las tarjetas con
aceleración 3D también suelen tener soporte para 2D, pero algunas 3D sólo trabajan como complemento a las
2D, añadiéndoles dicho soporte.
Es muy importante entender que las tarjetas aceleradoras 3D sólo sirven para juegos y para programas de
diseño gráfico 3D que estén preparados para sacarles partido. Si habitualmente trabajamos con programas
ofimáticos tipo "Office", no obtendremos ningún beneficio de estas nuevas tarjetas.
Productos como el i740 de Intel han permitido poder fabricar tarjetas con aceleración 2 y 3D en un solo chip y
a un precio realmente económico, por lo estan capacidades se han convertido ya en lo mínimo exigible..
En cuanto al tipo de bus, actualmente sólo encontramos dos estándares, el PCI y el AGP. Aunque en un
principio el segundo todavía no estaba lo suficientemente bien implementado como para sacarle ventaja al
primero, éste será el único que sobrevivirá en cuanto a la interconexión con la tarjeta gráfica, si bien el
mercado PCI todavía es grande. El apoyo de Intel y las subsiguientes mejoras que ha sufrido el estándar hasta
llegar al actual 4x han hecho que sea ya pieza obligada en cualquier placa base.
En las tarjetas 2D las más utilizadas en los PC's son las fabricadas por la casa S3, entre otras cosas porque se
hicieron con el mercado OEM. Tenemos toda la saga de chips Trio: 32, 64, 64V+ y 64V2.
En las tarjetas 3D dicha marca fue de las primeras en ofrecer capacidades 3D en sus chips Virgen, aunque no
fueron competitivos con los productos de la competencia, como los chips de Rendition, 3Dfx, nVidia, NEC
(PowerVR), Intel (i740), etc.
Memoria: En las tarjetas 2D, la cantidad de memoria sólo influye en la resolución y el número de colores que
dicha tarjeta es capaz de reproducir. Lo habitual suele ser 1 ó 2 Megas.
16 colores = 4 bits.
256 colores = 8 bits.
64k = 65.536 colores = 16 bits
16,7 M = 16.777.216 colores = 24 bits.
Glide, que es la propia de las tarjetas Voodoo de 3dfx y que consiguió imponerse a las demás gracias a la
aceptación de estos chips por su elevado rendimiento en comparación con otras soluciones.
Open GL. Que es propiedad de Silicon Graphics y que hace ya mucho tiempo se utilizaba en las estaciones de
trabajo de esta marca.
Parece que en un futuro cercano sólo sobrevivirá una de ellas, y ésta no será más que Direct3D, aunque eso sí,
gracias a un acuerdo alcanzado con S.G. que permitirá fusionar totalmente ambas plataformas (de hecho en
las DirectX 6 ya está presente gran parte del API OpenGL).
Glide tenderá a desaparecer, ya que es una solución que sólo se puede implementar en las tarjetas de 3dfx, y
aunque durante mucho tiempo ha sido la reina, se puede decir que ahora ese honor debe compartirlo.
La tarjeta gráfica va a permitir que veamos todos los datos que nos muestre el ordenador. Dependiendo de la
calidad de la misma disfrutaremos de mayores velocidades de refresco (para que la imagen no parpadee),
mayor número de cuadros por segundo en los juegos, efectos tridimensionales o por el contrario, terminará
doliéndonos la cabeza por ver como las ventanas del Windows dejan restos por la pantalla porque nuestra
tarjeta no puede mostrar gráficos tan rápidamente.
Hasta hace poco, las tarjetas se conectaban a un slot PCI de nuestro ordenador, con lo que alcanzaban los 66
Mhz de velocidad, pero ahora tenemos el nuevo bus AGP (Accelerated Graphics Port) que en su especificación
1.0 da velocidades de 133 Mhz (AGP 1X) y de 266 Mhz (AGP 2X). Las placas base con chipset 440 LX o BX
llevan un bus AGP 1.0, al igual que las placas con chipset VIA VP-3 o MVP-3 para socket 7. Con la aparición de
los próximos chipsets de Intel, los 810 y 820, llegaremos al AGP 4X.
Componentes
Si abrimos el ordenador y sacamos la tarjeta gráfica, veremos que en su superficie hay una serie de
componentes que hacen que funcione (menos cuando se quema, claro). Evidentemente, la mejor tarjeta es la
que tiene buenos todos sus componentes, pero dependiendo del uso que le vayamos a dar habrá que elegir
unas marcas u otras. Aquí está la tan ansiada lista de componentes:
La memoria: A diferencia de lo que pasa con la memoria que usa el procesador del sistema (Pentium , K6,
etc.), más memoria no significa más velocidad necesariamente. Hoy en día , todas las tarjetas gráficas tienen
procesadores de 64 o de 128 bits, pero sólo trabajan en 64 bits cuando tienen 2 Mb de RAM . El ejemplo más
típico es el de las tarjetas con chip S3 Trio 64 V (ver luego en chipsets) , uno de los más populares, que se
suele entregar con 1 Mb de RAM. Bueno, pues con otro mega más el rendimiento de la tarjeta sube entre un
25 (para 256 colores) y un 600 % (para 16 millones de colores). Si se quiere aceleración 3D, se debera saber
Además hay diversos tipos de memoria para tarjeta gráfica que podrán estar o no soportados por nuestro
procesador:
1. EDO RAM: Idéntica a la que se describe en la página de la memoria RAM. Es la más lenta, pero con un
procesador rápido esto da igual. Sólo tiene un puerto de entrada/salida de comunicación con el procesador
por lo que en un momento determinado sólo puede mandar
o recibir datos.
2. SDRAM: Es igual que la que aparecía en la página ya mencionada. También es de un sólo puerto, pero es un
40 % más rápida que la anterior .
3. SGRAM (Synchronous Graphics RAM): Es una memoria de tipo SDRAM optimizada para gráficos por lo que
da un rendimiento algo mejor (5-10%) que la anterior. También es de un sólo puerto.
4. VRAM (Vídeo RAM): Tiene un puerto de entrada y otro de salida, por lo que la tarjeta puede estar enviando
y recibiendo al mismo tiempo . Esto la hace idónea para trabajar con muchos colores (a más colores, más
memoria necesitada), pero también es más cara que la memoria EDO.
5. WRAM: También dispone de doble puerto pero es un 25 % más rápido que la VRAM , porque dispone de
funciones de aceleración en operaciones de relleno de bloques lo que la hace óptima para manejar entornos
gráficos basados en ventanas (La W es por Windows).
6. El RAMDAC. Son las siglas de Random Access Memory Digital to Analog Converter (Convertidor Digital a
Analógico de Memoria de Acceso Aleatorio). Este chip sirve para realizar la conversión de los datos digitales
del color de cada punto a componentes analógicos de rojo, verde y azul (RGB: red, green, blue) para ser
enviados al monitor. Para saber lo rápido que es, debemos mirar el ancho de banda del RAMDAC, que se mide
en megahercios (igual que la velocidad del procesador) y que viene dado aproximadamente por esta fórmula:
Ancho de banda = Pixels en x * Pixels en y * Frecuencia de refresco * 1´5
Por lo tanto, un RAMDAC lento hará que la pantalla no se refresque suficientemente rápido, produciendo
parpadeo y cansando nuestra vista. Hoy en día, podemos encontrar RAMDAC de hasta 300 MHz.
7. Feature Connector: No lo llevan todas las tarjetas y es un conector mediante el que podemos instalar sobre
nuestra tarjeta módulos para reproducir MPEG-1 y 2, sintonizador de televisión, capturador de vídeo, etc.
Además, aquí se tiene una tabla de la cantidad de memoria necesaria para mostrar en pantalla los colores y
resoluciones que se querran, junto con el tamaño de monitor recomendado para verlo.
En realidad el ojo humano no puede distinguir 16´7 millones de colores pero es sólo una cifra que indica el
número de bits que estamos manejando. Por ejemplo, para 65.536 necesitaremos 16 bits (2 elevado a 16 es
65.536) . También podemos tener imágenes en 32 bits: 24 bits para los 16´7 millones de color y otros 8 para
el canal alfa (para las transparencias). Pero apenas se percibe el cambio de 16 a 24 bits más que en una
diferencia de velocidad en el refresco de los gráficos si nuestro equipo va justito.
Es recomendable que compremos una tarjeta gráfica "de marca" porque dispondremos de programas de
calidad para que la tarjeta funcione bajo cualquier sistema operativo con eficacia y acceso a las actualizaciones
vía Internet. Por lo tanto, no se deba mirar sólo el procesador, porque el resto de los elementos también
influyen y una tarjeta desconocida, si no tiene los programas adecuados no nos servirá de nada.
La medición del rendimiento de una tarjeta se debe realizar mediante programas que testeen la capacidad de
la misma en áreas como DOS, Windows, Vídeo y 3D.
DOS: El rendimiento aquí se suele medir por el programa Chris Dial´s 3D Bench, que en realidad está basado
en pruebas bajo VGA (320x200 y 320x400) y Super VGA (mayores resoluciones). También se suelen usar como
medida algunos juegos como el Quake o Descent en versiones que no estén diseñadas específicamente para la
tarjeta.
Windows: El estándar en medición bajo Windows es el Wintach, que mide el rendimiento de la tarjeta en
tareas como procesamiento de textos, dibujado de gráficos y relleno de polígonos . El programa funciona en
Windows 3.1 y 95 . Hoy en día todas las tarjetas incluyen algún tipo de aceleración de ventanas y relleno de
bloques .
Vídeo: Muchas tarjetas gráficas son capaces de mostrar vídeo a pantalla completa mediante software
(también hay algunas que lo incorporan en el hardware) bien en formato MPEG o AVI mediante los
correspondientes drivers para Windows. En este caso, para comparar diferentes tarjetas basta con poner el
mismo vídeo en dos tarjetas diferentes y ver dónde hay mayor calidad de imagen y mayor número de
fotogramas por segundo (en el cine son 24). La mayoría de las tarjetas modernas aceleran MPEG-2 por
software, por lo que también se está convirtiendo en magnitud de medida. Y las de última generación tienen
soporte para MPEG-2 por hardware.
3D: Todavía no está muy claro cómo medir el rendimiento en tres dimensiones de una tarjeta. Se suelen usar
los test del Direct 3D, un conjunto de librerías incluidas con las Direct X para medir el rellenado de polígonos y
el dibujado de los mismos, pero no es algo muy fiable porque muchas tarjetas tienen drivers optimizados para
estos tests que luego fallan en otras cosas. Bastante gente usa juegos para medir el rendimiento de la tarjeta
(sin variar los demás elementos del sistema). Pero mayor información daremos sobre este tema en la parte de
3D. No sólo hay que mirar la cantidad de imágenes (frames) por segundo, sino también la calidad de imagen
que nos da la tarjeta. Generalmente, cuantas más funciones 3D acelere la tarjeta, mejor calidad de imagen
tendrá
Chipsets
Aquí hay una tabla con la mayoría de chips del mercado. Cuantos más asteriscos tenga en una cosa, mejor.
8 Mb SGRAM o
3D Labs Permedia 2 230
SDRAM
PCI/AGP 2X **** *** ***
8 Mb EDO,
ATI 3D Rage II+ 170 SGRAM o PCI *** * ***
SDRAM
16-32 Mb
ATI Rage 128 250
SGRAM
PCI/AGP 2X ***** **** *****
64 Mb
Glaze 3D ??? AGP 2X ??? ***** *****
RambusRAM
8 Mb EDO o
Imagine 128 II 220 PCI *** * *
VRAM
Matrox MGA-
170/220 8 Mb SGRAM PCI **** *** **
1064SG/1164SG
Matrox MGA-
220/250 8/16 Mb WRAM PCI/AGP **** */*** */**
2064W/2164W
220 (Mystique),
Matrox G200
250 (Millenium)
16 Mb SGRAM AGP 2X **** **** ****
4 Mb
S3 Virge GX/DX 170 PCI ** * ***
SGRAM/EDO
8 Mb
Ticket to Ride 220
EDO/SGRAM
PCI/AGP **** ** ***
Trident 3DImage
170 4 Mb SGRAM PCI *** ** ***
975
Tseng
Soporte de software
Evidentemente una tarjeta aceleradora 3D, no sirve de nada si no hay software que la utilice. Todas las tarjetas
tienen un modo propio para que se las pueda programar: las Mystique tienen el modo MSI y las tarjetas con
chipset Voodoo tienen el 3Dfx's Glide.
Pero, además hay otras formas de programarlas mediante la utilización de las API o Apliccation Programming
Interface (Interfase para programación de aplicaciones) que son unas herramientas de programación digamos
que estándar.
En realidad, si programamos un juego usando una API concreta, cualquier acelerador 3D que soporte esa API
funcionará perfectamente. El problema es que no todas las tarjetas soportan todas las API. El estándar bajo
Windows 95 es el Direct 3D, y actualmente todas las tarjetas con aceleración 3D lo soportan. Por lo tanto,
cualquier juego en 3D que use Direct 3D se verá acelerado con una de estas tarjetas.
Otra API es OpenGL, unas librerías de programación creadas por Silicon Graphics para sus estaciones gráficas.
Cada vez más tarjetas (ATI, Voodoo, Millenium, Hercules, etc.) soportan esta API, utilizada por programas
como Lightwave, Softimage o la impresionante versión de Quake, GLQuake (que usa el motor mini-GL). Estas
dos API's tienen defensores y detractores, pero cada una es mejor para cosas diferentes. Otras API son
Criterion's Renderware, Argonaut's BRender, QuickDraw 3D Rave, Intel's 3DR y Speedy CGL.
Evidentemente la tarjeta que compremos debe soportar las API que necesitemos. Sería tonto comprar una que
no tenga controladores para OpenGL si vamos a usar el Lightwave.
Terminología 3D
Con la aparición de estas tarjetas gráficas, ha surgido todo un nuevo vocabulario. Aquí se tiene una lista de los
términos que suelen aparecer en la propaganda de una tarjeta 3D, pero se podra ver una lista más detallada
en Meristation, en la sección de Hardware, en un artículo titulado "La guía 3D", hecho por un servidor y otro
colega del GUI.
Bump Mapping. Consiste en darle una textura de rugosidad a un objeto. Los colores cercanos al negro se
convertirán en hendiduras y los cercanos al blanco, serán protuberancias. Aquí hay un ejemplo para ver cómo
aumenta la calidad de imagen.
Canal alfa (Alpha Blending). Es una técnica que permite crear objetos transparentes. Normalmente, un píxel
que aparece en pantalla tiene valores de rojo, verde y azul. Si el escenario 3D permite usar un valor alfa para
cada pixel, tenemos un canal alfa. Un objeto puede tener diferentes niveles de transparencia: por ejemplo, una
ventana de cristal limpia tendría un nivel muy alto de transparencia (un valor alfa muy bajo), mientras que un
cubo de gelatina podría tener un valor alfa medio. El Alpha Blending es el proceso de combinar dos objetos en
pantalla teniendo en cuenta los valores alfa. Así sería posible tener un monstruo medio oculto tras un cubo de
gelatina de fresa que estaría teñido de rojo y difuminado. Si la tarjeta soporta alpha blending por hardware, el
programador no necesita usar una rutina por software más lenta para asegurarse de que los objetos
transparentes se dibujan correctamente.
Niebla y difuminado de profundidad (Depth Cueing). La niebla hace que los límites del mundo virtual
queden cubiertos por un halo. El Depth Cueing consiste en reducir el color y la intensidad de un objeto en
función de la distancia al observador. Por ejemplo, una bola roja brillante se verá más oscura cuanto mas lejos.
Estas dos herramientas son útiles para determinar cómo se verá el horizonte. Permiten al programador crear
un mundo 3D sin preocuparse de extenderlo infinitamente en todas direcciones o de que los objetos alejados
aparezcan brillantes y confundan al observador ya que con estos efectos se difuminarán en la distancia.
Además, así se consigue que los objetos no surjan de repente cuando te acercas a ellos.
Sombreado: Flat (Plano), Gouraud y Texture Mapping (Mapeado de texturas). La mayoría de objetos 3D están
hechos de polígonos, que deben ser coloreados y rellenados de manera que no parezcan redes de alambre
(wire frames).
El sombreado Flat (plano) es el método más sencillo y rápido y consiste en que cada polígono se rellena de
un color uniforme.Esto da resultados poco realistas pero es el mejor para paisajes rápidos donde la velocidad
es más importante que el detalle. El sombreado Gouraud es ligeramente mejor.
También está el sombreado Phong que consiste en que además de que el objeto tenga sombra (como el
Gouraud) proyecta su sombra sobre los demás objetos de la escena. De momento este sombreado se hace
mediante software.
El mapeado de texturas es el método más realista de dibujar un objeto, y el tipo que los juegos más
modernos requieren. Un dibujo o foto digitalizada se pega al polígono (se mapea según el argot). Esto
permitiría ver el dibujo de unos neumáticos o la pegatina de la bandera que lleva un avión. Este mapeado se
puede hacer con animaciones o videos además de con imágenes estáticas.
Corrección de perspectiva. Este proceso es necesario para que los objetos mapeados parezcan realistas. Se
trata de un calculo matemático que asegura que una textura converge correctamente en las partes de un
objeto que están más alejadas del observador.
Esta tarea requiere un uso extensivo del procesador, así que es vital que un acelerador 3D ofrezca esta
característica para conservar el realismo. Aquí se puede ver una imagen sin corrección de perspectiva; mirar en
las rejillas de los lados y cómo ondulan. Lo mismo pasa con el techo y el suelo.
Filtrado bilineal y trilineal. Estos dos métodos se emplean para el mapeado de texturas. El filtrado bilineal,
dicho un poco por encima, pone una textura a un píxel con una media de las imágenes de los pixels que lo
rodean en el eje X e Y. Sin esta técnica, cada píxel tendría la misma textura que los de alrededor.
Filtrado anisotrópico. Cuando un chip hace un filtrado trilineal, lo hace de toda la escena que tiene que
rendir. El filtrado anisotrópico, sólo lo hace de los objetos que vayan a ser visibles, por lo que permite escenas
más complejas sin pérdida de velocidad.
Z-buffering. Es una técnica para eliminar superficies ocultas, para que objetos detrás de otros no se
muestren. Hacer esto por hardware, libera a las aplicaciones de software de tener que calcular el complejo
algoritmo "hidden surface removal" (eliminación de superficies ocultas).
Tarjetas de sonido
En el mundo de los ordenadores compatibles el estandar en sonido lo ha marcado la empresa Creative Labs y
su saga de tarjetas Sound Blaster.
Si escojemos una tarjeta que no sea de esta marca, y queremos ejecutar todo tipo de software es importante
comprobar que sea SB compatible a nivel de hardware, y si así es, informarnos de con que modelo es
compatible.
En el caso de que sólo nos interese que funcione con programas Windows 95, esta precaución no será
importante, entonces sería mas interesante saber que dispone de drivers de calidad, y de que Microsoft la
soporte a nivel hardware en sus DirectX.
Otro factor a tener en cuenta es si la tarjeta admite la modalidad "full duplex", es decir si admite "grabar" y
"reproducir" a la vez, o lo que es lo mismo, si puede procesar una señal de entrada y otra de salida al mismo
tiempo. Esto es importante si queremos trabajar con algún programa de videoconferencia tipo "Microsoft
NetMeeting" el cual nos permite mantener una conversación con otras personas, pues la tarjeta se comporta
como un teléfono, y nos deja oir la voz de la otra persona aunque en ese momento estemos hablando
nosotros. Muchas de las tarjetas de Creative no poseen este soporte a nivel de hardware, pero si a nivel de
software con los drivers que suministra la casa para algunos S.O.
Hay que tener claro que el formato MIDI realmente no "graba" el sonido generado por un instrumento, sino
sólo información referente a que instrumento estamos "tocando", que "nota" , y que características tiene de
volumen, velocidad, efectos, etc..., con lo que el sonido final dependerá totalmente de la calidad de la tarjeta.
Otro punto importante es la memoria. Esta suele ser de tipo ROM, y es utilizada para almacenar los sonidos en
las tarjetas de tipo "síntesis por tabla de ondas". Este tipo de tarjetas nos permiten "almacenar" el sonido real
obtenido por el instrumento, con lo que la reproducción gana mucho en fidelidad. Cuanta más memoria
dispongamos, más instrumentos será capaz de "guardar" en ella y mayor será la calidad obtenida.
− La evolución de la Informática Musical ha sido espectacular en los últimos 5 años. En el 92, la mayoría
de los productos de calidad se fabricaban sólo para equipos Macintosh. Pero en la actualidad, se ha
dado la vuelta a la tortilla, y la variedad, calidad y precio de las tarjetas para PC es la envidia de los
mac-níacos.
− Una alternativa a comprarse una tarjeta de sonido wavetable puede ser aprovechar una tarjeta de
sonido normal, tipo FM, y usar un sintetizador por software. Esta síntesis se basa en el cálculo
intensivo en tiempo real, por lo que necesitas disponer de un procesador muy rápido, al menos un
Pentium. Con el advenimiento de la tecnología MMX, que promete una mejora sustancial del
tratamiento de audio, deberían aparecer programas aún mucho más avanzados que los que
comentamos aquí.
Antes de revisar estas nuevas tarjetas y sus tecnologías, hemos considerado interesante hacer un rápido viaje
por la historia de las tarjetas de sonido. Mucha gente considera a la Empresa Creative la más avanzada en el
campo del sonido, pero no es así:
− Todo, probablemente, comenzó con la aparición en el mercado de una tarjeta ya casi olvidada, con
nombre en latín, nada menos: AdLib. Esta tarjeta disponía de síntesis FM, es decir: síntesis por
modulación de frecuencias, una tecnología inventada por el MIT en los años 60. Con esa capacidad,
sólo se podía reproducir música desde secuenciadores MIDI, o reproducir la música y efectos de los
juegos.
− Tras la aparición de la tarjeta AdLib, vino la tarjeta Sound Blaster de la casa Creative Labs, totalmente
compatible con la anterior, pero que además de la síntesis FM, incorporaba la posibilidad de grabar y
reproducir audio digital (en 8 bits). Esto permitía a los programadores de juegos usar sonidos reales
(voces, ruidos, etc) como efectos especiales de sus juegos. Esta espectacularidad está subrayada por su
pomposo nombre (en inglés-americano). Creative se hizo con el mercado, consiguiendo desde
entonces ser el estándar de hecho: todas las tarjetas que se precien deben ser compatibles con la
Sound Blaster, ya que todos los fabricantes de juegos y otro software programan para este sistema. La
Sound Blaster Pro ya funcionaba en estéreo.
− En 1989 una empresa americana, con un nombre más bien raro (la playa de las tortugas), sacó al
mercado su Turtle Beach Multisound. Este no era un producto orientado al mercado doméstico,
como los anteriores, sino que su elevado precio (unas 140.000 pts), y sus avanzadas características
(incorporaba un chip DSP Motorola 56000 a 20 Mips, nada menos) la dirigían hacia un mercado de
audio profesional. Entre sus mejores características destacan que no usaba la lamentable síntesis FM,
sino una excelente síntesis PCM (ahora se llama wavetable) incorporando un Chip de la empresa EMU
Y hasta aquí, el reciente pasado. Ahora conoceremos las nuevas tarjetas de sonido que han ido apareciendo
en los últimos tiempos.
¿32 Bits?
− Es habitual leer que una tarjeta marcada como "32", por ejemplo, la Sound Blaster 32, es una tarjeta
de 32 bits. Esto es falso:. Estas tarjetas son de 16 bits, es decir, pueden reproducir y grabar sonido
digitalizado a 16 bits. El número 32 se refiere a la polifonía, es decir, el número de notas musicales
que puede tocar simultáneamente el sintetizador interno.
− Y menos aún podemos decir que las tarjetas marcadas como 64 sean tarjetas de 64 bits. De hecho, los
estudios de grabación profesionales no usan más de 20 bits en sus equipos de mayor calidad. Sólo
una de las tarjetas de sonido que estudiamos en este informe tiene más de 16 bits: la Turtle Beach
Pinnacle, con 20 bits.
¿32 instrumentos?
− Es también falso que el 32 signifique que una tarjeta pueda reproducir 32 instrumentos
simultáneos. Lo que quiere decir es que puede tocar 32 notas simultáneas. Un piano, por ejemplo,
puede estar sonando con 8 notas a la vez (un acorde complejo), la guitarra tiene 6 cuerdas que
pueden sonar todas a la vez, y la percusión puede llevar 4, 6 u 8 notas simultáneas (caja, charles,
platos, bombo, conga, timbal...) Así pues, una composición interpretada por piano, batería, bajo,
guitarra, y sección de metales puede ocupar más de 24 voces de polifonía.
− Lo que sí es cierto es que pueden usarse hasta 16 instrumentos diferentes a la vez, repartiéndose
entre ellos la polifonía disponible. En un equipo General MIDI, éstos 16 instrumentos pueden
elegirse de un banco de 128 sonidos de todo tipo, mientras que la percusión dispone de 10 kits
diferentes
Los circuitos electrónicos pueden generar (sintetizar) el sonido basándose en diferentes planteamientos. Del
sistema que se elija dependerá en gran medida la calidad del sonido resultante. Veamos los tipos de síntesis
usados en las tarjetas de sonido:
Cuadrafonía vs sonido 3D
Lamento desilusionar a los que esperéis una respuesta sencilla, pues no está nada clara. Todo depende de dos
cosas: el presupuesto y las necesidades que tengas.
− Si quieres síntesis de gran calidad, la Pinnacle; su doble sintetizador Kurzweill es de una calidad
excepcional. Es la mejor elección para quien no disponga de un buen sintetizador MIDI.
− Si tienes pensado hacer volcados directos a cinta DAT, para luego editar un disco compacto, o si tienes
equipos digitales que quieras conectar con la tarjeta, compra una que tenga entrada y salida SP-DIF, el
estándar de la industria (Maxi Sound Home Studio 64 Pro ó TB Pinnacle Project Studio; la ´SB AWE 64
Gold sólo tiene digital la salida). Pero ten cuidado: los discos compactos usan 44 Khz y 16 bits, ¡no te
vayas a pasar!
− Lo anterior sería la mejor opción para aquellos músicos que ya disponen de un buen teclado o módulo
sintetizador MIDI, y quieran adentrarse en el sonido digital.
− Si te interesa probar con el modelado físico (Waveguide), una AWE 64: suena muy bien, aunque ten
en cuenta que te entregan la tarjeta con sólo 14 instrumentos.definidos. ¿publicarán más poco a
poco? ¡Quién sabe! Otro inconveniente de esta serie es que no soportan la ampliación de memoria
mediante SIMMs estándar,por lo que te obligan a comprar su propia ampliación, ¡al precio que ellos
quieran!
−
En resumen:
− Si eres músico profesional, cómprate la Pinnacle Project Studio.
− Si eres músico semiprofesional, una Maxi sound 64 o AWE 64 te irá muy bien.
− Si te gusta la música, pero tampoco es para tanto, una wavetable normal SB 32, por ejemplo)
− Si lo único que quieres es escuchar de vez en cuando ficheros MIDI, no hay duda: una tarjeta de
sonido de mil durillos, y el programa Wingroove.
Software Maxi FX Para añadir efectos a Rever y coro al MIDI, Sonido surround (2
Home Studio: juegos y música. Se reverb y eco al audio ó 4 altavoces),
pueden almacenar hasta WAV ecualizador, etc
800 efectos.
En fin, un lujo de tarjeta. Si no se necesita el software multipista (Quartz Audio Master), se puede conseguir a
menor precio.
Conectores SP-DIF de entrada y Chip Dream: un DSP RISC a 50 MIPS 4 puertos MIDI: ¡hasta 64
salida de audio digital (millones de instrucciones por canales (instrumentos)
segundo) simultáneos!
Software editor de sonidos de Los sonidos se almacenan en 4 Mb de DAC de 18 bits (conversor
usuario RAM, ampliables a 20 Mb con SIMMs de digital a analógico)
estándar
Con estas características, sólo queda conocer el precio para saber si el mercado es suyo o queda aún hueco
para las otras tarjetas.
Para ahorrar, puede uno comprarse la AWE 64, que lleva 512 Kb de RAM en vez de 4 Mb, o el modelo inferior,
la AWE 64 value, que además no lleva cable MIDI
Hay que tener en cuenta un detalle negativo: en vez de usar SIMMs de 30 contactos, como los modelos AWE
32, Creative ha decidido usar su propio sistema de memoria; al no ser estándar, ¿cuál será su precio de venta?
Otro punto interesante es la promesa de entregar una actualización de software a los usuarios de SB 32 o
AWE 32, para añadir la síntesis Waveguide- ¿quiere esto decir que no merece la pena comprarse una AWE 64?
Habrá que esperar.
• Externos.
− Modem.
Introducción
Decir módem es decir comunicación. Desde casi el comienzo de la "nueva era" de las computadoras, allá por
los años 70 la transmisión y recepción de datos entre distintos ordenadores era algo imprescindible. Y no
digamos hoy en día, donde las comunicaciones vía módem se están quedando obsoletas y dan paso a
comunicaciones más avanzadas, rápidas y fiables como son las ya mundialmente conocidas y usadas líneas
ADSL, si bien, en este caso hoy hablamos de módem ADSL.
¿Qué es un módem?
Pero en este artículo no vamos a referirnos a las líneas de alta velocidad de conexión sino que vamos a hacer
un pequeño homenaje a este dispositivo de comunicación por excelencia. Seguramente muchos de los que
estáis leyendo este artículo conectáis a Internet a través de módem (el clásico), por lo que muchos de los
conceptos que vamos a repasar nos van a sonar algo familiares.
Básicamente, un módem es un dispositivo que se utiliza para conectar dos ordenadores a través de la línea
telefónica. Ya sabemos que los datos con los que trabaja un ordenador son digitales y así, los bits de
información son representados mediante señales eléctricas que pueden tener dos estados: cero/uno. Sin
embargo, la línea telefónica está diseñada para transmitir señales analógicas. El módem es el encargado de
convertir los datos digitales en señales analógicas y viceversa, permitiendo así que sean enviados sobre la
Junto al circuito modulador y demodulador, un módem tiene un mecanismo que realiza la operación
equivalente a descolgar el teléfono cuando están llamado y volverlo a colgar cuando se ha finalizado la
comunicación. Otros circuitos le proporcionan la capacidad de marcar el número de teléfono remoto y
responder también a llamadas entrantes.
Tipos de módem
Tal y como vemos en la Figura 1 anterior, existen básicamente dos tipos de módem diferenciados por su
situación final con respecto al PC. Esta situación puede ser interna, es decir, para usar el módem hay que abrir
el ordenador e instalarlo en algún slot que quede libre y por otro lado están los módem externos, más
sencillos de instalar ya que se conectan al puerto serie trasero de nuestro equipo pero, tienen el inconveniente
de llevar un transformador o adaptador de corriente para que pueda funcionar. Existen no obstante otros
tipos de módem USB, más cómodos porque se conectan a nuestro puerto y "listo"; además, no precisan
adaptador de corriente puesto que se le suministra por el propio puerto.
En primer lugar, los dos ordenadores conectados a través de un módem deben disponer de un programa de
comunicaciones que gestione su funcionamiento. Los dos módem deberán funcionar a la misma velocidad
(concretamente a la menor de las dos) y emplear el mismo protocolo de transmisión.
Pero, ¿qué es un protocolo?, se trata de un modo de codificar los datos que se van a enviar para que exista un
entendimiento entre el emisor y el receptor. Ambos deben usar el mismo protocolo, es decir, deben hablar el
mismo idioma. Los parámetros que intervienen son:
Antes de iniciarse el envío de datos, ambos ordenadores deben identificarse y el destinatario indicará que está
listo para la recepción; a este proceso se le conoce como "HandShaking". A continuación el emisor envía los
datos en bloques acompañados generalmente de un código de verificación que permite detectar los errores
de transmisión, pero si un bloque contiene un error, deberá ser retransmitido por completo (a veces se
retransmiten los bloques siguientes). A esto se le suele llamar ECM (Error Correction Mode o modo de
corrección de errores).
En cuanto al receptor también indica al emisor que detenga la transmisión de datos para darle tiempo a
procesar los datos que le había mandado previamente.
Una vez terminado el envío de datos, el emisor rompe la comunicación, quedando ambos módem en
disposición de comunicarse nuevamente.
Fax y módem
Para recibir una comunicación de fax, el PC debe permanecer conectado, con el programa de fax-módem
cargado y funcionando. Al recibir una llamada, si se trata de un fax, el programa "descuelga" y comienza a
recibir los datos. Estos datos se guardan en forma de documento, tal y como lo haría una máquina de fax al
imprimirlos en un papel.
Velocidad de transmisión
Los aparatos de módem que se comercializan actualmente se diferencian notablemente entre si en cuanto al
tipo (internos o externos) y sobre todo, en cuanto al índice de velocidad de transmisión de datos que pueden
alcanzar.
Aunque las velocidades de transmisión son frecuentemente expresadas en baudios (el número de cambios de
frecuencia en un segundo), ese término ya no se utiliza y en su lugar se utiliza otro más exacto: bits por
segundo (bps).
Los primeros módems transmitían datos a velocidades consideradas actualmente muy bajas; estamos
hablando de 300 bits por segundo. Posteriormente surgieron módems trabajando a 600, 1200 y 2400 bps,
La utilización de módems de altas velocidades proporciona no sólo un ahorro de tiempo, sino también un
ahorro en los gastos de teléfono, sobre todo si no contamos con las famosas tarifas planas. A efectos del
operador telefónico, es lo mismo estar una hora hablando por teléfono que estar una hora transmitiendo
datos: el precio es el mismo. Cuanto más rápido sea el módem, menos tiempo se tarda en transmitir o enviar
información.
Otro detalle muy importante en cuanto a la velocidad de los módems, es que no sólo basta que nuestro
módem sea rápido, sino que el módem del ordenador a donde nos vayamos a conectar también lo sea. Esto
quiere decir, que si tenemos un módem que trabaja a 28000 bps y queremos comunicarnos con un módem
que trabaja a 2400 bps, la comunicación se establecerá a la más baja de las dos velocidades, en este caso
2400 bits por segundo.
Aclarando conceptos...
Baudios y bits por segundo:
Existe una diferencia entre bits por segundo (bps) y baudios, debida al tipo de modulación empleada. Aunque
las velocidades de transmisión se miden en bits por segundo, realmente a efectos técnicos lo importante es la
velocidad de modulación expresada en baudios. Existen tres tipos de modulaciones: ASK, FSK y PSK. Un
módem de 600 baudios puede transmitir a 1200, 2400 o, incluso a 9600 bps. Más información sobre
modulación en Google.
En la práctica, la UART es un completo subsistema intergrado en un chip que convierte datos en paralelo a
datos serie y viceversa. Determina e inserta los bits de paridad, verfica los de paridad recibidos, crea el bit de
inicio, selecciona e inserta los de parada, controla el número de bits por carácter y, por si fuera poco, lo
almacena todo para tener tiempo de realizar todas estas tareas.
8250 (NS8250). Fue la primera UART en utilizarse para un PC. se trata de un dispositivo lento y obsoleto, ya
que los programas de comunicaciones tienen que "perder tiempo" con el fin de no saturarlo. Dispone de 7
registros internos para almacenar datos y su velocidad máxima teórica es de 56 Kbps.
8250A (NS8250A). Es un chip similar al 8250, en el que se corrigieron algunos errores. Se le añadió un
registro más y su velocidad máxima teórica es igual que la anterior, 56 Kbps.
16450 (NS16450). Los ordenadores antiguos basados en arquitectura AT (286, 386, 486 y los primeros
Pentium) (los modernos son ATX) utilizan este tipo de UART, una evolución de la 8250A a la que se le ha
acelerado el acceso al dispositivo. Puede conectar se con el bus estándar de E/S (ISA,...) para tarjetas de
expansión y transferir datos a velocidades de hasta 115,2 Kbps con lo que se cubren todas las necesidades de
sistemas antiguos monotarea como DOS y Windows 3.x (aunque no NT, 2000, XP, y sucesivos) que se
comunique con otros dispositivos asíncronos. Este circuito integrado supera ampliamente las exigencias de
velocidad de aplicaciones típicas como las de comunicaciones con módems, terminales y transferencias
directas de datos entre ordenadores, impresoras serie, etc. Dispone de 8 registros.
16C451 (NS16C451). la UART 16C451 es, como todas aquellas que incorporan la letra C, una versión CMOS
(que reduce considerablemente el consumo de energía), en este caso de la 16450. Tiene las mismas
especificaciones que la 16450 aunque se cambió su proceso de fabricación. Dispone de 8 registros.
16550 Non A (NS16550 Non A). es un chip muy raro que puede encontrarse en algunos ordenadores PS/2.
Fue la primera UART con proceso FIFO (First In First Out, el primero que en entrar es el primero en salir)
aunque, en la mayoría de los casos, estaba inexplicablemente desactivado. Su mayor avance consistió en un
drástico aumento de su velocidad máxima teórica hasta los 256Kbps (y en la práctica 115Kbps) aunque
mantuvo el número de registros a 8.
En concreto, la UART 16550AF fue desarrollada para cubrir los crecientes requisitos de rendimiento y la
ejecución de software cada vez más avanzado en los ordenadores AT. Incorpora mejoras de arquitectura y
velocidad que permiten notables incrementos en la eficacia de los canales serie.
16C552 (NS16C552). Esta UART es una versión CMOS de la 16550AF aunque en la práctica, encapsulada en
su chip dos UART 16C551 completas. El interfaz con la CPU es lo suficientemente rápido para transferir datos
a 25 Mhz sin estados de espera. La velocidad teórica máxima del enlace serie alcanza los 1,5 Mbps. Se utiliza
frecuentemente en tarjeas de comunicaciones multipuerto.
82510 (NS82510). La UART 82510 ha sido prácticamente monopolizada por el fabricante Intel. Es un chip
emulador que puede operar bajo varios modos, siendo el UART 16450 el que adopta por defecto. Tiene un
FIFO de 4 octetos con lo que mejora ampliamente las prestaciones del propio 16450. Sus reducidas
dimensiones o han hecho prácticamente indispensable en los ordenadores portátiles.
Normalización
Desde un punto de vista puramente técnico, existen multitud de soluciones a la hora de diseñar un módem.
Sin embargo, a fin de facilitar la instalación de enlaces internacionales y evitar la proliferación innecesaria y
antieconómica de soluciones particulares, diversos organismos internacionales se han encargado de establecer
una serie de normas que indican las características que deben cumplir los módems de diferentes fabricantes
para asegurar la compatibilidad. (International Telecommunications Union, Unión Internacional de
Telecomunicaciones)
Los tres parámetros que definen un tipo de módem o la norma por la cual se gobierna son los siguientes:
− Velocidad de transmisión
− Tipo de línea de transmisión
− Tipo de modulación
Existen muchas normas que rigen estos criterios, pero las más usuales son las siguientes:
Un módem externo es una pequeña caja con su propia fuente de alimentación y algunos botones y luces en el
panel frontal. Este tipo de módem se conecta al ordenador en el puerto serie a través de un cable.
HS. Alta velocidad: indica que el módem está operando actualmente a su más alta capacidad de transmisión
posible.
AA. Contestación automática: indica que el módem responderá automáticamente a cualquier llamada
recibida. Esta característica permite el acceso al sistema mientras está desatendido.
CD. Detector de portadora: se enciende siempre que el módem detecta una señal de portadora, que significa
que ha hecho exitosamente una conexión con un ordenador remoto. La luz debería apagarse solamente
cuando uno de los ordenadores se desconecta y la señal de portadora desaparece.
OH. Conexión: permanece encendida siempre que el módem coge el control de la línea telefónica. Esto
equivale a coger el receptor y descolgarlo.
RD. Información recibida: parpadea cada vez que la informacón es transferida del módel al ordenador. Esto
ocurre sirmpre que se recibe información del ordenador remoto.
SD. Información enviada: parpadea cada vez que el ordenador transfiere información al módem, cuando envía
información al ordenador remoto.
TR. Terminal listo: se enciende cuando el módem detecta la señal de "información de terminal preparada, DTR"
del software de comunicaciones. Esta señal informa al módem de que un programa de comunicaciones ha
sido cargado y listo para ejecutarse.
MR. Módem listo: permite conocer que el módem está encendido y listo para operar.
Método de marcación
Comandos HAYES
Un módem puede funcionar en varios modos y con distintas velocidades de transmisión. Para controlarlos
(ponerlos en modo correcto, indicarles que marquen un número, etc) se utiliza un lenguaje de comandos. El
más utilizado es el conjunto de comandos desarrollado por la firma HAYES, también conocido como lenguaje
AT.
El lenguaje AT se ha convertido en un estándar para el control de módems. Los comandos necesarios para
realizar las funciones básicas, tales como marcar un número o cortar la comunicación, son igual para todos los
módems.
Todos los comandos Hayes empiezan con la secuencia AT. La excepción es el comando A/. Tecleando A/ se
repite el último comando introducido. El código AT consigue la atención del módem y determina la velocidad
y formato de datos.
Los comandos comienzan con las letras AT y siguen con las letras del alfabeto (A..Z). A medida que los módem
se hicieron más complicados, surgió la necesidad de incluir mas comandos, son los comandos extendidos y
tienen la forma AT&X (por ejemplo), donde el "&" marca la "X" como carácter extendido. Cada fabricante ha
elegido diferentes comandos para realizar las funciones extras. Por tanto, aunque un comando funcione
correctamente sobre un módem, no se debe asumir que funcionará correctamente en cualquier otro.
Ha surgido varias veces como tema de discusión la velocidad real del módem. Había gente que comentaba
que aunque su módem es un 28,8 veía velocidades bajo Windows de 56000 o incluso velocidades de 112500.
Bien, vamos a distinguir todo lo que interviene en la transmisión, y además cómo podemos "preguntarle" al
módem su velocidad real.
1) El puerto de comunicaciones
2) El módem3) El diálogo entre nuestro módem y el de nuestro ISP
La comunicación desde el puerto a nuestro módem es de un máximo de 115200 (con los actuales puertos).
La comunicación entre los dos módem es el mínimo de la velocidad indicada en nuestro módem y el módem
del proveedor (por ejemplo 33600).
1) ¿por qué es superior la velocidad de puerto/módem que la de módem/módem?. Bien, es sencillo, los
módem, además de "dialogar" la velocidad (en la cual influyen ruidos de la línea, etc), dialoga la "compresión"
de los datos. Siempre intentan compresión. Evidentemente si nos estamos bajando un fichero .ZIP, ya no
puede comprimirlo. Pero si nos estamos bajando "texto", puede llegar a factores de compresión de 18 a uno.
En este caso, nuestro módem "descomprime", por tanto incluso puede saturar la línea de 115200 con el
puerto de comunicaciones, por lo que debe volver a dialogar con el otro módem para "bajar" su velocidad. En
caso de datos insuficiente, intentará por el mismo motivo "subir" la velocidad.
2) ¿qué nos indica la velocidad que vemos en el icono de Windows?. Bien, pues depende. Primero, siempre
nos indica la misma. Es siempre la misma independientemente de que baje o suba. Y es la velocidad "en el
momento" de la conexión inicial. Pero otra pregunta: ¿qué velocidad, la de la línea puerto/módem o la de
modem/modem es la que nos muestra Windows?. Pues depende de nuestro modem y del protocolo
negociado. Algunas veces incluso tiene la desfachatez de decirnos 115200, cuando esto es imposible!!. La
culpa no es de Windows, es de la información que le pasa el módem a Windows, que insisto, depende del
protocolo negociado y normalmente en V90 y con ciertos módems, nos dice siempre 115200. Y nuestro
módem es de 56K!!
¿Cómo podemos saber la verdad?
Bueno, para ello, lo que debemos hacer es realizar una conexión con la herramienta Hyperterminal de
Windows. Marcamos a nuestro proveedor. Una vez establecida la comunicación, le damos a INTRO y luego
tecleamos despacito "+++" (3 símbolos "+"). Nos debe salir "OK". En este momento hemos entrado en diálogo
con el módem. Ahora le tecleamos (en minúsculas):
Posteriormente tecleamos:
atw2
ato
Y nos mostrará por pantalla la velocidad REAL de portadora entre ambos módems así como la compresión
negociada entre ellos.
− Disco duro
Definición
Los discos duros constituyen la unidad de almacenamiento principal del ordenador, donde se almacenan
permanentemente una gran cantidad de datos y programas. Constituyen la memoria de almacenamiento
masivo.
Esta información que almacena no puede ser procesada directamente por el microprocesador, sino que, en un
paso previo, deben transferirse a la memoria central donde pueden manejarse.
Las unidades de los discos duros contienen 2 o más discos {platillos) apilados sobre un eje central y aislados
completamente del exterior. Los elementos móviles que poseen están mucho mejor construidos. El sistema
gira rápidamente y los discos son de mayor densidad. Esto hace que la capacidad de los discos duros sea
mucho mayor que la de los discos flexibles.
Caraterísticas físicas
El primer disco duro utilizado en un PC tenía una capacidad de almacenamiento de 10 MBytes. Era más
grueso, medía 15 cm de ancho y 20 cm de largo y pesaba cerca de 5 kg. Las diferencias son tremendas
respecto a los discos duros actuales. Todas estas variaciones morfológicas se deben al continuo refinamiento
de los materiales y al consiguiente aumento de la densidad acumulativa, así como a la mejora de los métodos
de almacenamiento y al perfeccionamiento y optimización de los componentes electrónicos.
Las unidades de disco duro pueden adquirirse en formato de 3,5 o de 5,25 pulgadas, aunque también existen
de 2 pulgadas para los ordenadores portátiles y otros tamaños especiales para otros dispositivos, que pueden
alcanzar capacidades muy elevadas (varios cientos de Gbytes).
A diferencia de las unidades de disquete y de otros dispositivos de almacenamiento, las unidades de disco
duro están, por así decirlo, lacradas. El medio portador de datos no puede ser extraído (los platillos o discos
Un disco duro está formado por una serie de discos o platillos apilados unos sobre otros dentro de una
carcasa impermeable al aire y al polvo. Son de aluminio y van recubiertos de una película plástica sobre la que
se ha diseminado un fino polvillo de óxido de hierro o de cobalto como material magnético.
Los más comunes son los platillos de 3,5 pulgadas (8,9 cm). Cada disco tiene dos caras ya cada una de ellas le
corresponde una cabeza de lectura/escritura soportada por un brazo. En la práctica, estos brazos situados
entre dos platillos contienen dos cabezas de lectura/escritura. La palabra cabeza se utiliza para designar a una
cara. Así, se dirá por ejemplo, que un disco de siete platillos donde se emplean todas las caras, tiene catorce
cabezas.
La superficie de los platillos se divide en pistas concéntricas numeradas desde la parte exterior empezando por
la pista número 0. Cuántas más pistas tenga un disco de una dimensión determinada, más elevada será su
densidad, y por tanto, mayor será su capacidad.
Todas las cabezas de lectura/ escritura se desplazan a la vez, por lo que es más rápido escribir en la misma
pista de varios platillos que llenar los platillos uno después de otro. El conjunto de pistas del mismo número
en los diferentes platillos se denomina cilindro. Así por ejemplo, el cilindro 0 será el conjunto formado por la
pista 0 de la cara 0, la pista 0 de la cara 1, la pista 0 de la cara 2, la pista 0 de la cara 3, etc. Un disco duro
posee, por consiguiente, tantos cilindros como pistas hay en una cara de un platillo.
Las pistas están divididas a su vez en sectores con un número variable de 17 a más de 50. Estos sectores
poseen varios tamaños: los situados más cerca del centro son más pequeños que los del exterior, aunque
almacenan, sin embargo, la misma cantidad de datos, 512 bytes. La densidad, pues, es mayor en los sectores
internos que en los externos.
Esto nos llevaría a preguntamos por qué no se aumenta la capacidad de los discos colocando más sectores en
las pistas exteriores que en las interiores. La respuesta es simple, porque hasta ahora no ha merecido la pena
obtener ese aumento de capacidad a cambio de una organización más complicada de la información. Es más
fácil controlar pistas que tienen todas un mismo número de sectores que aquellas en las que el número de
sectores varia dependiendo de la posición de la misma. Los discos duros más modernos que utilizan un
procedimiento denominado Zone-bit-recording colocan un número de sectores distinto en función del
diámetro de la pista.
Capacidad = Bytes por sector x Número de sectores x Número de cilindros x Número de cabezas
El número de pistas o cilindros, el de las caras de los platillos y el de los cabezales viene determinado
físicamente por el fabricante. Por otro lado, la cantidad de sectores depende del procedimiento de grabación
y de la densidad de los datos que vayan a almacenarse en el disco. Este factor se establece por la calidad de la
película con que se haya recubierto la superficie de las láminas o placas.
Anteriormente nos hemos referido a la capacidad neta de un disco duro. Esta denominación corresponde, en
realidad, a la capacidad disponible después de darle formato. A menudo, lo que aparece en la documentación
técnica de los discos duros es su capacidad en bruto. El volumen neto es, por supuesto, inferior, porque en él
ya se ha descontado el espacio requerido para la gestión del disco duro.
Por poner un ejemplo, en unidades con varios cientos de MBytes la diferencia entre los valores neto y bruto
puede alcanzar fácilmente los 30 MBytes 0 los 50 MBytes. En un disco duro con una capacidad bruta de 2.000
MBytes (2 Gigas) el espacio neto disponible alcanza, como mucho, los 1.700 MBytes .La diferencia es, por
tanto, bastante sustancial.
Funcionamiento
Al igual que los disquetes, los discos duros constan de cuatro componentes principales: el motor de
impulsión, los cabezales de lectura y escritura, el motor paso a paso y los circuitos de control, tal y como
vimos en la página anterior.
En la parte inferior del disco duro se encuentra una tarjeta de circuito impreso {circuitos de control) que
recibe los comandos de la controladora de la unidad (la clásica tarjeta controladora de discos duros), la cual es
controlada a su vez por el sistema operativo. Esta tarjeta traduce esos comandos en fluctuaciones de voltaje
que fuerzan el movimiento de las cabezas de lectura/escritura a través de la superficie de los platillos. Por otro
lado, la tarjeta de control también asegura que el eje de esos platillos tenga una velocidad constante e
informa a la unidad de cuándo debe leer o escribir sobre el disco. En un disco duro IDE, el controlador es parte
integral de esta tarjeta.
El motor paso a paso coloca y empuja el grupo de brazos o cabezales de lectura/escritura sobre las superficies
de los platillos con gran precisión. Alinea las cabezas y las pistas que están formadas por circulos concéntricos
en la superficie de los platillos. Los cabezales de lectura/escritura incluidos en los extremos de los brazos en
movimiento, avanzan al unísono a través de la superficie de los platillos giratorios del disco duro.
Las cabezas escriben la información procedente del controlador de disco en los platillos, alineando las
partículas magnétícas en la superficie de éstos. También se encargan de leer la información y detectan las
polaridades de las partículas que ya fueron alineadas. Cuando el usuario o el software pide al sistema
operativo que lea o escriba un determinado sector del disco, el sistema operativo ordena a la controladora del
disco duro que mueva los cabezales de lectura/ escritura sobre la pista que contiene ese sector. Los cabezales
sólo tienen que esperar a que ese sector pase exactamente por debajo de ellos, para leer o escribir sobre él.
A diferencia de lo que sucede en las unidades de disquete, la cabeza de lectura y escritura no reposa sobre el
soporte de datos, ya que a velocidades de rotación muy elevadas podría provocar agresiones graves en la
cabeza y en el platillo. Por lo tanto, flota sobre la superficie del disco. Es el desplazamiento de las capas de
aire arrastradas por el movimiento de rotación de la superficie del disco el que provoca, por un fenómeno
aerodinámico, el despegue de las cabezas y su colocación a una distancia de 0,5 micras por encima de la
superficie. Esto plantea varíos problemas.
En primer lugar, durante el funcionamiento debe evitarse que se introduzca alguna partícula en el espacio
situado entre el disco y la cabeza de lectura. Si llegara a introducirse alguna, sufrían daños importantes tanto
la cabeza como la superficie del disco. Por este motivo, los discos duros están protegidos herméticamente al
paso del aire por carcasas que no deben ser abiertas.
Un disco duro, mientras está funcionando, no puede ser movido debido a la cercanía de la cabeza y el disco.
No haría falta un gran golpe para que la cabeza dañase la superficie del disco y, por lo tanto, se enviarían
continuos mensajes de error de lectura y escrítura o bien se encontrarían sectores defectuosos. Por otro lado,
cuando el disco no está en funcionamiento, la cabeza de lectura/escritura debe reposar sobre la superficie
magnética. Se produce un "despegue" de la cabeza cuando se conecta la corriente y un "aterrizaje" cuando se
interrumpe dicha corriente. Durante estas dos fases, la cabeza roza la superficie del disco. Para evitar dañar
zonas que contienen datos, se reserva una pista especial para esta acción, conocida como zona de aterrizaje
(landing zone).
El número de esta pista es una característica importante que hay que comunicar a la BIOS cuando se instala
una unidad de disco duro. Este dato se utiliza para aparcar las cabezas de lectura sobre la pista adecuada
antes de desconectar la corriente. La mayor parte de los discos duros modernos realizan un aparcamiento
automático. La zona de aterrizaje es, generalmente, la pista situada en el interíor del disco, la que tiene el
número más elevado. Las dos operaciones que realiza la cabeza de lectura/escritura son la escritura de datos
y la lectura de datos.
Los datos se escriben en la superficie del disco por medio de una corriente enviada al electroimán que porta la
cabeza de lectura/escritura. Esta corriente produce un campo magnético que modifica la superficie del disco.
Juntando dos dipolos se forma el elemento de la información que un ordenador puede manipular, el bit, que
toma el valor 1 o el valor 0:
- Si el bit representa el valor binario 1, los dos dipolos magnéticos están alineados con direcciones opuestas.
- Si por el contrario, adquiere el valor 0, ambos dipolos magnéticos quedan alineados en la misma dirección.
Una variación del campo magnético en las proximidades de un electroimán provoca la aparición de una
corriente eléctrica en el bobinado de éste.
Los datos se escriben en el disco por impulsos de corriente. Su lectura provoca impulsos de la misma
naturaleza. El desplazamientb de los dipolos que se encuentran en la superficie del disco con respecto a la
cabeza de lectura, produce una inversión del campo magnético la cual provoca la aparición de una corriente
inducida en el bobinado. Esta corriente tendrá un sentido u otro según hayamos leído un bit 0 o un bit 1.
Conociendo el sentido de la corriente, el ordenador sabe si la cabeza de lectura pasa sobre un 1 o sobre un 0.
Los discos duros pueden clasificarse siguiendo varios criterios. Por ejemplo, según el tipo de codificación
realizada encontramos discos duros MFM, RLL, ARLL, o ERLL.
Según la tarjeta controladora o interfaz utilizado para comunicar el disco duro con el ordenador, los discos
duros pueden clasificar se en ST -506, ESDI, IDE, o SCSI.
Normalmente los discos duros MFM y RLL se corresponden con los interfaces ST -506 o ESDI, que son los más
antiguos. y los procedimientos de codificación más avanzados como ARLL o ERLL se emplean en los discos
duros más modernos que usan un interfaz IDE o SCSI. Esto no significa que no encontremos discos duros IDE
que utilicen codificación MFM. Es decir, que puede formatearse un disco duro IDE para aceptar una
codificación de datos MFM o RLL, pero no sería lo más óptimo.
Todos los discos duros se caracterizan por una serie de parámetros que nos permiten hacer comparaciones
entres las distintas unidades de disco, por ello, algunos parámetros son muy importantes a la hora de elegir
un buen disco duro. Otros, sin embargo, son imprescindibles para cuando se realice la instalación de una
unidad de disco.
Tiempo de acceso
Cuando se pretende leer la información de un determinado sector, el primer paso consiste en mover la cabeza
de lectura hasta la pista (cilindro) donde se encuentra dicho sector. Esta búsqueda lleva un tiempo que se
conoce como tiempo de búsqueda y su duración dependerá en cada caso de dónde esté situada la cabeza de
lectura con respecto a la pista que se pretende encontrar. Los programas que miden este tiempo, toman como
medida de referencia el tiempo requerido para recorrer un tercio del disco. A esto se le denomina tiempo de
búsqueda medio. Suele estar en el orden de los milisegundos.
La suma del tiempo de búsqueda medio más el periodo de latencia medio es conocido como tiempo de
acceso y es el proporcionado por el fabricante del disco duro. Suele ser del orden de milisegundos.
Supongamos un disco duro que gira a 3.600 revoluciones por minuto. Si en un minuto da 3.600 vueltas,
¿cuánto tiempo tardará en dar media vuelta? Sólo hay que realizar una sencilla regla de tres:
La velocidad de transferencia determina cuántos datos pueden leerse o escribirse en el disco duro en un
periodo determinado de tiempo. Es decir, la cantidad de datos que se transmiten entre el disco duro y el
ordenador. Esta velocidad se mide en bytes por segundo.
Las unidades de disco duro más antiguas poseen una velocidad de transferencia del orden de 400 ó 700
KBytes por segundo, mientras que las más modernas alcan zan varios megabytes por segundo.
La velocidad de transferencia de datos, depende entre otras muchas cosas, del tiempo de acceso. Por ello, es
la velocidad de transferencia de datos el factor más determinante que indica la rapidez de un disco duro.
Podemos encontrar en el mercado discos duros que teniendo un tiempo medio de acceso de 10 milisegundos
pueden tener un rendimiento menor que uno de 14 milisegundos.
Este es uno de los parámetros que como hemos visto anteriormente determina el tiempo de acceso de un
disco duro, y por tanto su velocidad de transferencia de datos. Los primeros discos duros giraban todos a una
velocidad de 3.600 revoluciones por minuto. Pero en seguida los fabricantes de discos duros se dieron cuenta
que con sólo aumentar la velocidad de giro del ordenador se consjguen prestaciones mejores.
Los discos duros modernos giran a 4.500 rpm y algunos incluso llegan hasta las 11.000 vueltas por minuto. La
velocidad de giro de los disquetes es del orden de 300 rpm. Además existe otra diferencia y es que un disco
duro empieza a girar desde el mismo momento en que le llega la alimentación. En cambio, una disquetera
sólo acciona el motor de giro cuando tiene en su interior un disquete introducido. Si al proporcionar
alimentación a un disco duro no gira, es síntoma evidente de que está dañado.
Precompensación de escritura
Un disco duro posee un elevado número de cilindros y todos tienen el mismo número de sectores por pista.
Por eso, la densidad de almacenamiento de información es mucho más elevada en los cilindros cercanos al
centro que en los externos.
Las zonas magnéticas de la superficie del disco se comportan como imanes. Cuando están muy próximas entre
sí, se produce una interacción entre sus polos: los polos idénticos se repelen y los polos opuestos se atraen.
Esto provoca un desplaza- miento que perturba la posterior lectura.
Sin precompensación
Con precompensación
Para resolver este problema, se aplica la técnica denominada precompensación de escritura, en la cual los
datos se desfasan durante la escritura de manera que pueda compensarse el posterior desplazamiento. La
interacción entre los polos provoca un desplazamiento que los lleva a la posición correcta.
Esta técnica se aplica a partir de un cilindro determinado. Los fabricantes de discos duros, cuando diseñan la
unidad, determinan a partir de qué cilindro se realiza la precompensación, siendo ésta una de las
caracteristicas del disco. Durante su instalación en el ordenador, es importante conocer el número de este
cilindro para indicarlo en los parámetros de la BIOS.
En el apartado del SETUP donde se recoge el tipo de disco duro instalado, hay una opción denominada
WPcom o PRECOMP para indicar el lugar donde se produce la precompensación de escritura.
Existen también discos duros que utilizan un procedimiento de grabación de datos denominado zone-bit-
recording mediante el cual las pistas más externas contienen más sectores que las pistas internas. En este tipo
de discos no se aplica el principio de precompensación de escritura. Muchos de los discos duros IDE actuales
utilizan este procedimiento de codificación especial. Por ello, cuando instalemos un disco duro de estas
caracteristicas tendremos que indicar en el SETUP que no utiliza precompensación de escritura. Muchas veces
se indica con el valor 0 o el valor 65535.
Las pistas de un disco no poseen longitudes iguales, las pistas del centro son muchas más cortas que las del
exterior. Como consecuencia, al contener todas las pistas la misma cantidad de información, los datos de las
pistas centrales se sitúan más próximos que los de las pistas exteriores.
Para grabar la información en el disco duro, la cabeza de escritura genera un determinado campo magnético
que provoca la polarización de una pequeña zona del disco. Cuánto más nos acerquemos al interior del disco,
más próximas estarán estas zonas, lo que impediría una lectura correcta de los datos.
Para evitar este efecto, se reduce el tamaño de la zona magnetizada en las pis- tas interiores. Esto se logra
reduciendo el campo magnético aplicado. Para ello, hay que disminuir la corriente eléctrica que pasa a través
de la cabeza de escritura.
El fabricante del disco duro suele indicarnos en su documentación a partir de qué cilindro o pista se produce
la reducción de la corriente de escritura. En muchas ocasiones este dato habrá que reflejarlo en los parámetros
de configuración del SETUP para optimizar el uso de nuestro disco duro y evitar posibles errores de lectura.
Para evitar este efecto hay que desplazar la cabeza de lectura a algún punto del disco duro que no contenga
datos cuando se apaga el ordenador. Los primeros discos duros utilizaban el comando PARK del MS-DOS para
mover la cabeza de lectu ra a alguna pista que no contuviera información (eneralmente la primera o la
última). Entonces ya podíamos mover ese disco duro sin riesgo alguno.
Los discos duros modernos son más avanzados y ellos mismos desplazan la cabeza de lectura a alguna pista
auxiliar en el momento de cesar la alimentación. Es lo que se conoce también como autoaparcamiento de las
cabezas.
Hay que indicar en el SETUP del ordenador el cilindro o pista donde tiene que llevarse las cabezas de lectura
en el momento de apagar el ordenador. Para ello disponen de una opción denominada lZone o LANDZONE
que tendremos que indicar según la información suministrada por el fabricante. Suele ser la pista central, es
decir, la última.
Los discos compactos (Audio Compact Discs (CD-DA)) fueron introducidos en el mercado de audio por primera
vez en 1980 de la mano de Philips y Sony como alternativa a los discos de vinilo y de lo cassettes.
En 1984 ambas compañías extendieron la tecnología para que se pudiera almacenar y recuperar datos y con
ello nació el disco CD-ROM. Desde entonces el compact disc ha cambiado de un modo significativo el modo
en el que escuchamos música y almacenamos datos.
Estos discos tienen una capacidad de 650 Megabytes de datos o 74 minutos de música de muy alta calidad.
De un modo genérico podemos decir que el Compact Disc ha revolucionado el modo en que hoy dia se
distribuye todo tipo de información electrónica.
En 1990 fueron de nuevo Philips y Sony los que ampliaron la tecnología y crearon el Compact Disc grabable
(CD-R). Hasta entonces todos los CDs que se producían se hacían mediante el proceso industrial de
estampación de una maqueta pregrabada.
El disco así grabado se protege con una capa muy tenue de aluminio, lo cual le da el color típico plateado.
Hoy día estas técnicas se utilizan para cantidades superiores a 1000 unidades, mientras que para cantidades
inferiores es más barato, rápido y conveniente utilizar la grabación de discos grabables.
Estos también llevan una capa de recubrimiento característica. Al principio esta era de oro y derivados, lo cual
hacia que el disco tuviera ese color. Hoy día se utilizan otros compuestos más versátiles, duraderos y baratos.
En la actualidad, cuando han pasado 14 años desde que Sony y Philips desarrollaron el formato digital del
Compact Disc (CD) y ofrecieron al mundo la primera expresión del "entretenimiento digital", nos llega un
nuevo y revolucionario producto : el Digital Video Disc (DVD). Tras el CD, vinieron el CD-ROM, Photo CD, CD-i,
DCC, MiniDisc, ... pero ninguno creó las espectativas que ha creado el DVD. En esta evolución se han
producido avances significativos en tecnologías que soportan estos formatos : láser ópticos, películas
reflectivas, replicación de discos, ... y sobre todo, los algoritmos de compresión y codificación de video, audio
y datos.
Indiscutiblemente los avances en los circuitos integrados (VLSI) y los mecanismos de control han hecho posible
que las nuevas tecnologías se hicieran realidad. Fue en septiembre de 1995 cuando Sony, junto con otras
nueve compañías (Philips, Mashusita, Toshiba, ...) unieron sus esfuerzos y crearon un estandar unificado para
el formato DVD. Respaldado por las grandes compañías electrónicas y del mundo de la multimedia (estudios
cinematográficos entre otros), comenzó su andadura .
La unidad de CD-ROM ha dejado de ser un accesorio opcional para convertirse en parte integrante de nuestro
ordenador, sin la cual no podríamos ni siquiera instalar la mayor parte del software que actualmente existe,
por no hablar ya de todos los programas multimedia y juegos.
En primer lugar vamos a diferenciar entre lectores, grabadores y regrabadores. Diremos que los más flexibles
son los últimos, ya que permiten trabajar en cualquiera de los tres modos, pero la velocidad de lectura, que es
uno de los parámetros más importantes se resiente mucho, al igual que en los grabadores.
Así tenemos que en unidades lectoras son habituales velocidades de alrededor de 34X (esto es 34 veces la
velocidad de un lector CD de 150 Kps.), sin embargo en los demás la velocidad baja hasta los 6 ó 12X.
Dado que las unidades lectoras son bastante económicas, suele ser habitual contar con una lectora, y una
regrabadora, usando la segunda sólo para operaciones de grabación.
En cuanto a las velocidades de grabación suelen estar sobre las 2X en regrabadoras y las 2 ó 4X en
grabadoras).
Otro aspecto que vamos a comentar es el tipo de formatos que será capaz de leer / grabar. Es interesante que
sea capaz de cumplir con todos:
- ISO 9660: Imprescindible. La mayor parte de los demás son modificadores de este formato.
- CD-XA y CD-XA entrelazado: CD's con mezcla de música y datos.
- CD Audio: Para escuchar los clásico Compact Disc de música.
- CD-i: Poco utilizado.
- Vídeo-CD: Para peliculas en dicho formato.
- Photo-CD Multisesión: Cuando llevas a revelar un carrete puedes decir que te lo graben en este formato.
Software
En el caso de las regrabadoras necesitaremos un software de la casa Adaptec, llamado DirectCD, que será el
encargado de poder utilizar nuestra unidad como si de un disco duro se tratara. Normalmente este software
ya nos vendrá con la unidad que compremos. Actualmente se utiliza la versión 2.0.
Si además queremos crear nuestros propios CD's personalizados, existe en el mercado un amplio abanico de
programas que nos permitirán crear nuestras propias grabaciones en casi todos los formatos.
Duplicación CD
Las CDcard (o cdtarjeta) pueden ser ovaladas o rectangulares y pueden tener hasta 50 mb (las
ovaladas). Son del tamaño de una tarjeta de visita. Este hecho les da un caracter atractivo y distinto de la
imagen convencional que transmite un cd. Por su tamaño mas reducido, es ideal para adjuntar con informes,
comunicados corporativos, memorias de empresa, folletos, currículum vitae. Las CD-card en su estuche jewel
box dan una imagen exclusiva, diferencial y destacada para presentaciones cientificas o presentaciones
corporativas o presentacion de empresa.
Los CD card los puede utilizar en el lanzamiento de nuevos productos, para congresos o seminarios, para
ferias, en sus catálogos de productos, como regalo de navidad, boda (por ejemplo con un video de la
celebracion) etc
Duplicación DVD
Son los DVD convencionales tipo DVD 5 o de doble capa DVD 9 con una capacidad de 4.7 o 9 Gigabytes
respectivamente. Son cada día mas populares y se utilizan en todo tipo de aplicaciones, como los CDs y alli
donde estos no llegan por limitación en la capacidad. La aplicación predominante es el video de larga
duración. Pero tambien se pueden utlizar en el almacen y archivo de datos incluyendo informes, comunicados
corporativos, memorias de empresa, folletos, currículum vitae. Los DVDs en si mismos dan una imagen
exclusiva, diferencial y destacada para presentaciones científicas o presentaciones corporativas o presentación
de empresa. Los DVD los puede utilizar en el lanzamiento de nuevos productos, para congresos o seminarios,
para ferias, en sus catálogos de productos, como regalo de navidad, boda (por ejemplo con un video de la
celebracion) etc.
Los DVDs son idoneos para: Distribución de software, Catálogos de productos, Comunicados corportativos,
Memorias de empresa, Libros electrónicos, Currículum vitae, Archivo de fotos, Congresos científicos, Ferias,
Presentaciones de empresa, Presentaciones científicas, Regalos de navidad, Regalos de empresa, etc
Los mini CD son circulares, son mas pequeños que los convencionales porque tienen una capacidad es de 150
Mb en sus 8 cm de diametro. Este hecho les da un caracter atractivo y distinto de la imagen convencional que
transmite un cd. Por su tamaño mas reducido, es ideal para adjuntar con informes, comunicados corporativos,
memorias de empresa, folletos, curriculum vitae. Los mini CD en su estuche jewel box dan una imagen
exclusiva, diferencial y destacada para presentaciones cientificas o presentaciones corporativas o
presentacion de empresa. Los mini CD los puede utilizar en el lanzamiento de nuevos productos, para
congresos o seminarios, para ferias, en sus catalogos de productos, como regalo de navidad, boda (por
ejemplo con un video de la celebracion) etc
CAJA DVD
BOTÓN
El nacimiento del disquete se le atribuye a Alan Shugart, quien en los laboratorios de IBM en San José,
California, lideraba el equipo de desarrollo de la platina de disco, en 1967.
Los primeros discos flexibles fueron utilizados en IBM para cargar microcódigos en el controlador del paquete
de discos Merlín, el IBM 3330, que era un dispositivo de almacenamiento de 100MB de capacidad. Estos
discos recibían el nombre de floppy por su flexibilidad.
En 1971, IBM introdujo al mercado el primer "disco de memoria" (memory disk), como fue llamado el disco
flexible en aquel entonces. Se trataba de un floppy de 8", que estaba conformado por un disco de material
plástico flexible, cubierto por una capa de óxido de hierro, envuelto en una camisa protectora y forro de tela.
Los datos eran escritos y leídos de la superficie magnética del disco. En estos momentos fue considerado un
dispositivo revolucionario, por su portabilidad, que proveía de una nueva y fácil manera de transporte físico
de datos.
En 1973 inició Shugart Associates para desarrollar y fabricar platinas de disco flexible. La interfaz
desarrollada por Shugart fue la base de todas las platinas de disco floppy. IBM utilizó esta interfaz en su PC,
habilitando el uso de platinas de terceros en vez de crear soluciones propietarias.
Shugart se separó de Shugart Associates en 1974, justo antes de que introdujeran la platina de minifloppy
de 5 ¼, que había sido solicitada por Wang Laboratories para sus equipos de cómputo de sobremesa, y que
eventualmente se convertiría en el estándar para las computadoras personales.
En 1981, Sony presenta la primera platina para discos de 3½, así como los disquetes, similares a los floppys,
pero con la camisa protectora de un material más duro, así como un mecanismo de protección para la
ventana de lectura de datos. Este disco se convirtió en el nuevo estándar.
Las unidades de discos flexibles son aquellas que leen la información contenida en unos discos que son
transportables e independientes de la unidad. A estos discos se les llama discos flexibles o disquetes.
Disqueteras de 5 1/4 y 3 ½
Las unidades de disco o disqueteras son los únicos elementos del PC que se componen de partes eléctricas y
mecánicas. Cada disquetera contiene un motor eléctrico que se alimenta con energía a través de la fuente de
alimentación del PC.
Actualmente, los disquetes son en su mayoría de 3,5 pulgadas y dentro de éste el que más se utiliza es el de
1,44 MBytes. Los disquetes de 2,88 MBytes no han tenido mucho éxito en el mercado, a pesar de ofrecer el
doble de capacidad de almacenamiento.
Disqueteras 360 KBytes 1,2 MBytes 720 KBytes 1,44 MBytes 2,88 MBytes
5 1/4 Baja densidad SI NO NO NO NO
5 1/4 Alta densidad SI SI NO NO NO
3 1/2 Baja densidad NO NO SI NO NO
3 1/2 Alta densidad NO NO SI SI NO
3 1/2 Densidad extra NO NO SI SI SI
Cuando se habla de "pulgadas" nos referimos al diámetro que tiene el disquete. Una pulgada son 2,54
centímetros, entonces el diámetro de esos disquetes es:
Para cumplir todas sus funciones, las disqueteras están conectadas mediante un cable a una tarjeta de control
(o controladora), que a su vez se conecta a una ranura de expansión. Esta controladora efectúa la conexión
entre el bus de datos del PC y la disquetera correspondiente.
FUNCIONAMIENTO DE LA DISQUETERA
Cuando se introduce un disquete en la unidad, éste presiona contra un sistema de palancas, y su lámina
metálica de protección se desplaza automáticamente para exponer el disco circular magnético que tiene en su
interior. Otro movimiento de palancas y engranajes mueve dos cabezas de lectura/escritura hasta que casi
tocan el disco por ambos lados. Las cabezas, que son electroimanes minúsculos, utilizan impulsos magnéticos
para cambiar la orientación de las partículas magnéticas incorporadas en el revestimiento del disco. El disco se
pone a girar gracias a un motor eléctrico, por mediación de una uña que se inserta en la muesca del conector
del disco.
Los circuitos de la unidad de disco reciben señales de la tarjeta controladora, que incluyen instrucciones e
información para escribir en el disco. Estos circuitos traducen las instrucciones en señales que controlan el
Las cabezas se desplazan de delante hacia atrás gracias a un eje helicoidal arrastrado por un motor paso a
paso, que gira un cierto ángulo cada vez que recibe un impulso eléctrico. Cada impulso provoca un
desplazamiento de las cabezas igual a la distancia de separación entre dos pistas. Cuando las cabezas están en
la posición correcta, los impulsos eléctricos crean un campo magnético en una de las cabezas para escribir la
información. Cuando las cabezas leen datos del disco, reaccionan ante los campos magnéticos generados por
las partículas magnéticas del disco.
El funcionamiento de los discos de 5,25 pulgadas es similar al de los de 3,5, y son simplemente una versión
mayor, más lenta y menos complicada de los discos éstos. No tienen protección metálica, pero la muesca
sobre su costado sí es revisada para conocer la protección contra escritura. Las cabezas de lectura/escritura
funcionan de forma idéntica a los discos de 3,5 pulgadas.
DISQUETE 3 ½
Un disquete es un disco de un material llamado mylar (materia plástica) recubierto de una capa magnética.
Contiene en su centro un núcleo metálico horadado por un orificio que permite su tracción. El disco está
situado en una cubierta de plástico rígido que le protege de los golpes, el polvo y agresiones diversas. Esta
cubierta posee una abertura en su centro, que deja ver el núcleo y otra que permite a la cabeza de lectura
acceder a la superficie magnética. Esta última abertura está cerrada por una lámina metálica que posee
también una abertura desfasada.
Cuando se inserta el disquete en la disquetera, se desplaza la lámina de cierre en sentido lateral, para que su
abertura coincida con la de la cubierta de plástico. Un resorte devuelve la lámina a su posición cuando se
expulsa el disquete. El disquete contiene igualmente una o dos aberturas de forma cuadrada en el lado
opuesto a la lámina. La de la derecha (visto desde arriba) siempre existe y puede obturarse impulsando un
taquito de plástico.
Cuando se obtura la abertura, puede leerse y escribirse en el disquete, pero cuando la abertura está libre es
imposible escribir. Un disquete con abertura está protegido contra escritura. La abertura del lado izquierdo
sirve para indicar que se trata de un disquete de alta densidad, de 1,44 MBytes. Los disquetes de 720 KBytes
de baja densidad no poseen esta abertura. Físicamente no es posible distinguir un disquete de 3 1/2 de 1,44
MBytes de uno de 2,88 MBytes. La única forma de distinguirlo es leyendo la etiqueta que tiene las
caraterísticas del disco.
DISQUETE 5 ¼
Al igual que el disquete de 3 1/2, el de 5 1/4 es un disco de mylar recubierto de una capa magnética. Así
mismo, está cubierto con una funda flexible {normalmente cloruro de vinilo) en cuyo interior se encuentra
un forro especial. Sirve para proteger al disco del polvo y, en cierta medida, del calor y la humedad.
El estuche lleva una serie de agujeros o ranuras que desarrollan distintas misiones dentro de la configuración
del disquete. Posee una ventana central donde la unidad de disco atrapa al disquete, y que debe llevar un
anillo de refuerzo. También incorpora un agujero de lectura/escritura, ovalado, donde la cabeza de la unidad
se instala para leer y escribir los datos en el disquete.
Cerca de la abertura central se encuentra el orificio índice que permite detectar a la unidad de disco el inicio
del índice de cada disquete. Hay dos muescas de descarga cerca de la abertura central de lectura/escritura a
para asegurar que la funda no se deforme.
Los datos en el disco se almacenan en círculos concéntricos llamados pistas, y cada una de estas pistas se
divide en sectores de 512 bytes.
El número total de sectores es equivalente al número de pistas por cara por el número de sectores por pista
por el número de caras. Los sectores que se encuentran en las pistas más cercanas al centro del disco son más
pequeños pero almacenan la misma cantidad de datos que los sectores más exteriores.
Aunque no es apreciable, existe gran diferencia entre los disquetes de baja densidad y los de alta densidad. El
hecho de que, en una misma superficie, un disco de alta densidad contenga más datos que uno de baja
densidad, es debido a que aquél incluye una mayor cantidad de puntos magnéticos, representado los datos
más juntos. Por ello, el material magnético que recubre la superficie del disquete si es diferente entre un caso
y otro. De esta forma, se puede formatear un disquete de alta densidad en modo de baja densidad y
funcionar sin problemas. Por ejemplo, puede formatearse un disquete de 1,44 MBytes como si sólo tuviera
720 KBytes, o puede formatearse un disquete de 1,2 MBytes como si sólo tuviera 360 KBytes. El propio
Las características que se enumeran a continuación se refieren a la propia unidad, no el disco en sí y pueden
ser medidas con cualquier programa de utilidad para comprobación del estado de estas unidades (Norton,
TestDríve, Checkit, etc).
Sensibilidad:
Se llama sensibilidad al ancho de pista que es capaz de leer la cabeza de lectura en una unidad de discos
flexibles.Las cabezas de lectura de las unidades de discos de 360 KBytes suelen tener una sensibilidad de 16
mi, las de 1,2 MBytes de 8 mi y las unidades de 720 KBytes y 1,44 MBytes de 5 mi. Los programas que miden
niveles de sensibilidad usan un disco especial con datos escritos a distancias distintas, de forma que el
programa compara lo que la unidad lee con lo que sabe de antemano que debe leer, determinando así, la
sensibilidad.
Disco Sensibilidad
5 1/4 de 360 KBytes 16 milipulgadas
5 1/4 de 1,2 MBytes 8 milipulgadas
3 1/2 de 720 KBytes 5 milipulgadas
3 1/2 de 1,44 MBytes 5 milipulgadas
3 1/2 de 2,88 MBytes 5 milipulgadas
Alineación radial
Si la cabeza que escribe la información está desplazada considerablemente con respecto al centro de la pista,
es posible que la sensibilidad de la cabeza de lectura no llegue a leer los datos correctamente. Esto quiere
decir que para conseguir un correcto funcionamiento, no sólo se requiere una sensibilidad adecuada, sino que
también la cabeza se sitúe lo más exactamente en el centro de la pista. A esto es a o que se llama alineación
radial.
Histéresis
Ya sabemos que la información almacenada en el disco admite unos pequeños errores de posicionamiento de
la cabeza de lectura. Pero estos errores no sólo se producen cuando se escribe la información con una unidad
y leída con otra distinta; en una misma unidad la posición que adopta la cabeza no es la misma cuando se
accede a la pista número 20 desde la pista número 10 no es la misma que la que adopta cuando accede a esa
misma pista desde la pista número 30. En un caso, la cabeza queda un poco desplazada hacia el interior; en el
otro, hacia el exterior.
La histéresis mide la diferencia de posicionamiento de la cabeza, en una misma unidad cuando se accede
a una determinada pista desde el interior o desde el exterior del disco.
Las histéresis aceptables para las distintas unidades de discos son las siguientes:
Centrado de la sujeción
Cada vez que se introduce un disco en la unidad, dicho disco ha de ser centrado de forma que el centro físico
del disco coincida con el centro de giro. Esta operación tiene que ser realizada con toda precisión, ya que un
error considerable de posicionamiento produciría una falta de alineación, y por tanto sería imposible de leer el
disco correctamente. A veces, cuando una unidad no reconoce un disco que se le acaba de introducir es
porque se trata simplemente de un error de sujeción. Bastará con sacar e introducir de nuevo el disco.
Tangencia
La cabeza de lectura de una unidad de disco está diseñada para leer datos situados en línea recta. Como en
los discos los datos están situados en círculos, la cabeza debe adoptar una posición perfectamente tangencial
a estos círculos. El hecho de que la cabeza esté desviada levemente no significa errores de lectura, ya que
admite desviaciones de la tangencia de la cabeza de lectura de hasta 0, 65 grados como máximo.
Velocidad de rotación
Todas las unidades de discos flexibles tienen una velocidad de rotación de 300 revoluciones por minuto,
excepto las de 1,2 MBytes, cuya velocidad es de 360. Las unidades de disco tienen ajustada su velocidad de
forma que estén siempre dentro de unos márgenes admisibles. Pero si la diferencia entre la velocidad real de
la unidad y la normalizada es excesiva, se producirán errores de lectura. La tolerancia de desviación de la
velocidad de rotación suele ser del 1 %.
Las unidades de discos más modernas incorporan un chip que se ocupa de regular la velocidad de giro del
disco, de forma que la probabilidad de error es mínima.
Disco Velocidad
5 1/4 de 360 KBytes 300 r.p.m.
5 1/4 de 1,2 MBytes 360 r.p.m.
3 1/2 de 720 KBytes 300 r.p.m.
3 1/2 de 1,44 MBytes 300 r.p.m.
3 1/2 de 2,88 MBytes 300 r.p.m.
Cuando se pretende leer la información contenida en un determinado sector, el primer paso consistirá en
mover la cabeza de lectura hasta la pista en la que se encuentra dicho sector. Este tiempo dependerá en cada
caso de la posición de la cabeza de lectura respecto a la pista que se pretende encontrar.
Una vez en la pista correcta hay que encontrar el sector concreto que se pretende leer. Este tiempo puede ser
cero, si con suerte la cabeza se encuentra justo sobre el sector, o bien, hay que esperar toda una vuelta.
A continuación vamos a resumir los problemas más comunes que pueden ocurrir con las unidades de disquete
y con los propios disquetes.
• La unidad puede no enviar la señal de "disco cambiado". Utilizar el comando DRIVPARM para
solucionarlo.
• El cable puede estar algo suelto o defectuoso. Si, habiendo utilizado un cable nuevo, o utilizando el
comando DRIVPARM, el problema persiste, el error está en la disquetera, y habrá que sustituirla.
• Si la unidad es de baja densidad, el disquete puede haber sido escrito en una unidad de alta densidad.
El disquete puede ser de baja calidad.
• La unidad puede estar mal alineada.
Después de conectar una segunda disquetera se encienden los leds de ambas a la vez:
Después de instalar una disquetera inserto un disquete que sé que está en perfecto estado y no lo
reconoce, dando errores de lectura:
• Es posible que en el SETUP del ordenador hayamos indicado erróneamente el tipo de disquetera que
acabamos de instalar.
• Si todavía persiste el problema, el error puede deberse al cable o a la disquetera. Probaremos en
primer lugar con un cable nuevo y, si continua fallando, el error estará en la disquetera, que habrá
que sustituir.
Si no se resuelve el problema, el error está en la tarjeta controladora. Probaremos con una nueva.
Como sabemos, la capacidad máxima que podemos conseguir en una unidad de disquete es muy reducida y
actualmente, la gran mayoría de documentos ocupan mucho más de 1.44 Mbytes. Es cierto que documentos
de texto plano, algunas fotografías y otros archivos pueden transportarse en este medio, pero a la larga
estamos seguros que el disquete dará paso a otros dispositivos más modernos, más rápidos y más seguros.
Además de la capacidad, estos medios de almacenamiento son sensibles a campos magnéticos, a las
inclemencias temporales, calor, frio y dependen también en gran medida de la unidad de lectura que usemos.
En más de una ocasión nos habremos encontrado que un disquete funcionaba bien en nuestro PC pero no en
el de nuestro amigo. Por todo ello y a medida que pasan los años, se inventan nuevos dispositivos que son
candidatos a sustituirlo.
Hoy en día se están extendiendo dispositivos como las "llaves USB" que permiten almacenar decenas de
Mbytes en un espacio menor de lo que ocupa un pequeño mechero. Además, con la salida de la versión 2.0, la
velocidad de transferencia para almacenamiento de datos es muy elevada, lo que los convierte en dispositivos
muy indicados para transportar una gran cantidad de datos, de una manera muy fiable y segura.
Estos son algunos ejemplos de imágenes sobre algunas llaves USB:
Los nuevos equipos informáticos PC, tanto portátiles como sobresa cuentan con varios puertos USB donde
podemos conectar en caliente (sin apagar) nuestras llaves USB y comenzar a usarlas de inmediato. En sistemas
Windows (a partir de Windows Me) y en las versiones más recientes de Linux, ya podemos leer y grabar datos
sin ningún tipo de problema.
• Gabinetes
− Descripción
No hay diferencias notables en el montaje de una compu a partir de los diferentes tipos de gabinetes, por lo
que los pasos que aquí se describen son fundamentalmente los que se seguirán para un correcto
ensamblaje.Para abrir el gabinete, normalmente, no hay más que quitar los tornillos de la parte posterior del
mismo, aunque en ocasiones, y dependiendo del diseño de estas, es posible que lleven un pequeño
mecanismo de apertura o que se pueda desmontar a nuestro gusto el lateral que necesitemos.Una vez abierto
se nos mostrarán los diferentes espacios que alojarán los diversos componentes.
Antes de nada hay que montar el componente de mayor tamaño en el PC y es la fuente de alimentación (caso
de no venir montada ya o de una futura sustitución); simplemente tendremos que cerciorarnos de que el
ventilador disipador quede mirando a la parte posterior de la carcasa y los cables de alimentación queden por
el interior de la misma. Posteriormente la fijaremos mediante unos tornillos en el lugar adecuado. La fuente de
alimentación no tiene mayor dificultad
− Tipo
La caja ("case") de una microcomputadora representa el armazón o gabinete de metal y plástico que contiene
los componentes internos del sistema, tales como la tarjeta del sistema, tarjetas adaptadoras o de expansión,
unidades de disco, entre otros). Es, pues, el cuerpo (o la piel) del sistema. La caja proteje los circuitos
electrónicos de la computadora de posibles daños físicos, de cortocircuitos y de peligros invisibles, tales como
campos eléctricos fuertes. Existen varios diseños de cajas, tales como las cajas de escritorio ("desktop"), que
estan en posición horizontal, y las cajas de torre ("tower"), que estan en posición vertical. A través de los
años, han habido modificaciones de estos diseños. Las cajas de una computadora con una fuente de potencia
instalada. Todas las cajas para las microcomputadoras estan diseñada para que corresponda a un factor de
forma ("form factor") específico de la tarjeta del sistema.
FACTOR DE FORMA
El factor de forma ("form factor") representa un conjunto de especificaciones que determinan el tamaño
físico interno y la forma general de la caja de la computadora. Se refiere principalmente a la disposición y
orientación relativa de las ranuras de expamsión, puntos de anclaje, y el tamaño de la tarjeta del sistema. Se
puede emplear para el tamaño de los medios (e.g., unidades de disco o bahías 3.5 pulgadas versus 5.25
pulgadas), pero con mayor frecuencia se emplea para describir el tamaño y distribución de los dispositivos en
una caja. Esto implica que el factor de forma para una caja del sistema o una tarjeta del sistema describe sus
Factor de Forma: XT
Representa el primer diseño para una caja de computadora personal (microcomputadora) concebida por IBM
en el 1983. La tarjeta del sistema XT contaba con 5 ranuras adaptadoras tipo ISA de 8 bits, un conector para
el teclado, otro conector para el disco flexible, zócalos para el coprocesador aritmético, y los zócalos para los
chips de memoria (tipo DRAM con control de paridad). El tamaño d ela tarjeta del sistema XT era de 8.5 plug.
x 13 pulg.
Factor de Forma: AT
Fue lanzada por primera vez al mercado en el 1984 por la compañia IBM para su microcomputadora (PC AT)
basado en un procesador 286. Su caja era tipo escritorio o sobremesa ("desktop"), i.e., era en forma
horizontal. La tarjeta del sistma era más grande (12 pul x 13.8 pulg). Más tarde, las compañias adversarias de
IBM diseñaron tarjetas de sistema para un factor de forma conocido como "Baby AT". Este factor empleaban
tarjetas del sistema con una tamaño similar a la XT pero con las características del factor de forma AT.
Inventado por el fabricante Western Digital Corporation, en la época que fabricaban tarjetas del sistema. Las
siglas LP significan bajo perfil ("Low Profile" o "Slimline"). Estos tipos de farctor de forma fueron lanzados
en el mercados para los año 80. Se empleaban tarjetas del sistema para cajas de bajo perfil. Se
caracterizaban por disponer de un único conector ubicado en el centro, donde se instalaba una tarjeta auxiliar
("Riser Card"), donde se conectaban tarjetas adicionales. Estas tarjetas adicionales, pues, quedaban en
posición paralela a la tarjeta del sistema. Las tarjetas del sistema LPX eran de 9 pulg. x 13 pulgadas y
contaban para conectores de puertos de E/S seriales y paralelos. En su parte posterior, tenía los puetos del
teclado, ratón y video. Contaba cin una fuente de potencia de bajo perfil queutilizaba un conector de 12
clavijas insertado en la tarjeta madre o una tarjeta madre no-estándar con una tarjeta auxiliar.
Intel también especificó un tamaño de la tarjeta del sistema llamada "Mini ATX", la cual es levemente más
pequeña que las ATX regulares (11.2 pulg. x 8.2 pulg para las mini ATX versus 12 pulg. x 9.6 pulg. en las ATX
completas). Las tarjetas del sistema tipo Mini ATX emplean los mismos factores de forma ATX para las cajas y
la fuente de potencia.
ATX Extendida
Existe otra variante para el factor de forma ATX, conocida como ATX Extendida o EATX. La únicad iferencia
es que la tarjeta del sistema puede tener una tamaño hasta 12pulg x 13 pulg. Estos tipos de tarjetas del
sistema no son muy comunes. Estas tarjetas del sistema requieren cajas de computadoras especiales para que
acomoden el facor de forma Extendido de ATX.
micro ATX
Este factor de forma fue desarrollado por la corporación de Inter en el 1997. Las tarjetas del sistema micro
ATX poseen un tamaño reducido (9.6 pul x 9.6 pulg) en comparación con las ATX tradicionales. Estas tarjetas
del sistema pueden sustituirse por una ATX antigua puesto que son 100% compatibles. Representa un
estándar para las tarjetas del sistema. Esta dirigida para el mercado de mediano a bajo.
Flex ATX
Representa un nuevo estánsar creado por Intel en el 1999. Emplean tarjetas con dimensiones redicidas (9 pul
x 7.5 pulg). Son compatibles con el diseño original ATX. Las tarjetas del sistema Flex ATX emplean los
mismos agujeros de montaje que las micro ATX.
NLX
Una vez más, fue lanzado por Intel en el 1996 con miras de ofrecer las ventajas que tenían las antiguas LPX.
Esto significa que se pueden ensamblar con equipos de bajo perfil. Las tarjetas del sistema NLX varían en
tamaño, entre 4 pulg y 5.1 pulg. de ancjo y 10; 11.2 y 13. pulg de longitud. Este factor de forma cuenta con
una tarjeta auxiliar ("riser card") vertical montada al final de la tarjeta del sistema (cerca de la fuente de
potencia), donde se conectan los periféricos. Esto significa que sus palacas quedan paralelas a la tarjetas del
sistema. Pero tiene sus diferencias con la antigua LPX. Por ejemplo, aloja un coenctro lateral en la placa
auxiliar. Además, los cables y conectores se instalan en la placa auxiliar. Esto facilita la tarea de remover la
tarjeta del sistema, i.e., permite una actualización relativamente sin problemas de la tarjeta del sistema.
WTX
Dirigido al mercado profesional "high-end", Intel desarrolla en el 1998 el factor de forma WTX. Esto permite la
producción de estaciones de trabajo y servidores de alto rendimiento. La sigla "W" siginifica "workstation"
(estación de trabajo). Las tarjetas del sistema WTX pueden poseer un tamaño máximo de 14 pulg. x 16.75
pulg. Las placas WTX pueden proporcionar un "Adapter plate", donde se fija la tarjeta del sietrma. Dicho
adaptador se fija al armazón de la caja. Otra novedad para los sistema WTX es el diseño para los puertos E/S,
el cual permite la incorporación de mejoras en el diseño de las tarjetas del sistemas. Esta nueva especificación
se conoce como "Flex Slot"
Fundamentalmente, existen tres tipos de estilos para las cajas de la computadora, a saber:
Existen algunas sub-categorías de cajas, tales como perfirl bajo o "slim line" y "micro towers". Estos tipos de
cajas emplean tarjetas del sistema especiales, las cuales no se consiguen fácilmente.
CAJA DE ESCRITORIO AT
Representa un tipo de caja en posición horizontal. Fue concebida por IBM en el 1984 para sus computaoras
personales. Las caja de tamaño AT tienen sus tarjetas madres montadas de manera horizontal. Sin embrargo,
poseen huellas ("footprint") muy grandes. Las huellas se refieren a la cantidad de espacio que ocupa un
sistema de computadora sobre un escritorio, repisa o piso.
Caja de escritorio (horizontal) que contienen la tarjeta madre en posición horizontal. Estas cajas ocupan
menos espacio que las AT regulares, i.e., poseen huellas reducidas.
Caja de unidad de sistema diseñada para ocupar una posición vertical en el suelo. La caja tipo torre cuenta
con mayor espacio para accesorios en comparación con las de escritorio. Además, permiten alejar del área de
trabajo componentes ruidosos, tales como ventiladores de enfriamiento y discos duros.
Una caja vertical diseñada para espacios más pequeños que caja de torre regular. Aún cuando posea menos
espacio para periferales, las cajas mini-torre pueden tener la misma cantidad de ranuras de expansión y
tienen huellas más pequeñas en comparación con las cajas de escritorio.
Competencias Analítica
Internos.
Memoria RAM
Es la memoria de acceso aleatorio (Random Access Memory). Se llama de acceso aleatorio porque el
procesador accede a la información que está en la memoria en cualquier punto sin tener que acceder a la
información anterior y posterior
Normalmente actualizamos la placa base para poder montar un procesador más potente que la actual no
soporta. En el caso de ordenadores no "clónicos" en el que es casi imposible cambiarla, se puede optar por
procesadores tipo "Overdrive" de Intel o de otras marcas, o bién por uno de mayor velocidad que el actual
pero de la misma "família".
Procesador
Es el motor del equipo y de él dependen en un tanto por ciento bastante alto las prestaciones finales del
equipo. Pero para tener un equipo rápido, debemos tener una óptima combinación de componentes entre
placa base, procesador, tarjeta gráfica, cantidad y tipo de memoria RAM y disco duro
BIOS
"Basic Input-Output System", sistema básico de entrada-salida. Programa incorporado en un chip de la placa
base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador
Hoy en día todas las tarjetas de vídeo son gráficas e incluyen aceleración por hardware, es decir, tienen
"chips" especializados que se encargan de procesar la información recibida desde el bus e interpretarla para
generar formas, efectos, texturas, que de otra forma no serían posibles o con peor calidad, o colapsarían al
ordenador y a su bus.
Externos.
Modem.
La palabra módem viene de los términos MODulador + DEModulador, siendo la misión del modulador la de
convertir señales digitales enviadas por el ordenador en señales analógicas reconocibles por la red de
teléfono (envío de datos), y la del demodulador la de convertir señales analógicas provenientes de la red de
teléfono en señales digitales reconocibles por el ordenador (recepción de datos).
Disco duro
Los discos duros constituyen la unidad de almacenamiento principal del ordenador, donde se almacenan
permanentemente una gran cantidad de datos y programas. Constituyen la memoria de almacenamiento
masivo.
CD /DVD.
Los discos compactos (Audio Compact Discs (CD-DA)) fueron introducidos en el mercado de audio por
primera vez en 1980 de la mano de Philips y Sony como alternativa a los discos de vinilo y de lo cassettes.
En 1984 ambas compañías extendieron la tecnología para que se pudiera almacenar y recuperar datos y con
ello nació el disco CD-ROM. Desde entonces el compact disc ha cambiado de un modo significativo el modo
en el que escuchamos música y almacenamos datos.
Las unidades de discos flexibles son aquellas que leen la información contenida en unos discos que son
transportables e independientes de la unidad. A estos discos se les llama discos flexibles o disquetes
No hay diferencias notables en el montaje de una compu a partir de los diferentes tipos de gabinetes, por lo
que los pasos que aquí se describen son fundamentalmente los que se seguirán para un correcto
ensamblaje.Para abrir el gabinete, normalmente, no hay más que quitar los tornillos de la parte posterior del
mismo, aunque en ocasiones, y dependiendo del diseño de estas, es posible que lleven un pequeño
mecanismo de apertura o que se pueda desmontar a nuestro gusto el lateral que necesitemos.Una vez
abierto se nos mostrarán los diferentes espacios que alojarán los diversos componentes
RESULTADO DE APRENDIZAJE
1.2. Preparar elementos para la actualización de los componentes del equipo de cómputo empleando los
materiales y herramientas necesarias.
Se trata de un PC de estilo juvenil, rápido y con posibilidad de overclocking, cuyos componentes más
significativos son la placa base preparada para overclocking, la CPU 1700 (comprada en el codo de la curva de
precios en España, Enero-2002) y el disipador de 0,37ºC/W y 28 dBa de ruido. Teniendo en cuenta los
requerimientos de nuevas aplicaciones domésticas, como el video MPEG4, es aconsejable que un PC
doméstico de nueva adquisición no sea mucho más lento que éste.
El tutorial se ha tomado de la vida real, es decir, que la secuencia de fotos corresponde al montaje de un PC
realizado en una casa normal y corriente, y que funcionó sin problemas durante la realización del reportaje
fotográfico que ha dado origen al tutorial, y posteriormente.
Si no tienes la mala suerte de que algún componente defectuoso dé problemas, funcionará al primer intento,
como nos ha ocurrido a nosotros.
En este mismo manual podras ver otros dos reportajes de montaje de un pc (uno más antiguo y otro más
reciente):
Atención: cualquier manipulación sobre aparato eléctrico o maquinaria exige que previamente se apague y
desenchufe, así como especial cuidado en el momento inicial de volver a enchufar y encender.
Se recomienda el uso de una pulsera antiestática, así como desenchufar todos los equipos conectados a la
caja del PC cada vez que se manipule en el mismo (conviene previamente tomar buena nota en una libreta de
todas las conexiones).
... y
la separamos también. ... ...
Ya
Guardamos las dos tapas los cablecillos de un archivador de CD's,
podemos ver el interior de
para volver a colocarlas interruptores, LED's, para tener a mano los
la caja, que incluye ...
después de la puesta en altavoz, etc. ... más usados ...
marcha.
...
... y ...
por detrás, continuamos ... y
dando movimiento las tapas circulares
levantando las chapitas, para quitar las tapas de
oscilante al alicate, se pequeñas, se quitan igual
con cuidado de no las placas, apalancamos ...
separan ... ...
cortarnos ...
... y
... Ahora, con la caja
... moviendo la mano hacia
ya tenemos todas preparada, volvemos a
con un destornillador ... arriba y hacia abajo, se
quitadas. poner la placa base ...
separan ...
...
...
localizamos los 6 puntos
... de los 6 agujeros de
de sujeción a la caja ... y
marcamos 6 puntitos en sujeción (la flecha señala
(agujeros rodeados de para más facilidad, con un
la caja a través de cada un punto marcado),
una corona estañada) rotulador de punta fina ...
uno ... sacamos de nuevo la placa
(más detalles en Montaje
base ...
de un PC, Enero 2001)...
... tiene alrededor de la ... con tornillos, pero ... aprovechamos para dar
... y los otros 4 en los 4
CPU, que servirían para la como nuestro disipador rigidez a la placa base
agujeros que la placa base
mejor instalación de un viene preparado para bajo la CPU, para que al
...
disipador ... montar con brida ... apretar el clip ...
... en el montaje del ... foto por debajo de un ... las conexiones de USB,
Ahora sí vamos a montar
disipador, la placa base agujero de montaje de la puertos serie, joystick, etc.
la placa base ...
sufra menos ... placa base. encajan perfectamente ...
...
... y ... a con un papel que no
... observamos el lugar en pesar de que hemos hecho deshilache o mejor un
desmonto la CPU ... que la pasta térmica ha poca presión, se ha trapo muy limpio restriego
marcado el disipador ... esparcido mucho ... la pasta térmica de la CPU
...
...
... ... Enchufamos el ventilador
el clip ha enganchado ya,
el lugar es angosto y no es correcto: al no usar inmediatamente en un
se puede ver que hemos
se ve el desplazamiento herramienta, como los enchufe amarillo
arañado un poco la uña
del clip, pero lo hemos dedos son blandos no monitorizable -esto no se
del zócalo, pero el
logrado ... pueden dañar nada. debe olvidar jamás- ...
enganche ...
... SW3(selección de la
frecuencia de la CPU) de
la placa base están
... y nos aseguramos de
correctamente
que SW1 (multiplicador Foto del conector
posicionados. (SW1 en Ahora enchufamos la
de la frecuencia de la enchufado de la fuente de
auto, SW2 en auto, SW3 fuente de alimentación
CPU), SW2(selección del alimentación ATX de 300
en 133 MHz., ya que el ATX.
voltaje del núcleo del Vatios.
Athlon 1700 XP va a 133
procesador) y ...
X 11 MHz.; otras partes
son también para un reloj
de 133 MHz.)
Foto de la memoria de
... tiene una ranura
... así que atornillamos sin 128 MB DIMM de 184
asimétrica para evitar
... va perfecta, no hay que más, los contactos de la pines, insuficiente por
error en la instalación, se
retocar la chapa de tarjeta gráfica quedan culpa del presupuesto.
monta oscilando
sujeción ... totalmente encajados en (Será ampliada tan pronto
suavemente los dedos en
la ranura AGP. como el bolsillo lo permita
los extremos ...
a mínimo 256 MB) ...
... la instalación de la
... al instalar la memoria, Ahora vamos a montar
memoria se ha hecho en
las palanquitas blancas de partes del ordenador ... quitamos la tapa de
el banco 1, aunque la
los extremos suben, y anterior que conservamos una bahía de 5¼" ...
documentación de la
hace un pequeño click ... ...
placa base no lo exige.
mostramos la conexión de los cables planos de disco duro DMA66 - 100 y grabador - grabadora de CD
DMA33, la conexión de la alimentación al disco duro y al grabador - grabadora de CD y la configuración
maestro-esclavo o master-slave
mostramos la conexión de los cables de dispositivos externos, el primer arranque y la puesta en marcha
del PC, que no dio ningún problema (no se incluye la instalación del sistema operativo)
Ya solamente queda
conectar los enchufes
... conector de tarjeta
traseros de la caja: ... conector de ratón ... ... conector de teclado ...
gráfica ...
alimentación de red 220
V. ...
... y montaje acabado. En ... Emoción: pulso el ... pulso SmartDoc Anti-
el Montaje de un PC encendido, vigilo que los Pulso Supr o Del, y sale la Burn Shield, y veo que
Enero 2001 había más ventiladores giran, y pantalla de configuración todo está bien, excepto
conexiones. Las repaso funciona al primer de la BIOS ... que la Temperatura 2
cuidadosamente ... intento. marca -55ºC ...
Comentarios adicionales:
Después de realizar las verificaciones iniciales, no olvides apagar y poner las tapas: Los circuitos eléctricos no
deben quedar al descubierto nada más que el tiempo imprescindible.
Los equipos modernos de cómputo están dotados de excelentes circuitos y filtros para distribuir la corriente
eléctrica en su interior. Pero no obstante su propia protección, toda computadora debe protegerse de las
variaciones de los voltajes externos.
Lo 'normal' es colocar entre el PC y la red de energía pública, elementos de barrera como reguladores de
voltaje y supresores de picos de voltaje (surge protector). Pero necesitamos conocer varios detalles técnicos
adicionales para comprender e implementar una adecuada instalación y protección para los PC.
La creación de una instalación con polo a tierra no es en sí misma una seguridad 100% que impedirá
cualquier daño en el interior de tu computadora, ya que los componentes electrónicos pueden originarlo
independientemente, por degradación o agotamiento de las sustancias con que se fabrican las partes. El polo
a tierra sin embargo, atenúa el daño de una sobrecarga o cortocircuito, orientando el exceso de corriente
hacia el exterior del sistema, protegiendo al operador. Veremos el detalle del polo a tierra mas adelante.
El circuito eléctrico de alimentación de una computadora necesita normalmente tres líneas de alimentación:
la fase, el neutro y la tierra. En la secuencia de instalación se conecta primero el regulador de voltaje o
acondicionador, quien se encarga de mantener un voltaje promedio (110-115 voltios). Un buen regulador
/acondicionador abre el circuito de alimentación cuando las variaciones de voltaje exceden los rangos + - 90
v. ó + - 135 v.
En ciertos casos es necesario instalar a continuación una fuente de energía ininterrumpida o UPS, esto es
cuando trabajamos con datos muy valiosos o delicados en el PC. Después del regulador /acondicionador o UPS
se conecta la computadora. Si el regulador no tiene las salidas o tomacorrientes necesarios para conectar
todos los cables, tienes que adicionarle un multitoma con 4 o 6 posiciones adicionales y a este conectar el PC.
El polo a tierra. Las computadoras actuales se protegen muy bien gracias a los excelentes componentes de
su fuente y los reguladores de voltaje modernos. Pero el circuito con polo a tierra se vuelve imprescindible
cuando la instalación es de tipo comercial (como la de una empresa o institución de enseñanza). En tales
casos en donde los altibajos del fluido eléctrico son constantes se requiere además crear una INSTALACION
ELECTRICA INDEPENDIENTE, con su apropiada conexión a tierra.
También es importante orientar correctamente la posición de fase y neutro en el tomacorriente, para que
todos los componentes de protección y el PC reciban polaridad y referencia de tierra adecuadas. En el toma
eléctrico en donde se van a enchufar los aparatos de protección para el PC, los cables deben conectarse de tal
manera que la ranura pequeña debe recibir la fase y la ranura grande, el neutro. El agujero redondo es para
conectar el cable de conexión a tierra.
Un error común es crear una instalación a tierra consistente en enterrar una varilla Copperweld para hacer un
puente entre esta y el borne de tierra del toma eléctrico para el PC. .....
Aunque parece práctico es un riesgo, pues por el mismo camino (inverso a la lógica que pensamos: que la
corriente solo debe salir del PC hacia la varilla) puede ENTRAR una corriente (como la de un rayo o un cable
vivo aterrizado accidentalmente en el área de la varilla) y luego de entrar por la tierra del PC, emitir una
descarga viva de corriente intolerable para los circuitos del PC (se encuentran a través de los chips y
componentes, y por el camino inadecuado, una línea viva -- la invasora -- y el neutro o línea común --
permitiendo la circulación de voltajes superiores a 3 voltios cuando la diferencia de potencial recomendada
por los fabricantes de PC entre neutro y tierra debe estar por debajo de los 3 voltios).
Técnicamente La conexión del borne de tierra del toma eléctrico debe CONECTARSE al borne de tierra de la
empresa suministradora de energía (en el tablero de distribución de la edificación).
Si no hay un borne de tierra disponible (y cuando se ha establecido que el polo es vital como en el caso de
redes y grupos de PC con instalación eléctrica independiente ), es recomendable utilizar un circuito eléctrico
que cree el polo, tal como el que utilizan por ejemplo los aviones. Eso se consigue con aparatos especiales de
protección para PC conocidos como ACONDICIONADORES DE VOLTAJE..........
Otro error al crear una conexión a tierra sería HACER UN PUENTE entre el neutro del toma eléctrico y el borne
de tierra del mismo. Solo tenemos que imaginar por ejemplo lo que pasaría si los cables fase y neutro se
llegaren a invertir por accidente: el vivo quedaría en contacto directo con el chasis, electrizando al operador y
Protección del PC de la electrostática. Un factor contra el que tiene que luchar constantemente el reparador
de PC y los operadores de PC en general es la presencia de las cargas electrostáticas. Para entender esto ( y en
una definición más gráfica que técnica) hay que recordar que la corriente eléctrica es EL FLUJO DE
ELECTRONES a través de un conductor (o de un circuito) cuando hay una DIFERENCIA DE POTENCIAL (entre sus
extremos ). O sea: hay circulación de electrones cuando un polo (negativo o cargado de electrones) emana
electrones hacia el polo opuesto (positivo o carente de electrones). Luego, para que tal circulación se produzca
es necesario aplicar una fuerza (en electricidad: fuerza electromotriz). La aplicación de la fuerza electromotriz
moverá los electrones a una intensidad determinada produciendo calor en los conductores ( la intensidad de
los electrones se mide en AMPERIOS). Cuando la intensidad es demasiado alta produce rotura o fusión de los
componentes del circuito que no están diseñados para soportar altas temperaturas (diodos, chips, etc.).
Eso en lo que respecta a la generación de corriente en los circuitos no humanos. Pero en las personas suceden
también fenómenos de generación de corriente por medios ajenos a su anatomía. Uno de ellos, muy común
es el contacto por fricción. El contacto con los elementos produce en las personas VOLTAJE potencial que se
descarga (a cada momento) en otras personas u objetos (se nota a veces cuando tocas tu automóvil por
primera vez en la mañana o cuando tocas ligeramente a una persona). Esta corriente almacenada en el
cuerpo humano se conoce como CARGA ELECTROSTATICA y es la que a la postre puede producir daños en los
circuitos electrónicos del PC.
En la práctica la carga electrostática se transmite al PC por el contacto del cuerpo humano con los puntos de
un circuito ( un borne, línea, cable o patilla de un chip, etc.). Luego solo se necesita que otro punto de
contacto del componente entre en contacto con un punto neutro ( el que atrae los electrones y cierra el
circuito ), para que la corriente circule produciendo el daño en el componente al no soportar este el excesivo
flujo de voltaje (demasiado calor interno en el componente que funde sus partes mas sensibles).
Como eliminar las cargas electrostáticas. 1. Se puede tocar una tubería de agua o un cuerpo metálico
aterrizado a tierra ( como el gabinete de un PC o una estructura metálica grande como una puerta, una reja,
etc.).
2. Se puede utilizar una pulsera antiestática que se conecta al gabinete del equipo mientras se le suministra
servicio.
En los ambientes secos (en donde se incrementan las cargas) se requiere también el control de la humedad
ambiental y la ionización mediante aparatos de monitoreo constante.
Una guia sobre estas implementaciones está contenida en el ESTANDAR DE ASOCIACION DE ESD (un Estándar
Nacional Americano aprobado en Agosto 4, 1999 sobre el control de las cargas electrostáticas en laboratorios,
partes, empaques y equipos de la industria electrónica, y del que forman parte entre otras empresas: INTEL,
Motorola SSG, IBM, 3M, Boeing y NASA ).
¿Alguna vez te has llevado un chispazo inesperado al tocar algún metal?¿Se te erizaban los pelos y no sabías
por qué?, pues lee atentamente las siguientes líneas para comprenderlo todo. Son términos físicos y químicos,
pero al fin y al cabo es la explicación de por qué se produce dicho fenómeno.
La electricidad estática se produce cuando se rompe el equilibrio entre las cargas positivas y negativas de los
átomos que componen los cuerpos (para los despistados ;-), toda la materia está compuesta de átomos). Los
átomos que componen los cuerpos tienen igual número de cargas positivas (protones) que negativas
(electrones), por lo que en principio, cabe considerarles "neutros".
Por métodos muy conocidos como el frotamiento y la fricción, este equilibrio se altera provocando que un
cuerpo ceda o atrape electrones y quede cargado eléctricamente. A la carga eléctrica que consigue se
denomina electricidad estática. Así al ponerse en contacto dos cuerpos con distinta carga, una cierta
corriente comienza a circular para volver a equilibrar el potencial de ambos cuerpos. Cuando esto ocurre, se
ha producido una descarga de electricidad estática.
Un ejemplo práctico ocurre cuando andamos sobre una alfombra y tocamos un cerco metálico de una pared o
de una puerta, nos "descargaremos". Hay veces que esta descarga pasa desapercibida, sin embargo, para
muchos componentes de un ordenador no es así y pueden quedar destruidos u ocasionar averías de forma
irreversible cuando la descarga se canaliza a través de ellos.
Normalmente aquellos componentes que pueden ser sensibles a la electricidad estática vienen marcados en el
embalaje con las siglas ESD (Electrostatic Sensitive Device, Dispositivo sensible a descargas electrostáticas) y
además se presentan con un símbolo particular para distinguirlos:
Estos dispositivos suelen embalarse en bolsas de plástico de color metalizado o rosa o con una rejilla de color
negro impresa. Estas bolsas son conductoras, lo que evita que haya potenciales peligrosos entre las diferentes
partes de la superficie de la misma.
Para evitar las posibles averías que pueden producirse en nuestros componentes informáticos al intentar
manipularlos (es decir, abrir un PC para cambiar un componente por ejemplo), es conveniente tomar las
siguientes medidas:
• En primer lugar, tocar durante unos segundos con las mano el chasis del PC (debemos tocar la
parte que no está pintada como puede ser la parte trasera). Con esto conseguiremos igualar el
potencial de nuestro cuerpo con el chasis del PC que vamos a manipular.
• En segundo lugar, tocaremos el dispositivo ESD y, sin sacarlo de la bolsa lo pondremos en
contacto con el chasis para igualar también el potencial de los componentes con el entorno de
trabajo. Al ser la bolsa conductora, se realizará de una forma instantánea en todos los componentes.
Cuando estemos insertando los componentes en el ordenador, es aconsejable que estemos remangados, y
apoyando al menos uno de los antebrazos en el chasis metálico. De esta forma, difícilmente se producirán
problemas de estática.
Con estas precauciones se disminuyen los riesgos de una forma importante. Para que la cadena sea eficaz,
hemos de exigir que todos los componentes ESD sean servidos en sus bolsas de protección.
El cable que lleva la toma de tierra se denomina conductor de protección, y sirve para evitar la electrocución
de las personas al tocar máquinas eléctricas metálicas que internamente estén averiadas.
El cable que se utiliza para conectar el ordenador a la red eléctrica tiene, por la parte de conexión con el
ordenador, tres tomas: la central constituye el conductor de protección.
Por ejemplo, si en un electrodoméstico se "pela" uno de los cables que va conectado a la red eléctrica, todo el
chasis o carcasa del mismo está sometido a la tensión de la red y cuando una persona va a manipularlo recibe
una importante descarga eléctrica, con el consiguiente peligro para su integridad física. El principal objetivo
del conductor de protección será precisamente evitar estas situaciones.
Para crear una toma de tierra basta con enterrar en el suelo unos conductores (por ejemplo, unas placas
metálicas de uno o varios metros) que se conectan al denominado cable de tierra. Si la conexión de estas
placas con el terreno es buena (tiene baja resistencia), este cable estará al mismo potencial eléctrico que el
entorno: estructura metálica del edificio, instalación de fontanería y en general cualquier objeto que esté a
nuestro alrededor. Todos los aparatos eléctricos (con partes metálicas accesibles) de la instalación, deben
conectar sus chasis al cable de toma de tierra.
Si en un aparato que esté conectado a la toma de tierra se produce una "derivación" (un cable se pela y entra
en contacto con la parte metálica), comenzará a circular una corriente desde el cable defectuoso al cable de
toma de tierra. Esta elevada corriente hará saltar los fusibles o interruptores automáticos que protegen la
instalación, con lo que se cortará automáticamente la corriente y desaparece el riesgo de electrocución. Pero
esto sólo ocurre cuando la toma de tierra es de muy buena calidad (baja resistencia eléctrica es decir, la
corriente circula con facilidad).
La toma de tierra también es necesaria para que la conexión del ordenador con otros dispositivos (otros
ordenadores, impresoras, monitores,etc) se pueda realizar de una forma segura para la propia máquina.
Por ejemplo, supongamos que vamos a conectar un ordenador a una impresora por medio del cable paralelo
o de impresora:
• Si en la instalación eléctrica cuenta con una toma de tierra, y se usan las bases de enchufe y cables
adecuados, se estará conectando, aparte de la corriente eléctrica, los chasis del ordenador y la
impresora a la toma de tierra, y por tanto los chasis de ambos estarán conecta dos entre sí. En estas
condiciones, no puede existir ninguna diferencia de potencial entre ordenador e impresora, y
conectarlos entre sí con el cable en paralelo no ofrecerá ningún peligro de ningún tipo.
• Si no tenemos toma de tierra podría ocurrir que por el efecto de la electricidad estática uno de los
dispositivos alcance un potencial elevado. Se interconectarán ambos dispositivos con el cable paralelo,
lo que permitirá que se igualen los potenciales de la impresora y el ordenador a través del cable. Todo
ello puede producir la destrucción de la salida de impresora del ordenador y/o de la entrada de datos
de la impresora.
Competencias Analítica
Promover habilidades cognitivas que les permitan utilizar hábitos y técnicas de estudio que potencialicen su
estilo de aprendizaje.
Se trata de un PC de estilo juvenil, rápido y con posibilidad de overclocking, cuyos componentes más
significativos son la placa base preparada para overclocking, la CPU 1700 (comprada en el codo de la curva
de precios en España, Enero-2002) y el disipador de 0,37ºC/W y 28 dBa de ruido. Teniendo en cuenta los
requerimientos de nuevas aplicaciones domésticas, como el video MPEG4, es aconsejable que un PC
doméstico de nueva adquisición no sea mucho más lento que éste.
Un factor contra el que tiene que luchar constantemente el reparador de PC y los operadores de PC en
general es la presencia de las cargas electrostáticas. Para entender esto ( y en una definición más gráfica
que técnica) hay que recordar que la corriente eléctrica es EL FLUJO DE ELECTRONES a través de un
conductor (o de un circuito) cuando hay una DIFERENCIA DE POTENCIAL (entre sus extremos ). O sea: hay
circulación de electrones cuando un polo (negativo o cargado de electrones) emana electrones hacia el
polo opuesto (positivo o carente de electrones). Luego, para que tal circulación se produzca es necesario
aplicar una fuerza (en electricidad: fuerza electromotriz). La aplicación de la fuerza electromotriz moverá
los electrones a una intensidad determinada produciendo calor en los conductores ( la intensidad de los
electrones se mide en AMPERIOS). Cuando la intensidad es demasiado alta produce rotura o fusión de los
componentes del circuito que no están diseñados para soportar altas temperaturas (diodos, chips, etc.).
Competencias de Información
Buscar fuentes de información bibliográfica, hemerográfica, Internet y videotecas que amplíe el acervo de
conocimientos.
El alumno:
− Consultará en Internet o revistas especializadas material técnico de varios tipos de manuales o
instrucciones de instalación de dispositivos.
http://www.mundopc.net/hardware/
http://www.pchardware.org/actualiz.php
http://www.coloredhome.com/bricolaje_pc.htm
http://www.servicioalpc.com/soluciones.htm
http://www.conozcasuhardware.com/actualiz/index.htm
http://www.mailxmail.com/curso/informatica/armadopc
http://www.computacion-aplicada.com/registro/formulario.php
http://www.linkses.com/articulos/articulo.asp?id=95
http://www.galiciacity.com/hardware.html
http://www.wikilearning.com/introduccion-wkccp-5094-1.htm
http://www.pasarlascanutas.com/montaje_de_un_pc/montaje_de_un_pc0008.htm
http://www.abcdatos.com/tutoriales/hardware/genericos.html
a) Gabinete y fuente de poder, incluyendo cables de conexion ala tarjeta principal y a los
dispositivos de memoria auxiliar.
b)Tarjeta principal (tarjeta madre)
c) Procesador
d) Memoria Ram (DIMM's)
e) Tarjeta de Video
f) Tarjeta de Audio
g) Tarjeta de fax-modem (moduladora/demoduladora).
• Herramientas.
Construir uno mismo su computadora le permite selecccionar únicamente aquellos componentes que el
usuario desea incluir. Además, tendrá una mejor idea de cómo funciona una microcomputadora.
PASOS GENERALES
A continuación se presenta un resumen de los pasos a seguir para ensamblar una computadora personal:
1. Análisis de necesidades y cotización. Evalúe sus necesidades, i.e., a base de el tipo de uso que le dará a
la computadora sera, pues, las piezas que necesitará. Determine, entonces, los componentes y
dispositivos que requiere. Luego, busque precios y adquiera los mismos.
2. Prepare el área de trabajo. El área de trabajo debe ser plana (aproximadamente de 6 pies x 4 pies). Por
ejemplo, puede ser un tablón, mesa grande, banco de trabajo o un escritorio. Las superficies de trabajo
deben estar limpias. El área de trabajo debe estar apropiadamente alumbrada.
3. Organiza y prepara tus herramientas. Recolecte los materiales y herramientas de trabajo que habrá de
necesitar. Las herramientas que puede requerir son, a saber:
a. Destornillador ranurado o "Phillips", cabeza #1.
b. Destornillador de paleta 1/8".
c. Destornillador de tuercas 3/8".
d. Algunas máquinas tienen tornillos que requieren de un destornillador en forma de estrella,
conocido como torx.
e. Alicates o tenacillas de nariz larga. Son útiles para ajustar caballetes de conexión ("jumpers") en
una tarjeta del sistema o en un dispositivo (e.g., unidad de CD-ROM, disco dure, entre otros).
Se pueden adquirir componentes de buena calidad y a precios razonables a través de tiendas virtules en el
Web. A continuación se describen los componentes requeridos para construir una microcomputadora y los
sitios Web donde se pueden comprar:
http://www.Buy.com/
http://www.MicroWarehouse.com/
http://www.googlegear.com/
Memoria
http://www.kingston.com/
Fuentes de Potencia
Cajas/Armazones de Computadoras
http://www.ColorCases.com
Discos Duros
Modems
DVD-RW
Tarjetas de Video
http://www.nvidia.com
ATI Technologies, Inc.: http://www.ati.com
http://www.crucial.com/
• Cables y conectores.
Esta Guía intentará ayudar a los posibles clientes de conmutadores kvm, a definir el tipo de cable que
necesitan para cada tipo de equipos. Los switches kvm, normalmente, están ubicados entre el usuario
(teclado, monitor y ratón) y los servidores / ordenadores. Los cables interface son utilizados para conectar los
ordenadores / servidores al conmutador.
Una regla básica a tener en cuenta: Siempre se requiere un cable por cada CPU. En algunos casos,
también se requiere un cable para la conexión del usuario. En equipos multiusuario matriciales, también se
requerirá un cable por cada usuario conectado. Si los cables no están enumerados bajo el concepto
correspondiente, tenga presente que necesitará de ellos, tanto para la conexión de las CPU’s como, en su
caso, para la conexión de los usuarios.
Advierta que ServeView, UltraView, UltraMatrix y la gama XP requieren por lo menos un cable de
conexión usuario así cómo un cable por cada servidor conectado.
*donde se requiera
Los conmutadores kvm, generalmente tienen dos tipos de conexiones, que determinarán el tipo de cable que
Ud. requiere. Uno de ellos es el conector de tipo rackmount, un conector que dispone de tornillos para
garantizar la fijación del mismo y solidificar la conexión a prueba de tirones. El otro tipo de conector es el
denominado standard. Este tipo de conectores son los que se pueden encontrar como típicos de teclados,
monitores y ratones.
Se requiere un juego de cables para conectar el switch a cada servidor. Un extremo del cable se acopla al
conmutador y el otro al ordenador. Los cables de conexión Dakota contienen todos los conectores de teclado,
monitor y ratón requeridos. Si quiere conectar 4 ordenadores a un conmutador, necesitará 4 juegos de cables.
Conexión tipo standard: Un conmutador kvm con conectores standard permite al usuario acoplar su teclado,
monitor y ratón directamente al switch. Además cada puerto dispone de conectores de teclado, monitor y
ratón separados.
Conectores
PC
Teclado AT Din5
SUN
MAC
CABLES ESPECIALES
Competencias Analítica
Promover habilidades cognitivas que les permitan utilizar hábitos y técnicas de estudio que potencialicen su
estilo de aprendizaje.
Construir uno mismo su computadora le permite selecccionar únicamente aquellos componentes que el
usuario desea incluir. Además, tendrá una mejor idea de cómo funciona una microcomputadora.
Se pueden adquirir componentes de buena calidad y a precios razonables a través de tiendas virtules en el
Web. A continuación se describen los componentes requeridos para construir una microcomputadora y los
sitios Web donde se pueden comprar.
Competencias de Información
Identificará el alumno como los medios de información como el Internet, periódico, boletines , revistas entre
otros nos permiten realizar un mercadeo para establecer el costo competitivo de un producto en el mercado,
esto con la finalidad de que se tomen decisiones oportunas en las empresas.
Buscar fuentes de información bibliográfica, hemerográfica, Internet y videotecas que amplíe el acervo de
conocimientos.
El alumno:
− Consultará en Internet o revistas especializadas material técnico de Dispositivos nuevos existentes
en el mercado.
http://www.mundopc.net/hardware/
http://www.pchardware.org/actualiz.php
http://www.coloredhome.com/bricolaje_pc.htm
http://www.servicioalpc.com/soluciones.htm
http://www.conozcasuhardware.com/actualiz/index.htm
http://www.mailxmail.com/curso/informatica/armadopc
http://www.computacion-aplicada.com/registro/formulario.php
http://www.linkses.com/articulos/articulo.asp?id=95
http://www.galiciacity.com/hardware.html
http://www.wikilearning.com/introduccion-wkccp-5094-1.htm
http://www.pasarlascanutas.com/montaje_de_un_pc/montaje_de_un_pc0008.htm
http://www.abcdatos.com/tutoriales/hardware/genericos.html
Unidad de aprendizaje: 1
Práctica número: 1
Escenario: Aula
Duración: 5 hrs.
• Cartulinas.
• Marcadores.
1. Organizar al grupo en equipos y entregar impresiones de la lectura “Los problemas capitales de la Ética“
2. Pedir a los alumnos que contesten el siguiente cuestionario estableciendo una respuesta común para cada
pregunta
• ¿Es cierto que cada uno puede fabricarse una ética a su gusto?
• ¿Es cierto que la ética depende siempre de las épocas y de las costumbres, es decir, que es relativa
sólo a eso?
• La conciencia verdadera y cierta ha de ser obedecida siempre. ¿Quiere esto decir que las cosas son
buenas o malas según lo estime cada persona en su conciencia?
3. Solicitar a los alumnos presenten en equipo ante el grupo sus respuestas con su respectiva justificación.
4. Consensar en grupo las conclusiones sobre las exposiciones presentadas por cada equipo.
5. Elaborar de manera individual el reporte escrito de la práctica que deberá incluir las conclusiones de la
misma.
Si No No
Desarrollo
Aplica
® Aplicó las medidas de seguridad e higiene en el desarrollo de la práctica.
• Utilizar la ropa y equipo de trabajo.
1. Se integró a un equipo de trabajo.
2. Contestó el cuestionario estableciendo una respuesta común para cada
pregunta.
3. Presentó en equipo ante el grupo sus respuestas con su respectiva
justificación.
4. Consenso en grupo las conclusiones sobre las exposiciones presentadas por
cada equipo.
5. Elaboró de manera individual el reporte escrito de la práctica incluyendo las
conclusiones de la misma.
4 Separó los residuos recuperables.
Observaciones:
PSA:
El ciclo de vida de los ordenadores personales es demasiado corto: un equipo comprado hace un mes, ya no
es el más puntero: habrán surgido nuevos procesadores, nuevas tarjetas gráficas, memorias, etc.
Pero habitualmente no se necesita un equipo de última generación para realizar el trabajo usual de oficina.
El primer paso es detectar cual es la avería , se debe realizar una tarea de diagnostico en base a los síntomas
que presenta el PC y no se trata de descartar uno por uno las posibles causas sino de utilizar diagramas de
flujo que nos permiten diagnosticar rápidamente el problema.
Los diagramas de flujo son diagramas de árbol que le permitiran hayar rapidamente cual es el problema .
Inicialmente podemos clasificar la memoria en tres tipos:
RAM
ROM
MEMORIA VIRTUAL
GENERACIONES DE MICROPROCESADORES
Si deseas conocer más sobre los procesadores más antiguos y aprender más sobre las generaciones de
microprocesadores, podrás hacerlo viendo sus imágenes y descargando sus fichas resumen. Haz click en
alguno de los apartados siguientes:
GENERACIÓN PRIMERA: AMD 8088, INTEL 8088, INTEL 8086, NEC V20
GENERACIÓN SEGUNDA: AMD 286, INTEL 286
GENERACIÓN TERCERA: INTEL 386DX, INTEL 386SX, INTEL386SL, AMD 386DX, AMD 386SX
GENERACIÓN CUARTA: CYRIX 486 DLC, INTEL 486 DX, INTEL 486 SX, INTEL 486DX2 ORIGINAL, INTEL 486DX2
E. STAR, INTEL 486DX2 W. BACK, INTEL 486DX2 ODRIVE, INTEL 486DX4 ORIGINAL, INTEL 486DX4 ODRIVE,
AMD 486 DX, AMD 486 DX2, AMD 486 DX4, AMD 5X86
BIOS: "Basic Input-Output System", sistema básico de entrada-salida. Programa incorporado en un chip de la
placa base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador.
Muchas tarjetas gráficas son capaces de mostrar vídeo a pantalla completa mediante software (también hay
algunas que lo incorporan en el hardware) bien en formato MPEG o AVI mediante los correspondientes drivers
para Windows. En este caso, para comparar diferentes tarjetas basta con poner el mismo vídeo en dos tarjetas
diferentes y ver dónde hay mayor calidad de imagen y mayor número de fotogramas por segundo (en el cine
son 24). La mayoría de las tarjetas modernas aceleran MPEG-2 por software, por lo que también se está
convirtiendo en magnitud de medida. Y las de última generación tienen soporte para MPEG-2 por hardware.
El primer disco duro utilizado en un PC tenía una capacidad de almacenamiento de 10 MBytes. Era más
grueso, medía 15 cm de ancho y 20 cm de largo y pesaba cerca de 5 kg. Las diferencias son tremendas
respecto a los discos duros actuales. Todas estas variaciones morfológicas se deben al continuo refinamiento
de los materiales y al consiguiente aumento de la densidad acumulativa, así como a la mejora de los métodos
de almacenamiento y al perfeccionamiento y optimización de los componentes electrónicos.
El disco así grabado se protege con una capa muy tenue de aluminio, lo cual le da el color típico plateado.
Hoy día estas técnicas se utilizan para cantidades superiores a 1000 unidades, mientras que para cantidades
inferiores es más barato, rápido y conveniente utilizar la grabación de discos grabables.
Estos también llevan una capa de recubrimiento característica. Al principio esta era de oro y derivados, lo cual
hacia que el disco tuviera ese color. Hoy día se utilizan otros compuestos más versátiles, duraderos y baratos.
El nacimiento del disquete se le atribuye a Alan Shugart, quien en los laboratorios de IBM en San José,
California, lideraba el equipo de desarrollo de la platina de disco, en 1967.
Los primeros discos flexibles fueron utilizados en IBM para cargar microcódigos en el controlador del paquete
de discos Merlín, el IBM 3330, que era un dispositivo de almacenamiento de 100MB de capacidad. Estos
discos recibían el nombre de floppy por su flexibilidad.
Fundamentalmente, existen tres tipos de estilos para las cajas de la computadora, a saber:
• Escritorio o Sobremesa ("desktop"): Disponibles en los factores de forma AT, ATX, Flex ATX, y NLX. Las
cajas de escritorio economizan espacio. No so buenas enfriando el sistema.
• Mini Torre ("Mini Tower"): Disponibles en Micro ATX y en la forma Flex ATX
• Torres Medianas (Semi Torre o "Mediun Tower") y Torres Midi ("Mid Tower"): Disponibles en los
factores de forma AT, Flex ATX, Micro ATX, ATX y ATX Extendida.
• Torre Completa (Gran Torre o "Full Tower"): Disponibles en los factores de forma AT, Flex ATX, Micro
ATX, ATX y ATX Extendida. Las cajas de las gran torre poseen de 4 a 5 bagías libres. Debido a su
tamaño, os gran torre estan diseñdas opara ubicarse sobre el suelo.
Existen algunas sub-categorías de cajas, tales como perfirl bajo o "slim line" y "micro towers". Estos tipos de
cajas emplean tarjetas del sistema especiales, las cuales no se consiguen fácilmente.
Actualización de
Equipo de Cómputo
72 hrs
25 hrs.
35 hrs.
RESULTADO DE APRENDIZAJE
2.1. Actualizar la memoria RAM, microprocesador, tarjeta madre y tarjeta de red de acuerdo con las
especificaciones del fabricante ..
LA MEMORIA
Es la parte de la computadora donde se cargan los programas ó se mantienen guardados ciertos datos por
cierto tiempo. Puede esta compuesta por un solo chip o varios chips montados en una placa electrónica.
La unidad de medición de la memoria de una computadora es el Byte, también conocido como Octeto porque
esta compuesto por el conjunto de 8 Bits. Así, la capacidad de una memoria la podemos resumir en el
siguiente cuadro comparativo:
MEMORIA RAM (RANDOM ACCESS MEMORY): Es una memoria de acceso aleatorio ya que los datos, se
guardan de forma dinámica. Es volátil ya que pierde su información cuando se interrumpe la electricidad en el
mismo. Su capacidad puede estar entre 512 Kbytes hasta 1 Gbyte.
Físicamente se clasifican en:
SIMM (SINGLE IN-LINE MEMORY MODULE): También conocido como Memoria EDO (Extended Data Out). Es
un modulo de memoria integrado simple de 30 pines para modelos x286 de PC a 72 pines para modelos x486-
686 y algunos Pentium I y II. Trabajan a un bus de 66 Mhz y por lo general deben estar conectados en pares
(Si van en Pentium). Esto se debe a que los buses de datos de las Pentium tienen un ancho de 64 Bits y los
primero 80-486 - 686 (No todos) tienen un bus de datos de 32 Bits. Estas memorias trabajan a 60ns,70ns u
80ns, siendo las más rápidas las de 60 ns .
DIMM (DUAL IN-LINE MEMORY MODULE): Tambien es conocido como SDRAM (Sequential-Dynamic Random
Access Memory). Es un modulo de memoria integrado Dual Secuencial-Dinámica que posee 168 pines y
RIMM O RANBUS: Debido al avance tecnológico del Microprocesador AMD K7, el cual puede llegar a
funcionar con velocidades de bus FSB de 200MHz, una serie de fabricantes han preparado un nuevo tipo de
memoria denominado módulo RIMM o RAMBUS, el cual utiliza los flancos de subida y bajada del reloj del
Microprocesador, consiguiendo la comunicación a 200MHz.
Obsérvese como la disposición de las muescas y pines de conexión han cambiado, con lo que probablemente
tendremos que volver a cambiar de placa base.
Actualmente, las RAMBUS están apareciendo en las placas con chipsets I810, pero es un consuelo pensar que
dichas placas vienen con un adaptador para los antiguos módulos DIMM.
MEMORIA ROM (READ ONLY MEMORY): Es una memoria de solo lectura que contiene información sobre la
configuración de la tarjeta madre y su compatibilidad con cierto hardware. Aquí se controla la fecha del
sistema, secuencia de arranque del sistema, seguridad, discos fijos, cd-rom drivers, flopply drivers, Zip drivers,
Red, MODEM, sonido, entre otros. Se reconoce porque es un chip grande que casi siempre esta cerca de una
pila de reloj con las siglas AMIBIOS American Megatrend, PHOENIX, Award BIOS, entre otros. Este, es el BIOS
(Basic Input Output System) del sistema y cada uno tiene una configuración especifica para el modelo de
tarjeta madre donde este montado. Su capacidad es de 640 Kbytes y es reprogramable eléctricamente
(EEPROM).
MEMORIA VIRTUAL: Es el espacio libre que queda en el disco duro del PC que utiliza el sistema operativo
(Windows por ejemplo) para facilitar y agilizar las tareas requeridas por el usuario. Para que un PC funcione
sin problemas de memoria virtual, debe tener al menos 100 Mbytes de espacio libre en el disco duro.
MEMORIA CACHÉ: Es una memoria que se encuentra en el nivel 2 (L2) del Microprocesador y se utiliza para
guardar información de las operaciones de la ALU de la CPU. En alguna tarjetas madres para Pentium I, es
externa, con la forma de una pequeña tarjeta parecida a un SIMM justo a un lado del Socket del procesador,
casi siempre de color verde o marrón.
MEMORIA MECÁNICA: Aquella que esta compuesta por discos duros, Discos flexibles, CD´s, ZIP´s, cintas
magnéticas, etc. La capacidad esta determinada por el fabricante.
¿Qué es la memoria?
Los que trabajan en la informática suelen emplear el término "memoria" para aludir a Random Access Memory
(memoria de acceso aleatorio) o RAM. Una computadora utiliza la memoria de acceso aleatorio para
almacenar las instrucciones y los datos temporales que se necesitan para ejecutar las tareas. De esta manera,
la Central Processing Unit (unidad central de proceso) o CPU puede accesar rápidamente las instrucciones y los
datos almacenados en la memoria.
Un buen ejemplo de esto es lo que sucede cuando la CPU carga en la memoria una aplicación, como un
procesador de textos o un programa de autoedición, permitiendo así que la aplicación funcione con la mayor
velocidad posible. En términos prácticos, esto significa que se puede hacer más trabajo en menos tiempo.
Este concepto de "poner los datos al alcance de la CPU", es similar a lo que sucede cuando se colocan diversos
archivos y documentos electrónicos en una sola carpeta o directorio de archivos de la computadora. Al
hacerlo, se mantienen siempre a la mano y se evita la necesidad de buscarlos cada vez que se necesitan.
Muchas personas confunden los términos memoria y almacenamiento, especialmente cuando se trata de la
cantidad que tienen de cada uno. El término "memoria" significa la cantidad de RAM instalada en la
computadora, mientras que "almacenamiento" hace referencia a la capacidad del disco duro.
Para aclarar esta confusión, se puede comparar la computadora con una oficina que tiene una mesa de
trabajo y varios archiveros.
La mesa de trabajo representa la memoria, la cual ofrece un acceso rápido y fácil a los archivos con los que se
está trabajando en ese momento determinado.
Otra diferencia importante entre la memoria y el almacenamiento, consiste en que la información almacenada
en el disco duro permanece intacta cuando se apaga la computadora. En cambio, el contenido de la memoria
queda borrado cuando se apaga la computadora (como si se tiraran a la basura todos los archivos
encontrados en la mesa de trabajo al final del día).
Los archiveros representan el disco duro de la computadora, el cual proporciona el almacenamiento masivo.
Cuando se trabaja con una computadora, se debe salvar el trabajo con frecuencia. La memoria de la
computadora salva las modificaciones introducidas en el documento hasta que el usuario las salva en el disco
duro. Si por cualquier razón se interrumpe la operación de la computadora, por ejemplo, debido a un corte de
La cantidad correcta de memoria varía de acuerdo con el tipo de trabajo que se realice y con el tipo de
aplicaciones que se utilicen. Con los procesadores de textos y las hojas de cálculo de hoy en día se requiere un
total de 32 megabytes. Sin embargo, los programadores de software y de sistemas operativos ya consideran
que 64 megabytes representan la configuración mínima. Los sistemas utilizados en artes gráficas, publicación
de libros y multimedia requieren de por lo menos 128 megabytes de memoria, y es común que tales sistemas
cuenten con 256 megabytes o más.
Tal vez ya haya experimentado lo inconveniente que es trabajar con una computadora que carece de
suficiente memoria, escuchando un golpeteo en el disco duro y el tiempo que tarda en terminar es eterno. Los
programas se ejecutan lentamente, se producen errores de memoria más frecuentes y a veces no se puede
abrir una aplicación sin primero cerrar otra. En cambio, cuando se cuenta con suficiente memoria, se pueden
ejecutar varias tareas a la vez, como imprimir un documento mientras se trabaja con otro, y es posible
mantener varias aplicaciones abiertas simultáneamente.
Si bien podríamos hacer conjeturas en cuanto a la cantidad "correcta" de memoria para un sistema
determinado, una cosa es cierta: los desarrolladores de software y de sistemas operativos continuaran
añadiendo características y funciones a sus productos, y esto impulsará a una necesidad mayor de memoria en
los sistemas.
Un producto de memoria bastante común es el SIMM (Single In-line Memory Module). Como se puede
observar en la ilustración, un SIMM típico consiste en varios chips de DRAM instalados en una pequeña placa
de circuito impreso o PCB, la cual encaja en una ranura SIMM en la placa del sistema (se darán detalles
adicionales más adelante).
Procedencia de la memoria
Tal como se menciona en la introducción, DRAM es el tipo de chip de memoria más común. Estos chips se
producen en fábricas grandes y altamente especializadas. De allí, los chips pasan a los fabricantes de módulos
de memoria (como Kingston), en donde se utilizan para fabricar diversos productos de memoria. Estos
productos atraviesan los diversos canales de distribución hasta llegar a las personas que los instalan en las
computadoras. Graphic
Memory
Fabrication Distributor/ End Users
Module
Plant Resellers & Computers
Manufacturer
Instalación de la memoria
Para que los módulos de memoria puedan funcionar, deben comunicarse directamente con el CPU de la
computadora. Anteriormente la memoria solía soldarse directamente en la placa madre (conocida también
como placa lógica o placa matriz). Pero a medida que aumentaron los requisitos de memoria, resultó poco
viable soldar todos los chips de memoria a la placa madre (o motherboard).
A esto se debe la popularidad de los SIMMs y de las ranuras SIMM. Su formato ofrece un método flexible para
actualizar la memoria, al mismo tiempo que ocupa menos espacio en la placa madre.
Una de las ventajas principales de la memoria SIMM es la capacidad para acomodar grandes cantidades de
memoria en un área reducida. Algunos SIMMs de 72 contactos contienen 20 ó más chips de DRAM; 4 de estos
SIMMs contendrían 80 ó más chips de DRAM. Si estos chips se instalaran horizontalmente en la placa madre,
ocuparían 135 cm2 de área superficial. Los mismos 80 chips de DRAM en SIMM en instalación vertical ocupan
solamente 58 cm2 de área superficial.
Configuración horizontal de DRAM en una placa madre y configuración vertical de DRAM en forma de SIMM
En las computadoras, la memoria se acomoda en lo que se llaman bancos de memoria. El número de bancos
de memoria y su configuración específica varían de una computadora a otra, debido a que son determinados
por el CPU de la computadora y de cómo este recibe la información. Las necesidades del CPU determinan el
número de ranuras de memoria requeridas por un banco.
Ya que no es posible examinar todas las configuraciones de memoria existentes, si podemos examinar un
sistema para la representación de los requisitos de configuración de memoria, el cual se llama esquema de
bancos. Un esquema de bancos es un diagrama de filas y columnas que muestra el número de ranuras en el
sistema. Esta representación visual es un diseño teórico y no el esquema real de la placa; ha sido diseñada
para ayudar a determinar rápidamente los requisitos de configuración al añadir los módulos de memoria.
Kingston utiliza los esquemas de bancos para ayudar a sus clientes a entender las reglas de configuración para
diversos sistemas. Este sistema aparece en la documentación de los productos Kingston, la cual incluye el
Manual de Configuraciones de Kingston y un sistema de referencia electrónica que se llama KEPLERTM.
Bank Schema:
4MB Standard
___4 ___ ___ __
8MB Standard
___8 ___ ___ ___
4MB ST
8MB KTM-APTV/4
12MB KTM-APTV/8
16MB KTM-APTV/8
KTM-APTV/4
20MB KTM-APTV/16
24MB KTM-APTV/16
KTM-APTV/4
28MB KTM-APTV/8
36MB KTM-APTV/16
Bits y bytes
Su computadora habla un idioma que consiste en sólo dos números: 0 y 1. A esta forma de comunicación se
le denomina "lenguaje máquina"; los números se combinan para formar números binarios. El "lenguaje
maquina" utiliza números binarios para formar las instrucciones que se dirigen a los chips y microprocesadores
que controlan los dispositivos de computación, tales como las computadoras, impresoras, unidades de disco
duro, etc.
Tal vez haya escuchado alguna vez los términos bit (dígito binario) y byte. El bit es la unidad más pequeña
utilizada por la computadora, y puede ser un uno o un cero. Un byte consta de 8 bits (esto se tratará a mayor
detalle más adelante). Debido a que los números binarios consisten únicamente en unos y ceros, los valores de
los números binarios son diferentes de los valores decimales que utilizamos diariamente. Por ejemplo, en el
sistema decimal, cuando se ve el número uno seguido de dos ceros (100) se sabe que este representa el valor
de cien. En cambio, en el sistema binario la misma combinación de números (100) representa el valor de
cuatro.
La manera de contar con números binarios no es muy diferente del sistema decimal. En el sistema decimal, al
llegar a nueve se regresa a cero, y el número uno se desplaza a la columna de decenas. Cuando se cuenta en
el sistema binario, el proceso es similar; sin embargo, debido a que sólo hay dos dígitos el desplazamiento de
dígitos sucede más a menudo.
Volviendo por un momento a la forma en que el "lenguaje maquina" utiliza unos y ceros, cada dígito en un
número binario representa un bit. El "lenguaje maquina" considera que cada bit se encuentra "activado" o
"desactivado". Un bit con el valor de 1 se considera "activado", mientras que un bit con el valor de 0 se
considera "desactivado". Por lo tanto, para determinar el valor de un número binario, se suman las columnas
En el sistema decimal de numeración, cada columna (unidades, decenas, centenas, etc.) tiene un valor diez
veces mayor que el de la columna anterior; en cambio, en el sistema binario el valor de cada columna es el
doble de la columna anterior (uno, dos, cuatro, ocho, dieciséis, etc.).
En este ejemplo, se compara la misma combinación de números (III) en los dos sistemas. En el sistema
decimal, el número III representa la suma de 100+10+1, mientras que en el sistema binario III representa el
valor de 7, ya que es el resultado de sumar 4+2+1.
Debido a que la computadora procesa unos y ceros, existe un valor binario para cada caracter que se
encuentra en el teclado. El sistema estandarizado más aceptado para la numeración de los caracteres del
teclado se llama ASCII (American Standard Code for Information Interchange), es decir, Código Estándar
Americano para el Intercambio de Información.
Se requieren hasta 256 combinaciones diferentes de números binarios (de 0 a 255) para describir todo el
teclado. Para representar los números decimales de 0 a 255 se requieren 8 dígitos binarios. Como puede ver,
Se mencionó anteriormente que un byte consta de ocho bits, representados por ocho dígitos binarios. Casi
todas las especificaciones de las capacidades de la computadora se representan en bytes. Por ejemplo, la
capacidad de la memoria, la velocidad de transferencia de los datos y la capacidad de almacenamiento de
datos se miden en bytes o en sus múltiplos (como kilobytes o megabytes). La siguiente tabla contiene un
resumen de los términos usados para hacer referencias a las cantidades de bits y bytes.
Al calcular con múltiples bits y bytes, es posible confundirse debido a la forma en que la letra K (kilo) se usa
para expresar las cantidades de bytes o bits. Fuera del campo de la informática, un kilo representa 1000
unidades. Sin embargo, en la informática representa exactamente 1024 unidades ó 210.
El CPU (unidad central de proceso) de la computadora procesa los datos en unidades de 8 bits. Como se
menciona anteriormente, a estas unidades se les denomina "bytes". Debido a que el byte es la unidad
fundamental para el proceso, la potencia del CPU a menudo se describe de acuerdo con el número de bytes
que puede procesar a la vez. Por ejemplo, los microprocesadores Pentium y PowerPC más potentes de la
actualidad son CPUs de 64 bits, lo cual significa que pueden procesar simultáneamente 64 bits ó 8 bytes.
Cada transacción entre la CPU y la memoria se denomina ciclo de bus. El número de bits de datos que la CPU
puede transferir durante un ciclo de bus afecta al rendimiento de la computadora y determina la clase de
memoria que se requiere. La mayoría de las computadoras de escritorio utilizan SIMMs de 72 ó 30 contactos.
Un SIMM de 30 contactos da soporte para ocho bits de datos; un SIMM de 72 contactos da soporte para 32
bits de datos.
SIMM de 30 contactos
Veamos un ejemplo de una CPU que da soporte para 32 bits de datos. Si la placa madre tiene ranuras para
SIMMs de 30 contactos donde cada uno proporciona 8 bits de datos, se necesitaran 4 SIMMs de 30 contactos
para obtener 32 bits, (esta es una configuración común en los sistemas que utilizan SIMMs de 30 contactos).
En un sistema de esta clase, la configuración de memoria típicamente se divide entre dos bancos de memoria:
el banco cero y el banco uno. Cada banco de memoria consta de cuatro ranuras de SIMMs de 30 contactos. La
CPU se dirige a un banco de memoria a la vez.
Nota: Con la mayoría de las computadoras, la combinación de SIMMs de diversas capacidades en el mismo
banco no permite que la computadora detecte con exactitud la cantidad de memoria disponible. Esto puede
El SIMM de 72 contactos fue desarrollado para satisfacer los requisitos de memoria cada vez mayores de las
computadoras de escritorio. Un SIMM de 72 contactos da soporte a 32 bits de datos, es decir, cuatro veces
más bits de los que se pueden obtener con un solo SIMM de 30 contactos. Si tiene un CPU de 32 bits, como
Intel 486 - Motorola 68040, necesitara sólo un SIMM de 72 contactos por banco para proveerle a la CPU de 32
bits. Tal como vimos en la sección anterior, este mismo CPU requeriría 4 SIMMs de 30 contactos por banco
para obtener sus 32 bits de datos.
La representación gráfica muestra la manera en que se combinan los SIMMs para proporcionar 32 bits de
datos al CPU.
La memoria "tarjeta de crédito" ha sido diseñada para su uso en las computadoras "laptop" y portátiles. Debido
a sus dimensiones compactas, es ideal para las aplicaciones donde el espacio es limitado. Se le denomina así
debido a que sus dimensiones son aproximadamente las de una tarjeta de crédito.
Físicamente, la memoria "tarjeta de crédito" se parece muy poco a la memoria SIMM descrita anteriormente.
Sin embargo, se emplean los mismos componentes habituales en la construcción interna de los SIMMs.
Nota: Si bien su apariencia es similar, la memoria "tarjeta de crédito" no se debe confundir con una tarjeta
PCMCIA (Personal Computer Memory Card International Association). La memoria "tarjeta de crédito" utiliza
Los módulos de memoria DIMM, o Dual In-line, se parecen bastante a la memoria de tipo SIMM. Al igual que
los SIMMs, la mayoría de los DIMMs se instalan verticalmente en las ranuras de expansión. La diferencia
principal entre los dos consiste en que, en un chip SIMM, los contactos de cada fila se unen con los contactos
correspondientes de la otra fila para formar un sólo contacto eléctrico; en un chip DIMM, los contactos
opuestos permanecen eléctricamente aisladas para formar dos contactos separados.
Los DIMMs se utilizan frecuentemente en las configuraciones que dan soporte para un bus de memoria de 64
bits o más. En muchos casos, estas configuraciones se basan en procesadores potentes de 64 bits, como el
Pentium de Intel o PowerPC de IBM.
Por ejemplo, el módulo KTM40P/8 DIMM de Kingston que se utiliza en la computadora PowerPC 40P RICS
6000 es un DIMM de 168 contactos.
Otro tipo de memoria que se usa comúnmente en las computadoras "laptop" y portátiles se llama Small
Outline DIMM (de perfil pequeño) o SO DIMM. Un DIMM de perfil pequeño es como un SIMM de 72
contactos en un paquete de dimensiones reducidas, pero existen algunas diferencias técnicas importantes. El
DIMM de perfil pequeño y el SIMM mostrados en la página siguiente tienen 72 contactos cada uno. Sin
embargo, es la disposición de los contactos lo que diferencia estos dos tipos de memoria.
Los SO DIMM más comunes, son el de 72 contactos de 32 bits y el de 144 contactos de 64 bits.
Los ejemplos ilustran las diferencias entre los productos SIMM, DIMM y SO DIMM. El DIMM de 168 contactos
da soporte para transferencias de 64 bits, sin duplicar el tamaño del SIMM de 72 contactos, el cual da soporte
sólo para transferencias de 32 bits. El SO DIMM también da soporte para transferencias de 32 bits y fue
diseñado para las computadoras portátiles.
Memoria propietaria
Las dimensiones del producto de memoria KCN-IB50/16 son extremadamente pequeñas, lo cual permite que
éste se instale en espacios muy reducidos.
El KCN-1B150/16 es tan sólo un ejemplo de la memoria propietaria. Kingston fabrica otros módulos
propietarios, incluyendo diversos componentes de tipo de tarjeta de crédito y DIMM. El término "propietario"
no se aplica a una clase de memoria en particular, sino simplemente significa que el producto de expansión de
memoria se adapta a una sola clase de computadora. Tenga presente que un módulo de memoria propietaria
no tiene una apariencia diferente. Kingston también vende versiones propietarias de SIMM, DIMM y SO DIMM.
De hecho, el ejemplo de la memoria DIMM ilustrada en la sección de "memoria DIMM" es un módulo de
memoria propietaria.
La paridad ha sido el método más común hasta la fecha. Este proceso añade un bit adicional a cada 8 bits (1
byte) de datos.
Error Correction Code (ECC) (Código de Corrección de Errores) es un método más completo para la verificación
de integridad de datos que puede detectar y corregir errores de bits individuales.
Debido al carácter competitivo del mercado, cada vez es más común que los fabricantes de computadoras
personales omitan la verificación de integridad de datos. Por ejemplo, eliminan la memoria de paridad con el
objeto de reducir el precio de los sistemas (esta tendencia ha sido compensada, en parte, por la mejora en la
calidad de los componentes de memoria que ofrecen ciertos fabricantes, y como resultado, los errores de
memoria son relativamente escasos).
La decisión sobre la verificación de integridad de datos se debe tomar al comprar la computadora. Si esta
desempeñara un papel crítico, por ejemplo, como un servidor de red, conviene comprar un sistema con un
controlador de memoria provisto de funciones ECC. La mayoría de las computadoras diseñadas para uso como
servidores avanzados dan soporte para ECC; la mayoría de las computadoras de escritorio diseñadas para su
uso en empresas y en el gobierno dan soporte para el sistema de paridad; y la mayoría de las computadoras
Paridad
Cuando se usa el método de paridad en una computadora, se almacena un bit de paridad en DRAM con cada
8 bits (1 byte) de datos. Las dos clases de protocolo de paridad (paridad impar y paridad par) funcionan de
manera similar, las cuales se describen en la siguiente tabla.
PARIDAD IMPAR
1. El bit de paridad se fija en uno (se "activa"), si el byte de datos correspondiente contiene un número
par de unos. Si el byte contiene un número impar de unos, el bit de paridad se fija en cero (se
"desactiva").
2. El bit de paridad y los 8 bits de datos correspondientes se registran en DRAM.
3. Antes de que se envíen los datos a la CPU, estos son interceptados por el circuito de paridad. Si el
circuito de paridad identifica un número impar de unos, los datos se consideran validos. Se elimina el
bit de paridad de los datos y los 8 bits de datos se transmiten a la CPU.
Si el circuito de paridad detecta un número par de unos, los datos se consideran inválidos y se genera un error
de paridad.
PARIDAD PAR
1. El bit de paridad se fija en uno si el byte de datos correspondiente contiene un número impar de unos.
El bit de paridad se fija en cero si el byte contiene un número par de unos.
2. (Igual a la paridad impar)
3. (Igual a la paridad impar)
Los datos se consideran inválidos si el circuito de paridad detecta un número impar de unos.
El método basado en la paridad tiene ciertas limitaciones. Por ejemplo, un circuito de paridad puede detectar
un error, pero no puede realizar ninguna corrección. Esto se debe a que el circuito no puede determinar cual
de los 8 bits de datos es incorrecto; además, si hay más de un bit incorrecto, el circuito de paridad no
detectara el problema si los datos coinciden con la condición de paridad par o impar, en la cual el circuito de
paridad basa la verificación. Por ejemplo, si un 0 correcto se convierte en un 1 erróneo y un 1 correcto se
convierte en un 0 erróneo, los dos bits defectuosos se cancelan entre sí y el circuito de paridad no detecta los
errores. Afortunadamente, la posibilidad de que esto suceda es extremadamente remota.
Con la paridad normal, cuando se escriben 8 bits de datos en DRAM, se escribe al mismo tiempo, el bit de
paridad correspondiente. El valor del bit de paridad (ya sea 1 ó 0) se determina en el momento en que el byte
se escribe en DRAM, basándose en la cantidad par o impar de unos. Algunos fabricantes utilizan un chip de
"paridad artificial" más barato. Este chip simplemente genera un 1 ó 0 en el momento en que los datos se
envían al CPU, a fin de ajustarse a los requisitos del controlador de memoria.
Por ejemplo, si la computadora utiliza la paridad impar, el chip de paridad artificial generara un 1 cuando se
envíe a la CPU un byte de datos que contenga una cantidad par de unos. Si el byte contiene una cantidad
impar de unos, el chip de paridad artificial generara un 0. Lo que sucede en realidad, es que el chip de paridad
artificial envía una señal de "OK" en todos los casos. De esta manera, engaña a la computadora que espera el
El sistema de Código de Corrección de Errores se utiliza principalmente en las PC más avanzadas y en los
servidores de archivos. La diferencia más importante entre el ECC y la paridad es que el ECC es capaz de
detectar y corregir los errores de un bit. Con ECC, la corrección generalmente se lleva a cabo sin que el propio
usuario se de cuenta de que se ha producido un error. Dependiendo del tipo de controlador de memoria
utilizado por la computadora, ECC también podrá detectar los errores sumamente raros de dos, tres o cuatro
bits de memoria. Sin embargo, aún cuando ECC puede detectar estos errores de múltiples bits, sólo puede
corregir los errores de un sólo bit. Si se presenta el caso de un error de múltiples bits, el circuito ECC devuelve
un error de paridad.
Mediante el uso de un algoritmo especial (secuencia matemática) y trabajando en conjunto con el controlador
de memoria, el circuito ECC anexa los bits ECC a los bits de datos y estos se almacenan juntos en la memoria.
Cuando se solicitan datos de la memoria, el controlador de memoria descifra los bits ECC y determina si uno o
más bits de datos se encuentran deteriorados. Si hay un error de un sólo bit, el circuito ECC lo corrige y tal
como se mencionó, en el caso muy poco probable de un error de múltiples bits, el circuito ECC devuelve un
error de paridad.
En un SIMM de 72 contactos con una especificación de ancho de x39 ó x40, es seguro que el SIMM en
cuestión ha sido diseñado exclusivamente para ECC. Sin embargo, algunos PC avanzados y muchos servidores
de archivos utilizan pares de SIMM x36 para la verificación de errores ECC. Dos SIMM x36 proveen un total de
72 bits; se emplean 64 bits para los datos y 8 bits para ECC. Esto puede resultar confuso, ya que cuando se
utilizan estos mismos módulos x36 en otras configuraciones, son simplemente módulos de paridad. Esto sirve
para recalcar que el tipo de verificación de errores (paridad o ECC) depende más del controlador de memoria
que del módulo de memoria. El módulo de memoria proporciona los bits pero es el controlador de memoria
quien decide cómo se utilizan estos. Generalmente, para poder usar la memoria ECC, su computadora debe
incluir un controlador de memoria cuyo diseño aproveche la tecnología ECC.
Existe una nueva tecnología que se llama ECC en SIMM o EOS, la cual ofrece las capacidades ECC en los
sistemas diseñados para la verificación por paridad. Hasta ahora, esta tecnología ha sido bastante cara.
Además, es probable que sus aplicaciones resulten limitadas, debido al simple hecho de que la mayoría de las
personas que desean ECC toman esta decisión antes de comprar la computadora, y de esta manera obtienen
el soporte para ECC de una forma más económica que con los módulos EOS.
• Identificar necesidades.
Aunque las modernas CPU tienen una preocupación primordial en mantener sus pipelines de procesos llenos
de instrucciones y datos, esto se esta convirtiendo cada vez en una tarea mas complicada debido a que, si
bien el rendimiento de la CPU se duplica cada 18 ó 24 meses, la velocidad de los chips DRAM que constituyen
la memoria principal sólo se incrementan en un pequeño porcentaje.
La memoria caché de alta velocidad que actúa como buffer entre la memoria principal y la CPU constituyen un
factor cada vez mas importante en el rendimiento total.
En lo alto de esta jerarquía se encuentran los registros, de los que habitualmente hay 64 (32 para enteros y 32
para coma flotante) para un total de 256 bytes de una CPU corriente. La caché constituye el siguiente nivel de
la jerarquía: el tamaño habitual oscila entre los 16 KB y los 256 KB, y el tiempo de acceso es del orden de unos
pocos ciclos de CPU. Con la llegada de las caché en el microprocesador, muchas maquinas cuentan ahora con
un segundo nivel de caché, fuera del microprocesador.
Diseño de la caché
Lo primero que hay que decidir en un diseño de caché es la línea de caché donde se debería almacenar un
bloque cargado desde memoria. Pensemos en un sistema que use direccionamiento de 32 bits. Si el tamaño
de un bloque es de 64(2 elevado a 6)bytes, los 6 bits de la parte inferior de la dirección -el offset- determina a
que byte de dentro del bloque se esta direccionando. Si la caché consta de 1024 de estas líneas de 64 bytes
los siguientes 10 bits de la dirección determina en que línea esta colocado el bloque . Los 16 bits de la parte
superior de la dirección -el tag- se guarda con al línea de la caché . Una caché mapeada directamente
almacena un tag por línea en su array de tags.
Por ejemplo una lectura la caché utiliza los bits centrales de la dirección como índice para su array de tags. El
tag indicado se conforta luego con los 16 bits de la parte superior de la actual dirección. Si encajan, los datos
que indican el ofsset se envían a la CPU.
La ventaja que implica utilizar una cache directamente mapeada es que solamente se tiene que hacer una
confrontación por acceso a la caché.
El problema de una caché directamente mapeada es que si dos bloques a los que se accede frecuentemente
mapean en la misma línea de caché, estarán todo el tiempo expulsándose mutuamente de la caché.
El otro extremo en el diseño de caches es la caché completamente asociativa, en la que se puede colocar un
bloque en cualquier línea de caché. En este caso, la dirección simplemente se divide en bits inferiores, lo que
constituye el offset en la línea de caché y los bits superiores que forman el tag que se confronta con
referencias superiores.
En el caso de una caché asociativa, tiene que haber algún mecanismo para decidir en que línea se coloca el
bloque. En teoría se sustituye el bloque de memoria menos utilizado últimamente LRU.
Una caché completamente asociativa resuelve los problemas de direcciones en conflicto pero a costa de
mucho hardware extra para comparar el tag con todas las líneas de caché. Entre las caches directamente
mapeadas y las completamente asociativas es la caché asociativa por conjuntos. Las líneas se dividen en
conjuntos y los bits centrales de la dirección determinan el conjunto en el que se colocan un bloque. Dentro
de cada conjunto, la caché es completamente asociativa. Además de necesitar menos comparadores que una
caché completamente asociativa, la de tipo asociativa por conjuntos también facilita la implementación de la
política LRU. Por ejemplo, solo se precisa un bit para implementar una política LRU.
Las consecuencias mas fundamentales relativas a la caché para una aplicación son si la mayor parte de los
datos sobre los que se opera encajaran en la caché y si los datos que se cargan incluyen información no
utilizada. Si los datos encajan en la caché y ninguno de ellos es ajeno, su organización y el orden en el que se
acceda a ellos no afectará de manera sustancial al rendimiento, mas tarde o mas temprano toda la
información tiene que estar cargada.
Un error habitual que cometen los programadores consiste en optimizar un programa con la suposición de
que todas las referencias irán a parar a la caché, pasando por alto el hecho de que un fallo de caché puede
consumir tantos ciclos de reloj como una decena o mas de instrucciones.
• Resolución de problemas.
Conflictos y asociatividad
Dos direcciones que sólo difieran en la parte del tag mapearán para el mismo conjunto de caché, esto recibe
el nombre de conflicto. Cuando se accede repetidamente a direcciones en conflicto y el numero de conjuntos
supera la asociatividad de la caché la misma dirección generará repetidamente un fallo de caché, ya que las
referencias en conflicto harán que se desaloje antes de que se pueda referenciar de nuevo.
Esta es la razón por la que una caché asociativa bidireccional pueda resultar tan efectiva como una
directamente mapeada que le duplique el tamaño.
Hasta ahora, se ha hablado de la dirección de un determinado item que está copiado en la caché o en la
memoria. De hecho, los sistemas utilizan dos tipos de dirección, la virtual y la física, y dos tipos de caché,
según el tipo de dirección que se utilice.
Pero en realidad cada byte de RAM tiene una sola dirección. El sistema operativo y el hardware colaboran en
la creación de este efecto al definir dos tipos de dirección la virtual y la física y hacerse cargo de la conversión
entre ambas. Los programas utilizan direcciones virtuales, mientras que el controlador de memoria de sistema
exige direcciones físicas.
El uso de una caché direccionada virtualmente presenta varias ventajas. El controlador de caché no tiene que
esperar a que finalice la conversión de dirección para poder consultar la dirección en la caché, lo que significa
que la caché pueda proporcionar datos mas rápidamente. Asimismo, debido a que se esta utilizando las
direcciones virtuales del programa, ejecuciones idénticas de un programa conducirán a idénticos modelos de
uso de caché.
Si bien las caches direccionadas físicamente padecen de variaciones de rendimiento, presentan dos ventajas
claras.
SEGUNDA.- Debido a que todas las direcciones son para un único espacio de dirección física en vez de para
un espacio diferente de dirección virtual para cada aplicación, se pueden dejar los datos en la caché cuando el
sistema operativo transfiere el control de una aplicación a otra. Con una caché direccionada virtualmente hay
que limpiar los datos cada vez que tiene lugar una transferencia de control o una conmutación de contexto.
En ocasiones podemos tener problemas al intentar instalar un nuevo DIMM o SIMM de memoria en nuestro
PC y presentarse fallos como por ejemplo, incorrecta detección del módulo, que aún poniendolo
correctamente, no aumenta nuestra cantidad de memoria RAM...
Para evitar estos problemas, te damos los siguientes consejos que seguro te serán de ayuda, sobre todo para
tenerlos en cuenta antes de instalar tu nueva memoria.
Asegurate de no estar mezclando memorias tipo PC-66, PC-100 y PC-133. La única forma de comprobar la
velocidad de BUS de cada modulo es la siguiente: monta un modulo en el PC y entra en Windows. Bajate del
siguiente link de MundoPC.NET el programa "Sisoft SANDRA 2000 standard" e instálalo:
Cuando lo tengas preparado ejecuta el test denominado "Main Board Information". El programa te
proporcionara un monton de informacion sobre tu placa base, entre ella la velocidad de BUS de tu memoria
RAM (FRONT SIDE BUS). Una vez que la sepas apúntala y apaga el PC. Retira el modulo de memoria, instala el
otro y repite la operacion para comprobar tambien la velocidad de BUS. Si la velocidad no coincide en ambos
casos ya sabes donde está el problema. Si por el contrario resulta ser la misma en los dos modulos, entonces
pasaremos al siguiente punto.
Asegurate de que los módulos de memoria que quieres instalar son identicos, es decir, poseen el mismo
numero de chips y además, éstos estan colocados en ambos modulos de la misma manera, es decir, por una
cara o por ambas caras de los modulos. Cuando se instalan modulos de memoria que solo tienen chips por
una sola cara (llamados de cara simple) junto con modulos que poseen chips por ambas caras (denominados
"de doble cara") lo más normal es que la placa base no arranque de ningun modo. Si los modulos que posees
son iguales pasamos entonces al tercer punto.
La velocidad de acceso de un modulo de memoria es DIFERENTE a la velocidad del BUS o que ya hemos visto
antes. Este tipo de velocidad aparece serigrafiada encima de los chips negros de memoria que hay en cada
modulo. Para que sepas averiguar de qué velocidad son los CHIPS de cada modulo te remito un pequeño
esquema adjunto llamado "velocidades". No tienes más que hacer doble clic para consultarlo. Si, tras
comprobar este tipo de velocidad observas que los modulos son de diferente velocidad ya tienes localizado el
problema, sino, pasamos al cuarto punto.
En la BIOS de las ultimas placas base para Pentium III y AMD K7 existen opciones de configuracion que suelen
acelerar la RAM del PC pero que pueden dar problemas con memorias de algunos fabricantes. Para evitar
estos problemas busca las siguientes opciones en la BIOS y dejalas con los valores que te indico. Si no las
encuentras no te alarmes, es posible que la version BIOS de tu placa no las tenga:
Problemas y soluciones
Instalar memoria nueva en un ordenador puede llegar a ser una fuente importante de dolores de cabeza, no
por la complicación de la operación, que es sencillísima, sino por multitud de pequeños problemas e
incompatibilidades que en ocasiones ni siquiera tienen un motivo identificable.
Pues tendrá que tirar o vender de segunda mano parte de la memoria que tiene actualmente; a los precios a
los que se ha puesto la memoria, no debería ser un trastorno tan grave.
Si va a sustituir toda la memoria, aproveche para optimizarla un poco; es decir, que si actualmente la
memoria es FPM de 70 ns instale la nueva de 60 ns, o si es EDO de 60 ns instale de 50 ns. Eso sí, siempre que
su placa no indique la necesidad de usar memoria de una velocidad específica (generalmente, y mientras no
mezclemos velocidades distintas, poner memoria más rápida no es problema; ponerla más lenta sí).
Sí, a veces cuesta bastante. Los SIMM de 30 contactos, sobre todo de bajas velocidades (es decir, de tiempos
de espera altos, de 100 u 80 ns), son especialmente difíciles de encontrar y en casi ningún caso serán nuevos.
Asimismo, encontrar módulos FPM o EDO lentos puede llevar un cierto tiempo, aunque en este caso no se
debería desesperar.
Una buena solución (y económica) para encontrar memoria antigua es comprarla de segunda mano a través
de sitios web especializados de Internet, como www.mercadolibre.com o www.ibazar.es. Aunque tomando
las lógicas precauciones, claro...
En cuanto a la memoria de marca, a veces le dirán en el fabricante que ya no se fabrica o no sabrá encontrar
un distribuidor de memorias compatibles. Pruebe a buscar en Internet (Crucial, Mushkin o Kingston, por
ejemplo); y para ayudarle, el último teléfono de Kingston que tengo es el 900-984-488.
De cualquier modo, si se desespera y decide comprar memoria de diferente velocidad o tipo, sustitúyala por la
ya instalada. Si mezcla distintos tipos o velocidades se la está jugando; le doy un 75% de probabilidades de
fracasar, aunque si su placa base es avanzada y tolerante con estos temas, ¿quién sabe?
Puede que acabe de descubrir lo que es una incompatibilidad de memoria (o que un módulo es defectuoso,
pero esto es mucho más improbable). Le recomiendo que:
Verifique, manual de la placa en mano, si está en el zócalo adecuado y si es una combinación de módulos
posible.
Intercambie los módulos entre sí; pruebe sólo con unos, luego con otros, luego todos.
Pues el primer paso para saberlo es que todo esté bien cuando ese módulo no está, y mal con él puesto. Mire
además si falla el test de memoria de la BIOS; también puede usar el parámetro "/TESTMEM:ON" junto con el
HIMEM.SYS en su archivo CONFIG.SYS (si no sabe de qué demonios hablo, revise sus conocimientos de DOS).
Y para los manitas, un método estupendo: cree una unidad de disco RAM lo mayor posible (con
RAMDRIVE.SYS), y haga una verificación de superficie de dicha unidad con el SCANDISK, preferiblemente
desde DOS, para que la unidad RAM sea lo mayor posible. La verificará como si fuera un disco duro
defectuoso (sólo que en vez de media hora tardará 1 ó 2 segundos).
PREGUNTAS
SIMM (SINGLE IN-LINE MEMORY MODULE): También conocido como Memoria EDO (Extended Data
Out). Es un modulo de memoria integrado simple de 30 pines para modelos x286 de PC a 72 pines para
modelos x486-686 y algunos Pentium I y II. Trabajan a un bus de 66 Mhz y por lo general deben estar
conectados en pares (Si van en Pentium). Esto se debe a que los buses de datos de las Pentium tienen un
ancho de 64 Bits y los primero 80-486 - 686 (No todos) tienen un bus de datos de 32 Bits. Estas memorias
trabajan a 60ns,70ns u 80ns, siendo las más rápidas las de 60 ns .
DIMM (DUAL IN-LINE MEMORY MODULE): Tambien es conocido como SDRAM (Sequential-Dynamic
Random Access Memory). Es un modulo de memoria integrado Dual Secuencial-Dinámica que posee 168
pines y trabajan a buses de 66 Mhz,100 Mhz,133 Mhz,400 Mhz y 800 Mhz. Pueden ser de 3.3 Volts para
algunos PC-100 y PC-133 y 5 Volts para algunos PC-66. Trabajan a 7,8,10 ó 12 ns siendo las de 7 ns las
más rápidas.
RIMM O RANBUS: Debido al avance tecnológico del Microprocesador AMD K7, el cual puede llegar a
funcionar con velocidades de bus FSB de 200MHz, una serie de fabricantes han preparado un nuevo tipo
de memoria denominado módulo RIMM o RAMBUS, el cual utiliza los flancos de subida y bajada del reloj
del Microprocesador, consiguiendo la comunicación a 200MHz.
Paridad, se denomina así al procedimiento de detección de errores, por el cual el número de unos (1) de cada
grupo de bits debe ser siempre el mismo, bien par o impar, para que se realice una transmisión correcta. Si la
paridad se comprueba en función de los caracteres, el método se denomina comprobación de redundancia
vertical, o VRC (acrónimo de Vertical Redundancy Checking). Si se comprueba en función de los bloques, el
método se denomina comprobación de la redundancia horizontal o LRC (acrónimo de Longitudinal
Redundancy Checking). La paridad se utiliza para comprobar datos transferidos dentro de un ordenador o
computadora o entre computadoras.
Muchas personas confunden los términos memoria y almacenamiento, especialmente cuando se trata de la
cantidad que tienen de cada uno. El término "memoria" significa la cantidad de RAM instalada en la
computadora, mientras que "almacenamiento" hace referencia a la capacidad del disco duro.
Hasta ahora hemos tratado algunos atributos técnicos de la memoria y la manera en que funciona en un
sistema. Ahora tenemos que encargarnos del aspecto técnico: los bits y los bytes. En esta sección se explica
el sistema de numeración binaria, que es la base de la computación, así como la manera en que los módulos
de memoria han sido diseñados para trabajar con el sistema binario.
http://www.mundopc.net/hardware/
http://www.pchardware.org/actualiz.php
http://www.coloredhome.com/bricolaje_pc.htm
http://www.servicioalpc.com/soluciones.htm
http://www.conozcasuhardware.com/actualiz/index.htm
http://www.mailxmail.com/curso/informatica/armadopc
http://www.computacion-aplicada.com/registro/formulario.php
http://www.linkses.com/articulos/articulo.asp?id=95
http://www.galiciacity.com/hardware.html
http://www.wikilearning.com/introduccion-wkccp-5094-1.htm
http://www.pasarlascanutas.com/montaje_de_un_pc/montaje_de_un_pc0008.htm
http://www.abcdatos.com/tutoriales/hardware/genericos.html
EL PROCESADOR
Es el motor del equipo y de él dependen en un tanto por ciento bastante alto las prestaciones finales del
equipo. Pero para tener un equipo rápido, debemos tener una óptima combinación de componentes entre
placa base, procesador, tarjeta gráfica, cantidad y tipo de memoria RAM y disco duro.
A continuación, vamos a analizar los procesadores que se pueden encontrar actualmente en el mercado,
clasificándolos por fabricante, así como las previsiones para el presente año 1998 y siguientes.
INTEL
Domina el mercado de procesadores Pentium y Pentium II, como ya hizo con los 386 y 486 en su momento,
debido a la cantidad de dinero invertido en investigación y desarrollo, lo que le hace estar un paso o incluso
varios por delante de sus competidores. Las gamas actuales en el mercado son las siguientes
PENTIUM
Fue el primer procesador de 64 bits de quinta generación en aparecer en el mercado, y llegó a alcanzar
velocidades de hasta 200MHz con una velocidad interna de 66MHz. Sus características más destacadas son las
siguientes:
PENTIUM MMX
Es la última genmeración de la gama Pentium y se ofrece en velocidades de 166MHz, 200MHz y 233MHz para
ordenadores de sobremesa, versiones de 150MHz, 166MHz (lanzado al mercado en el mes de Enero de 1998,
con tecnología de 0,25 micras), 200MHz, 233MHz y 266MHz (lanzado al mercado en el mes de Enero de
1998, con tecnología de 0,25 micras) para portátiles y versiones OVERDRIVE para equipos de sobremesa de
125MHz, 150MHz, 166MHz, 180MHz y 200MHz.
* 57 nuevas instrucciones internas diseñadas para procesar con más eficacia datos gráficos, de
audio y de vídeo.
* SIMD(Single Instruction Multiple Data), que permite realizar la misma operación con
diferentes datos simultáneamente, especialmente útil con imágenes gráficas, vídeo, audio y
animaciones.
* Capacidad de ejecutar dos instrucciones multimedia (MMX) en cada ciclo de reloj.
* Doble cantidad de caché: 16KB para datos y 16 KB para instrucciones.
* Doble de los búfferes de escritura y mejora de ejecución de instrucciones en paralelo.
* Voltaje menor (2,8V sólo para el corazón del procesador). Esto da lugar a un menor
calentamiento, pero el funcionar con doble voltaje 2,8V/3,3V implica que algunas placas no lo
soportan, y por tanto estos procesadores exigen placas modernas. Los procesadores MMX
para portátiles funcionan a 1,8V y 2,0V internamente.
La mejora de prestaciones sobre el Pentium Clásico a igual velocidad no sólo se nota ejecutando instrucciones
multimedia, puesto que el simple doblaje de la cantidad de caché supone un incremento importante de
rapidez de proceso.
Este procesador no es interesante en este momento, porque la aparición del Pentium II y sus sucesivas bajadas
de precio han causado su practica desaparición del mercado (que se producirá oficialmente a final de año por
parte de INTEL). Combinando un Pentium MMX 200MHz o 233MHz con una placa base de buena calidad,
32MB o mejor 64MB de RAM y una buena tarjeta gráfica 3D se obtiene un aceptable ordenador multimedia
doméstico o una buena estación de trabajo a un precio muy competitivo.
Sin embargo, este procesdador aún sigue siendo muy interesante para un ordenador portátil, debido al
excesivo coste, de momento, de los Pentium II para portátiles.
Sin embargo, debemos tener en cuenta que debido a la fuerte amenaza de AMD con su K6 y K6-2y CYRIX con
su 6x86MX y su MII, INTEL está ofreciendo sus Pentium II a precios de MMX hace menos de un año. Por tanto,
si el presupuesto alcanza, ir a un Pentium II, si no, un Pentium MMX es un procesador muy válido y muy
rápido.
PENTIUM PRO
El rendimiento de este procesador está a la par con el rendimiento del Pentium 2, el AMD K6 y el CYRIX
6x86MX en aplicaciones ofimáticas, pero en las aplicaciones multimedia y en los juegos es superado
ampliamente por ellos.
No hay ninguna razón para comprar uno de estos procesadores, debido a que su precio no ha bajado
demasiado con la aparición del Pentium II, a menos que queramos actualizar nuestro equipo basado en
Pentium Pro a un procesador más rápido y con más caché interna (es decir, un 200MHz 512KB/1MB Caché), a
un precio relativemente competitivo.
Sin embargo, los usuarios de Pentium Pro están de enhorabuena, pues INTEL acaba de lanzar al mercado un
Pentium II para Zócalo 8 (el de los Pentium Pro), con instrucciones MMX, como Pentium Pro Overdrive. Este
PPro Overdrive saldrá en velocidades de 300MHz, para los equipos basados en PPro 150MHz y 180MHz, y
333MHz, para los equipos basados en PPro 166MHz y 200MHz.
PENTIUM II
Inicialmente disponible en versiones de 233MHz, 266MHz, y 300MHz, y más tarde en una versión de 333MHz
es la última generación de procesadores que Intel ha lanzado al mercado. Sus características diferenciales con
respecto a las gamas Pentium anteriores son las siguientes:
Según fuentes no oficiales de INTEL, el procesador Pentium II a 333MHz integra dos nuevas instrucciones no
documentadas: FXSAVE y FXSTOR, destinadas ambas a acelerar todos los procesos del sistema operativo.
Dichas instrucciones sirven para acelerar el cambio entre operaciones de instrucciones MMX (multimedia) y
operaciones del coprocesador matemático integrado en el procesador, pues ambos tipos de operaciones no
pueden ser ejecutadas simultáneamente.
No hay ningún procesador en el mercado que le supere en prestaciones y características avanzadas, pero su
rendimiento queda relativamente limitado por la velocidad de bus de 66MHz. En combinación con una placa
base con chipset INTEL 440LX con soporte para bus AGP para tarjeta gráfica, se obtiene un excelente equipo
multimedia doméstico o profesional, una buena estación gráfica y un potente servidor, añadiendo los
respectivos requisitos de memoria (SDRAM por supuesto) y tarjeta gráfica adecuada a cada necesidad,
pudiendo también actualmente encontrar placas base que soportan hasta dos procesadores Pentium II.
También es el procesador con más futuro, de modo que nuestra inversión en placa base, tarjeta gráfica AGP y
memoria SDRAM puede revalorizarse con un simple cambio de procesador.
No debemos comprar el modelo más rápido, debido a su mayor precio, pero la salida al mercado de
procesadores con mayores velocidades abaratará las versiones anteriores. En este momento, recomiendo la
versión que corre a 300MHz, por su buena relación precio/prestaciones.
A principios del mes de Abril de 1998, Intel ha lanzado al mercado las nuevas versiones del Pentium II para
ordenadores portátiles. Las velocidades iniciales son de 233MHz y 266MHz, y se espera la versión de 300MHz
para final de año. Estos procesadores funcionan a un voltaje de 1,8V, pero su consumo es superior al de los
Pentium MMX, con los problemas que esto puede general a nivel de consumo de batería.
PENTIUM II 100MHz
También con fecha 15 de Abril, Intel ha lanzado al mercado nuevas versiones del procesador Pentium II con
tecnología de 0,25 micras, bus interno de 100MHz y velocidades de 350MHz y 400MHz, juntamente con el
nuevo chipset INTEL 440BX, que mejorará las prestaciones del procesador a igualdad de velocidad con los
actuales y sacará el máximo provecho del bus AGP y la memoria SDRAM. Para Septiembre se espera la versión
de 450MHz y para Navidades la versión de 500MHz. El único problema de estos procesadores es que exigen
memoria RAM que cumpla el estándar PC-100 anunciado por Intel, para que ésta pueda funcionar
correctamente a velocidades de bus de 100MHz, y esta memoria en estos momentos es un poco más cara, y
nos obliga a deshacernos de la memoria SDRAM recientemente comprada.
De todos modos, las primeras pruebas con estos procesadores no demuestran un gran avance en velocidad
con respecto a los anteriores, a pesar del bus de 100MHz, debido a que el tamaño de la caché de Nivel 2 no
ha aumentado y ésta sigue funcionando a la mitad de velocidad del procesador, a diferencia de los nuevos
procesadores con bus de 100MHz de AMD y CYRIX, donde la caché de Nivel 2 funciona también a una
velocidad de 100MHz, con lo que los nuevos procesadores de estos dos fabricantes suponen un considerable
aumento de prestaciones respecto a las versiones anteriores.
Si no necesitamos el equipo inmediatamente, quizás valga la pena esperar hasta pasar el verano para comprar
un nuevo y flamante Pentium II con bus de 66MHz y una placa BX, y así poder hacer OVERCLOCKING a
nuestro procesador utilizando un bus de 75, 83, 100, 103, 112 o incluso 133MHz.
Para aquellos que dispongan de un presupuesto más reducido, también con fecha 15 de Abril, Intel ha
lanzado al mercado un nuevo modelo de Pentium II llamado CELERON con una velocidad inicial de 266MHz,
que se diferencia de los Pentium II anteriores por no disponer en el encapsulado de la caché de segundo nivel.
A este nuevo procesador, también le acompaña un nuevo chipset, el 440EX, que no es más que una versión
recortada del 440LX, pero con soporte para un solo procesador, menos slots PCI (3 PCI)y menos cantidad de
memoria (2 DIMMS - 512Kb).
Este procesador está pensado para equipos económicos para suplantar al Pentium MMX y arrinconar
definitivamente el Zócalo 7 (utilizado por los nuevos procesadores de AMD y CYRIX), aunque las prestaciones
de las primeras unidades para pruebas han defraudado bastante, pues su rendimiento es similar al de Pentium
MMX 233MHz, excepto en operaciones de coma flotante, e inferior a las unidades de 266MHz de AMD y
CYRIX, y es ampliamente superado por los nuevos procesadores de ambos fabricantes (AMD K6-2, CYRIX MII).
INTEL presentó en el mes de Junio de 1998 una versión de 300MHz del CELERON en Septiembre de este año
una versión de 333MHz con 128Kb de caché de Nivel 2 integrada destinada a desbancar a la competencia del
zócalo 7 en el sector de bajo coste. ¡Habrá que esperar a la reacción de AMD y CYRIX!.
Las pruebas hechas con las primeras unidades de CELERON a 300MHz y 333MHzcon 128KB de caché,
llamados CELERON 300A y CELERON 333A, han dejado un poco desconcertados a los técnicos. El hecho de
que la caché de 128Kb funcione a la misma velocidad que el procesador (no a la mitad como en el caso del
Pentium II estándar) hace que las prestaciones del CELERON con caché de nivel 2 sean iguales e incluso
superiores a las del Pentium II estándar a igual velocidad. Esto nos hace preguntarnos: ¿qué guarda INTEL en
la manga?
Además, si tenemos en cuenta que el CELERON muestra una inusual estabilidad con el bus de 100MHz con
placas BX, podemos tener las prestaciones de un Pentium II 400 por mucho menos de la mitad de su
En Enero de 1999, INTEL pone a la venta los nuevos procesadores CELERON con caché de 128KB en versiones
de 366MHz y 400MHz, aunque sigue con el bus de 66MHz a pesar de los rumores insistentes de que los
nuevos CELERON iban a utilizar también el bus de 100MHz (¿Por qué iba INTEL a hacer esto? Sería como
asesinar el Pentium II).
La novedad, sin embargo reside en un nuevo encapsulado para la versión de 366MHz, que tambbién se
utilizará en velocidades de 300MHz y 333MHz: este encapsulado es de plástico y su aspecto es muy similar al
de los antiguos Pentium MMX, y requiere un nuevo tipo de zócalo, pues no es compatible con el Zócalo 7, el
Zócalo 370, que es soportado por los actuales chipsets de INTEL para pentium II, el i440EX y el i440BX,
además de introducir uno nuevo, el i440ZX. El procesador 366MHz para Zócalo 370 se ha mostrado igual de
susceptible de overclocking con el bus de 100MHz como sus hermanos (llegando a alcanzar 550MHz con
estabilidad) y sus prestaciones se sitúan, como es lógico, entre las de un Pentium II 350MHz y las de un
Pentium II 400MHz.
XEON
Este es el nombre dado al Pentium II para SLOT 2, un nuevo encapsulado de mayor tamaño que el de los
Pentium II actuales, al que acompañan también nuevos nuevos chipsets, el INTEL 440GX y el INTEL 450NX,
sobre los que podrás encontrar más información en la página de chipsets.
Este nuevo procesador para SLOT 2 incluye en el encapsulado desde 512KB hasta 2MB de caché de segundo
nivel y ésta funciona a la misma velocidad del procesador (mientras que en los Pentium II actuales lo hace a la
Las primeras pruebas hechas con este procesador con caché de 512Kb en placas de un solo procesador y en
placas duales, muestran muy poca diferencia de rendimiento bajo WINDOWS95/98 con respecto al Pentium II
estándar a igual velocidad, mostrando solamente cierta ventaja bajo WINDOWS NT y UNIX, especialmente
cuando el sistema hace uso intensivo del bus.
Su alto coste y su escasa diferencia en prestaciones los hace interesantes nada más como servidores o
estaciones de trabajo de muy altas prestaciones.
• PENTIUM III
Desde su lanzamiento en Febrero de 1999 en sus versiones iniciales de 450MHz y 500MHz, ya ha alcanzado
los 600MHz.
Este procesador no supone una ruptura con la gama Pentium II, como sucedió anteriormente con el Pentium
MMX, sino una continuidad, lo cual se aprecia en el hecho de utilizar el mismo encapsulado, la misma
cantidad de caché e incluso las mismas placas base (siempre que soporten el bus de 100MHz y actualicemos la
BIOS a una versión que soporte este nuevo procesador).
¿Dónde está entonces la gracia? El Pentium III añade 70 nuevas instrucciones MMX (llamadas antes KNI -
Katmai New Instructions y conocidas ahora como SSE) diseñadas para mejorar las prestaciones de la unidad
de coma flotante del procesador, que al igual que en la tecnología 3DNow! de AMD, permiten ser ejecutadas
simultáneamente en paralelo (SIMD - Single Instruction Multiple Data - una sóla instrucción con múltiples
datos).
Sin embargo, el modo de ejecución de las nuevas instrucciones es ligeramente diferente del de 3DNow,!, por
lo que las aplicaciones actuales (mejor dicho, las del futuro inmediato) deben soportar las nuevas
instrucciones para sacar provecho de la nueva tecnología aportada por este procesador. Como ya ocurrió con
las instrucciones MMX del Pentium, lo más probable es que , salvo alguna honrosa excepción, los juegos serán
los que realmente sacarán provecho de las cualidades de este nuevo procesador. De hecho, los primeros
juegos en versión Beta que soportan estas instrucciones priometen mejoras de hasta un 25% en velocidad con
este procesador.
Como ya ocurrió con 3DNow! y las DirectX6, Microsoft ha anunciado el soporte para estas instrucciones en
sus futuras DirectX7. (por algo se empieza).
COMPATIBILIDAD: tanto ASUS, como ABIT, como SUPERMICRO ya tienen disponibles actualizaciones de BIOS
para sus placas BX que soportan este nuevo procesador, y los demás no tardarán en imitarles.
PRESTACIONES: Visita en enlace a la primera prueba al fondo de la página, pero puedo anunciarte que son
espectaculares, suponiendo un gran avance con respecto a la actual gama Pentium II (según INTEL, además de
las nuevas instrucciones, se ha mejorado la arquitectura interna). Cuando existan programas y juegos que
soporten las nuevas instrucciones, puede ser la locura.
De todos modos, para poder exprimir a fondo las cualidades de este nuevo procesador, tendremos que
esperar al lanzamiento del nuevo chipset de INTEL, el CAMINO i820, con soporte AGP x4, Ultra DMA/66, bus
PCI de 66MHz y soporte para las nuevas memorias DDR SDRAM y Direct Rambus DRAM.
A finales de 1999 se espera el Pentium III para portátiles, con 256Kb de memoria caché de nivel 2
funcionanado a la velocidad del procesador, y con unas características especiales de ahorro que reducen la
velocidad del micro cuando se funciona con baterías para bajar el consumo.
También va cobrando cada vez más fuerza el rumor de un Pentium III con tecnología de 0'18 micras para
Zócalo 370, y de hecho pueden llegar a verse las primeras unidades antes del 2000.
FUTUROS PROCESADORES
* El TANNER, con 512, 1024 o 2048KB de caché de nivel 2 funcionando a la misma velocidad del procesador,
con bus de 100MHz y tecnología de 0'25 micras se espera en su versión de 500MHz para primavera de 1999.
Este procesador para SLOT2 está destinado a sustituir al XEON y su diferencia con éste está en que incluirá las
instrucciones MMX2 o KNI o SSE. De hecho, parece ser que su nombre definitivo será... PENTIUM III XEON
* El nuevo Pentium II para portátiles conocido como PE, con 256KB de caché de nivel 2 funcionando a la
misma velocidad del procesador (como en el Celeron A). Se prentarán versiones 266PE, 300PE, 333PE y 366PE
al mismo tiempo que INTEL dejará de fabricar los Pentium II actuales para portátiles con 512KB de caché de
nievel 2.
El DIXON, con 256KB de caché de nivel 2 en el encapsulado, con tecnología de 0'25 micras y bus de 100MHz
se espera también en su versión inicial de 333MHz para mediados de año. Es el procesador destinado a
sustituir al CELERON, y se esperan versiones para portátiles.
* El CASCADES, con bus de 133MHz y cache de nivel 2 de 256KB en el propio encapsulado funcionando a la
velocidad del procesador, y con tecnología de 0'18 micras, se espera para la segunda mitad del 99 en su
versión de 600MHz.
* El COPPERMINE, con bus de 133MHz y caché de segundo nivel de 256KB funcionando a la misma velocidad
del procesador, y con tecnología de 0'18 micras, se espera también para la segunda mitad de 1999.
* Para finales del año 1999, se presentará una nueva versión del procesador KATMAI para SLOT2, que
empezará en velocidades de 800MHz llegará a alcanzar los 1,2 GHz. Este procesador será el último de la gama
32 bits y dará paso a MERCED.
* Para la segunda mitad del año 2000, Intel ha anunciado su procesador MERCED, un procesador de 64bits,
que empezará en velocidades de 750MHz y utilizará el denominado SLOT M. Este nuevo procesador romperá
completamente con los procesadores tal y como los hemos conocido hasta ahora y será la base del ordenador
del siclo XXI.
Este fabricante tejano que tantos dolores de cabeza dió a Intel con sus procesadores 386 y 486 tardó mucho
en reaccionar ante el lanzamiento de la gama Pentium de INTEL. Lo hizo con el K5, pero la ventaja de INTEL
era muy grande, pero con la compra de NEXGEN, se produjo un rápido avance que finalmente dio lugar al
nacimiento del procesador K6.
En la actualidad AMD es un serio competidor de la gama Pentium MMX de Intel e incluso la gama Pentium II,
y el anuncio de nuevos procesadores de este fabricante hace peligrar de nuevo la hegemonía del fabricante
californiano como ocurrió en las gamas 386 y 486.
K5
Fue el primer procesador de la gama Pentium de 64 bits hecho por AMD de modo totalmente independiente,
y de ahí su retraso en aparecer en el mercado.
AMD adoptó en estos procesadores el marcado de velocidad por comparación con el equivalente de INTEL, y
no por la velocidad real interna de proceso, y se lanzaron versiones K5 PR-75 a K5 PR-166 con los mismos
estadios intermedios de velocidad que los procesadores de INTEL.
Las prestaciones de este procesador son inferiores a las de los procesadores Pentium Clásicos (sin MMX),
aunque mejores que las de los CYRIX 6x86 en operaciones de coma flotante (coprocesador matemático).
Este procesador está superado por el K6 tanto en características y prestaciones, por lo que no es
recomendable a menos que se busque un equipo a un precio realmente bajo, aunque son muy difíciles de
encontrar en el mercado.
K6
Cuando AMD compró NEXGEN, aprovechó el diseño de su procesador de la serie 686 de 64 bits para
desarrollar el K6, un procesador destinado a competir con y superar al Pentium MMX, pero que ha resultado
un serio competidor incluso para el Pentium II.
Al igual que el Pentium Clásico y el MMX, se instalas en placas base con zócalo del tipo 7 (el de las placas
Pentium) y se presenta en velocidades de 166MHz, 200MHz y 233MHz. Acaban de salir al mercado, con fecha
15 de Abril, las versión de 266MHz y 300MHz, con tecnología de 0,25 micras, y aunque oficialmente no
soportan la velocidad de bus de 100MHZ, las pruebas hechas a 75MHz, 83MHz y 100MHz han dado unos
resultados muy buenos y una estabilidad bastante alta, llegando a alcanzar los 400MHz. En cuanto a
rendimiento comparado, el K-6 300MHz compite seriamente con el Pentium II 300MHz excepto en
operaciones de coma flotante.
Este procesador está más cerca del Pentium Pro y el Pentium II que del Pentium MMX en cuanto a desarrollo
tecnológico, y de hecho esto queda refrendado por sus prestaciones, siempre superiores a las de un Pentium
MMX a igualdad de velocidad, y muy cerca del Pentium II de igual velocidad, perdiendo respecto a éste
solamente en operaciones que exigen una unidad de coma flotante rápida (coprocesador matemático).
Esta es una muy buena compra, con una velocidad a camino entre Pentium MMX y Pentium II y con un precio
incluso menor que el del Pentium MMX. Además las pruebas realizadas con un K6 300MHz haciendo
OVERCLOCKING con el bus de 100MHz, no soportado oficialmente por el procesador, ha dado unos resultados
que superan al Pentium II 300MHz (bus de 66MHz) escepto en operaciones de cáculo intensivo con la unidad
de coma flotante.
Seguramente, ésta es la opción más recomendable para actualizar un equipo Pentium con placa que soporte
voltaje dual aprovechando el resto de los componentes, siempre que sea posible. Si hay que comprar una
nueva placa, hay que pensarlo seriamente, y escoger una de las nuevas placas con los últimos chipsets de VIA
y ALI que soportan bus de 100MHZ y AGP, de cara a poder utilizar los procesadores K6-2 de AMD y MII de
CYRIX.
K6-2
AMD ha presentado el K6-2, antes llamado K6 3D, con bus de 100 MHz, 21 nuevas instrucciones MMX,
llamadas 3D NOW destinadas a mejorar el rendimiento en operaciones de coma flotante (CAD, juegos,
multimedia, etc.) y velocidades iniciales de 266MHz, 300MHz y 333MHz, esperandose para el mes de Octubre
la versión a 350MHz y antes de final de año las versiones de 400MHz y 500MHz, con lo que INTEL cada vez
tiene más difícil mantener su cuota de mercado.
* Soporte oficial para el bus de 100 MHz en los modelos de 300MHz y 350MHz, y las futuras
versiones de 400MHz y 450MHz. El modelo a 266MHz funciona con un bus de 66MHz, aunque
funciona de manera estable, e incluso con mejores prestaciones, configurado como
100x2,5=250MHz. La versión de 333MHz utiliza un bus de 95MHz, pero sus prestaciones son muy
poco superiores al modelo anterior, debido a que el descenso del bus absorbe parcialmente el
aumento de velocidad.
* A las 57 instrucciones MMX licenciadas por INTEL, añade 21 instrucciones a las que llama
3DNow!. Estas nuevas instrucciones están destinadas a mejorar los juegos 3D, el software con
imágenes 3D, los programas de CAD, el audio 3D, el software de reconocimeinto del habla, el
funcionamiento de los WINMODEMS o modems HSP, etc.
* Caché de nivel 1 de 64 KB (32KB para datos + 32KB para instrucciones), el doble que los
Pentium MMX y Pentium II.
*Caché de nivel 2 en placa base funcionando a la velocidad de bus.
* Ejecución de hasta 3 instrucciones 3D por cada ciclo de reloj.
* Ejecución de hasta 4 cálculos de coma flotante por cada ciclo de reloj.
Este procesador está destinado a competir directamente con el Pentium II, y comparando los nuevos
procesadores de AMD con los Pentium II a igual velocidad (aunque con bus de 66MHz estos últimos), los
resultados son asombrosos: en aplicaciones ofimáticas (procesador de texto, hoja de cálculo, etc.), el K6-2
llega a superar al Pentium II a igual velocidad, pero la ejecución de operaciones de como flotante (CAD,
multimedia, juegos, etc.) todavía es el dominio de INTEL. MICROSOFT ha anunciado que soportará las nuevas
instrucciones de este procesador en su version DirectX6 que podemos encontrar ya en la WEB de MICROSFT.
Aunque este procesador tiene como complemento ideal las nuevas placas Super 7 (ver la sección de chipsets)
con bus de 100MHz y AGP, diversas pruebas han demostrado que el K6-2 puede funcionar de forma estable
sobre una placa con bus de 66MHz, configurando el procesador como 66x4 y como 66x4,5, siempre que la
placa base admita el voltaje interno (CORE VOLTAGE) de 2,1V o 2,2V (este último es el oficial). Antes de
comprar una nueva placa, deberíamos visitar la WEB del fabricante de nuestra placa base actual para
comprobar esta posibilidad y buscar una BIOS actualizada.
Además, a diferencia de los procesadores Pentium II con bus de 100MHz, que requieren memoria SDRAM PC-
100, las placas Super 7 admiten memoria EDO y memoria SDRAM normal con el bus de 100MHz (siempre que
ésta sea de calidad), lo que reduce sensiblemente el coste de la actualización, reduciendo las prestaciones en
sólo un 10%.
En Enero de 1999 AMD presenta una nueva serie de su procesador K6-2 con velocidades de 366MHz (con bus
de 66MHz), 380MHz (con bus de 95MHz) y 400MHz(con bus de 100MHz). La versión de 400MHz se
caracteriza además por utilizar una nueva instrucción interna (WRITE MERGE BUFFER) que permite una gestión
optimizada de la caché de nivel 1 , con lo que sus prestaciones se acercan cada día más a las del Pentium II a
igual velocidad de reloj. Esta nueva serie de procesadores con esta nueva instrucción, conocidos como CXT
CORE, también se presentará con una velocidad de 350MHz.
Existen también versiones del K6-2 para portátiles, con velocidades de 266MHz, 300MHz y 333MHz.
K6-3
Anunciado inicialmente para final de 1998, pero deliberadamente atrasado hasta el primer trimestre del 99
para aprovechar el tirón del K6-2, AMD ha anunciado las características del K6-3, antes llamado K6-3D+.
* Velocidades iniciales de 350MHz, 400MHz y 450MHz, esperando llegar a los 600MHz a final de
1999.
* Tecnología de 0'25 micras, esperando reducirla a 0'18 para final de año.
* Bus de 100MHz.
* Instrucciones 3DNow!
* 256KB de caché de nivel 2 en el propio procesador funcionando a la misma velocidad del
procesador (como en el Pentium II XEON).
* La antigua caché de nivel 2 de la placa base pasa a ser caché de nivel 3 y funciona a la velocidad
del bus.
* Capacidad para ejecutar 4 instrucciones simultáneamente.
* Compatibilidad con la mayoría de las placas Super 7. Solo se requiere que la placa soporte
voltajes entre 2'3V y 2'5v, además de la preceptiva actualización de la BIOS.
Las pruebas de este procesador están dando unos resultados sorprendentes: a igual velocidad de procesador,
iguala al Pentium II en aplicaciones ofimáticas y ¡¡¡lo supera en los juegos!!!. Otro tema diferente es CAD y
cálculo intensivo, donde la unidad de coma flotante del Pentium II y el Pentium III supera fácilmente al K6-3.
K7 o ATHLON
Parece que la futura estrellas de AMD será el K7, que finalmente llevará el nombre de ATHLON. Este es un
procesador con un bus Alpha de 200MHz (Ufff!!!) que se insertará en un SLOT tipo Pentium II, llamado SLOT
Ya puedes encontrar al fondo de esta página en enlace a la primera comparativa en inglés entre el Pentium III
a 600MHz y el ATHLON a 600MHz. En esta prueba el ATHON 600MHz se muestra muy superior al Pentium III
600MHz, excepto en aplicaciones de cálculo intensivo con coma flotante, donde la diferencia es menor, pues
la unidad de coma flotante siempre ha sido el fuerte de INTEL. Veremos que ocurre cuando este Otoño lleguen
los procesadores INTEL con el bus de 133MHz.
Los primeros tests de compatibilidad con Windows 98 y Winodws NT no han mostrado el más mínimo
problema, ni tampoco con aplicaciones usuales bajo ambas plataformas.
FUTUROS PROCESADORES
A lo largo del año 1999 y principios del 2000, AMD lanzará al mercado sucesivas versiones del K7,
aumentando el tamaño de la caché de nivel 2 hasta los 8MB y la velocidad hasta alcanzar 1GHz, con
tecnología de 0'18 micras.
En el futuro, también se lanzará una versión hecha en cobre. Según un reciente anuncio de AMD, está previsto
lanzar una versión para Zócalo (tipo Zócalo 7) para equipos domésticos con un precio más ajustado.
CYRIX / IBM
Se convirtió con su 6x86 en el primer serio competidor a la gama Pentium de INTEL, llegando a superarlo en
prestaciones, pero la aparición de los Pentium MMX los relegó totalmente, debido a la unidad de coma
flotante más lenta de su procesador y la falta de instruciones MMX. Luego el relevo fue tomado por AMD con
su K6, pero de nuevo CYRIX volvió a la arena con su nuevo 6x86MX (llamado también M2), con las 57
instrucciones MMX. Sin embargo a inicios del verano de 1999 CYRIX ha abandonado definitivamente la
carrera de los procesadores dejando el campo libre a INTEL y AMD.
Fue el primer competidor serio a la gama Pentium, y aunque tuvo diversos problemas de compatibilidad, éstos
fueron resueltos en las sucesivas revisiones o podían corregirse mediante parches que se podian obetener de
la WEB de CYRIX. El nombre de estos procesadores, al igual que todos los de CYRIX hasta el momento
pertenecientes a la gama de 64 bits, no viene dada por su velocidad, sino por sus prestaciones comparadas a
los procesadores de Intel. Se presentaron versiones 6x86 P-120+ a 6x86 P-200+, con los mismos estadios
intermedios que los procesadores de INTEL, y sus características más destacadas eran las siguientes:
* Arquitectura superescalar.
* Predicción múltiple.
* Ejecución y proceso de datos fuera de orden.
* Caché de nivel 1 unificada de 16KB.
Debido a sus problemas de compatibilidad, especialmente el problema de la caché WRITE BACK con
WINDOWS NT (resuelto en los procesadores con la revisión 2.7 o posterior), y sus problemas de
sobrecalentamiento (resueltos con la serie 6x86L), su popularidad inicial descendió, y la aparición de los
Pentium MMX, practicamente los borró del mercado.
Otro problema añadido surgió con el 6x86 P-200+. Debido a que su velocidad de bus era de 75MHz, existían
pocas placas base en el mercado que soportasen oficialmente esta velocidad, pero las más populares, con los
chipsets 430HX y 430VX de Intel, daban frecuentes errores y problemas, aunque INTEL siempre advirtió que
ambos chipsets no habían sido pensados para funcionar a 75MHz. Además muchos periféricos y
componentes, como tarjetas gráficas, módulos de memoria y tarjetas SCSI, no funcionaban correctamente a la
mitad de velocidad de reloj (38MHz), velocidad a la que funciona el bus PCI cuando la velocidad de bus es de
75MHz.
6x86L
Básicamente es el mismo procesador que el anterior, pero con menor consumo de energía, para evitar los
problemas de calentamiento que sufría el anterior.
El problema de este procesador es que utiliza el voltaje dual del Pentium MMX (2,8V/3,3V), por lo que no
podrá instalarse en placas de cierta antigüedad.
Es un procesador rápido, pero sólo resulta interesante si se busca un ordenador de muy bajo coste.
6x86MX
Al igual que el K6 de AMD, este procesador debe situarse realmente a medio camino entre el Pentium MMX y
el Pentium II. Por un lado ejecuta los programas ofimáticos más rápido que un Pentium MMX e incluso que un
Pentium II en algunos casos, pero su unidad de coma flotante y sus prestaciones en 3D son algo inferiores a
las de un Pentium MMX.
Este procesadores se ofrece actualmente en las siguientes versiones, con un marcaje de velocidad en función
de su comparación con los procesadores de INTEL, que son 6x86MX PR-166GP, 6x86MX PR-200GP, 6x86MX
PR-233GP, 6x86MX PR-266GP con velocidad de bus de 75x3 o 83x2,5 y voltaje interno de 2,7V, presentado en
Enero de 1998 y en el mes de Abril ha presentado el 6x86MX PR-300GP de características similares al anterior,
y, curiosamente, al mismo precio que la versión PR-266. Sus características más destacadas son:
Estos tres procesadores tienen la particularidad de poder escoger la velocidad de bus entre 50MHz y 75MHz,
aunque esta última es la que ofrece las mejores prestaciones. De todos modos, para sacarle el máximo
provecho y trabajar con un equipo estable, se debe escoger con sumo cuidado la placa base.
También se han detectado errores de compatibilidad como en las series anteriores, pero de igual modo, desde
la página WEB de CYRIX podemos obtener los parches para correjirlos.
Es un gran procesador, de una gran rapidez, ligeramente más caro que los Pentium MMX y los K6 pero es
recomendable con reservas debido a la velocidad de bus de 75MHz del 6x86MX PR-233GP y el 6x86MX PR-
266GP. El vendedor debe asegurarnos que funcionará con la placa instalada. Imprescindible visitar la página
WEB de CYRIX para ver la lista de placas probadas y compatibles con este procesador.
MII
Este procesador, anteriormente conocido por el nombre clave de CAYENNE es la nueva generación del
6x86MX, y pretende igualar e incluso mejorar las prestaciones del Pentium II mejorando la unidad de coma
flotante (coprocesador matemático), la debilidad de todos los procesadores de CYRIX. Además integra 15
nuevas instrucciones multimedia para mejorar las prestaciones en multimedia y 3D y funciona con bus de
100MHz.
La nueva unidad de coma flotante es capaz de ejecutar 4 operaciones de coma flotante en cada ciclo de reloj
usando instrucciones multimedia duales e incorpora 64KB de caché de nivel 1. Se puede encontrar ya en el
mercado en versiones PR-300 y posteriormente veremos los PR-333, PR-350 y PR-400 para Navidad de 1998.
Como todos los procesadores CYRIX, la velocidad se calcula en relación a las prestaciones en comparación con
los procesadores INTEL, y así el PR-300 funciona realmente a 233MHz, configurado como 66x3,5, aunque
admite su configuración como 75x3, 83x2,5 o 100x2, siendo esta última la que ofrece mejores prestaciones.
Este procesador esta fabricado con tecnología de 0,35 micras y su voltaje interno (CORE VOLTAGE) es de 2,9V,
por lo que, al igual que sus hermanos, genera bastante calor, lo que siempre da lugar a un más que
arriesgado overclocking.
Las primeras pruebas con este procesador mejoran las prestaciones del K6 y el CELERON en aplicaciones
ofimáticas, aunque es superado por el K6-2, la nueva estrella del zócalo 7.
Este procesador es una muy buena alternativa de bajo coste, especialmente si queremos conservar nuestra
placa base, pues muchas placas de una antiguedad media con soporte MMX también admiten el voltaje de
2,9V.
MEDIAGX
Este es un procesador muy interesante diseñado para ordenadores de muy bajo coste.
El MEDIAGX se compone de dos chips, el procesador en sí mismo, que también integra las funciones gráficas y
otro chip encargado de las funciones de sonido y las propias del chipset de la placa base. El procesador
gráfico está en el propio procesador y utiliza la memoria RAM para almacenar datos.
Sus prestaciones son similares a las de un Pentium Clásico, pero su bajo rendimiento en operaciones de coma
flotante y programas 3D lo hacen interesante sólamente por su muy bajo precio.
El problema de este procesador es que debe estar integrado en la placa base, y por tanto no se puede
actualizar. Puede que empecemos a verlo en ordenadores portátiles de bajo coste o en puestos de trabajo en
una red, pero no se recomienda como ordenador doméstico.
Recientemente se ha presentado una versión del MediaGX a 233MHz que pronto empezaremos a ver en
dispositivos para WINDOWS CE.
MXI
Es la nueva generación del procesador MEDIAGX, siguiendo con la tendencia de la integración, con dis
chipsets: el primero, el procesador, que incluye el controlador gráfico; segundo, y el chipset propiamente
dicho, que incluye el controlador de sonido.
En esta nueva versión, el MXI incorporará controlador gráfico 2D y 3D, instrucciones MMX y 64KB de caché de
primer nivel, y se presentará en versiones PR-300 y PR-400.
IDT
CENTAUR TECHNOLOGY INC., subsidiaria de INTEGRATED DEVICE TECHNOLOGY, INC. (IDT) acaba de lanzar al
mercado su primer procesador, caracterizado por un bajo coste, bajo consumo de energía y totalmente
compatible con las placas base y chipsets que existen actualmente en el mercado.
WINCHIP C6
Este procesador es compatible con las placas base y chipsets que existen actualmente en el mercado, pues
funciona a 3,3V o 3,5V.
El secreto de este procesador es su diseño no super-escalar, parecido al del 486, pero al utilizar el bus de
Pentium de 64 bits, una caché de 64KB y un diseño de canal de transferencia de datos avanzado, consigue
unas prestaciones similares a las de un Pentium.
Se presenta en velocidades de 150-200MHz, pero sus prestaciones son inferiores, debido a un floja unidad de
coma flotante (coprocesador matemático) y la ausencia de instrucciones MMX. Su comportamiento en
aplicaciones ofimáticas es bastante bueno, pero su rendimiento desciende ostensiblemente en aplicaciones
multimedia.
Este es un procesador adecuado para equipos portátiles de bajo coste o para ordenadores que se utilizan para
tareas sencillas. No es un procesador adecuado para un equipo multimedia.
WINCHIP C6+
Este nuevo procesador de IDT, lanzado en el año 1998, mejora la unidad de coma flotante del C6 y añade
instrucciones MMX y la especificación 3DNow! del AMD K6-2 con 53 nuevas instrucciones.
Se presenta en versiones de 200MHz, 225MHzy 240MHz y es compatible con el Zócalo 7, presente en todas
las placas para Pentium y en las Super 7.
IDT acaba de anunciar para el año 1999 un nuevo procesador, el WINCHIP 2-3D, con 64KB de caché de nivel 1
y soporte de las instrucciones 3DNow! licenciadas por AMD, que nos suena revolucionario (o anticuado, según
de mire) para lo que se estila hoy en día.
Primera novedad, frente a toda la competencia, nada de voltajes duales: este procesador puede funcionar a
3'52V o a 3'3V, es decir, funciona en cualquier placa Pentium Zócalo 7 (incluso las primeras con el chipset
430FX) o en las nuevas Super 7 ¡y sin calentarse en exceso!.
El bus de este procesador es de 60,66, 75, 83 y 100MHz (los dos primeros los hay en todas las placas con
Zócalo 7, e incluso en algunas los dos siguientes, pewro una placa Super 7 los soporta todos) y el
multiplicador es de 2'5x, 3x o 3'5x (también en muchas las placas base Zócalo 7 y Super 7).
Lo único que nos hace falta por último es una actualización de la BIOS que soporte el nuevo procesador.
Este procesador se presentará en versiones de 225MHz (bus de 75MHz), 233MHz (bus de 66MHz), 240MHz
(bus de 60MHz), 250MHz (bus de 83MHz), 266MHz (bus de 66MHz) y 300MHz (bus de 75 y 100MHz).
¡Algo falla! NO. Seleccionando en la placa, por ejemplo, 2x obtendríamos en el procesador 2'5x. Curioso,
¿verdad?
PRESTACIONES: podemos equipararlas a las del K6 (no el K6-2) a igual velocidad en aplicaciones ofimáticas,
aunque supera a éste en juegos que soporten las instrucciones 3DNow!
ARGUMENTO DE VENTA: precio de venta y actualización de equipos de cierta antigüedad a bajo coste
conservando el resto de los componentes.
FUTUROS PROCESADORES
IDT piensa presentar a lo largo de 1999 el WINCHIP 3, con 128KB de caché de nivel 1 y velocidades iniciales de
266MHz y hacia finales de 1999 presentará el WINCHIP 4, del que se conocen pocos detalles, pero su
velocidad empezará en los 400MHz.
• Identificación de necesidades.
Identifique el tipo de microprocesador que necesita. Esto es casi inmediato en el caso de montar un PC
nuevo, pero no tanto si se trata de una actualización.
• El tipo de zócalo (socket) o ranura (slot) en que debe "pincharse" el micro. Los más habituales son:
- Socket 7: para micros tipo Pentium, Pentium MMX, AMD K6, K6-2 y K6-III, Cyrix...
- Socket 370 PPGA: para micros Celeron de hasta 533 MHz y algunos Cyrix y VIA.
- Socket 370 FC-PGA: para micros Pentium III y Celeron de más de 533 MHz.
- Socket A (462): para los actuales AMD Athlon y Duron.
- Socket 423: para los Pentium 4.
- Slot A: para los primeros micros AMD Athlon.
- Slot 1: para micros Pentium II, algunos Pentium III y algunos Celeron.
Por ejemplo, un Pentium III de 933 MHz utiliza un bus ("FSB" o "velocidad externa o de placa") de 133 MHz, un
multiplicador 7x (933=7x133) y generalmente voltajes de 3,3 V (externo) y 1,7 V (interno).
En placas base modernas es probable que todo se configure automáticamente, pero cuanto más conozca
mejor le irá. Y ojo a las actualizaciones: muchas veces la placa base no ofrecerá la velocidad de bus o el voltaje
que el nuevo micro necesita, otras veces tendrá que actualizar antes la BIOS.
• Resolución de problemas.
1. Antes de tocar ningún componentes electrónico (micro, placa...) debemos descargar nuestra
electricidad estática. Este tipo de carga de baja intensidad que acumula nuestro cuerpo es muy
dañina para los componentes pudiendo dañarlos sin remedio. Para ello debes tocar antes de nada
una superficie metálica no pintada, como podría ser la carcasa interna del PC.
2. Tener claro cual es nuestro nuevo procesador y las características de la placa base. La placa base
debe estar preparada para dar al microprocesador la frecuencia adecuada, de modo que si es un
micro de 500Mhz, la placa pueda facilitar esa frecuencia.
Normalmente se multiplica la frecuencia del bus por un número fijo. Los Pentium III por ejemplo,
tienen una frecuencia de bus que va desde los 100 Mhz hasta los 133 Mhz. En las placas base se
multiplica esa cifra por un valor determinado; si la placa fuera de 100 Mhz multiplicaríamos por 5
para conseguir los 500 Mhz del micro. No obstante estamos de enhorabuena si adquirimos un
microprocesador reciente con una placa también moderna: en la mayoría de las ocasiones este
proceso es automático y no es necesaria ninguna intervención del usuario.
Todas estas indicaciones están explicadas en el manual de usuario de la placa base, donde siempre se
hace mención a la forma de manipular algún interruptor o "Jumper" para asegurar la frecuencia del
micro correcta.
3. La BIOS de nuestro PC debe soportar el micro que estamos instalando. Esta es otra situación
poco común pero es posible que no funcione nuestro nuevo microprocesador si no tenemos
actualizada la BIOS de nuestra placa base. En MundoPC.NET redactamos un artículo de como
Competencias Tecnológica
EL PROCESADOR
Es el motor del equipo y de él dependen en un tanto por ciento bastante alto las prestaciones finales del
equipo. Pero para tener un equipo rápido, debemos tener una óptima combinación de componentes entre
placa base, procesador, tarjeta gráfica, cantidad y tipo de memoria RAM y disco duro.
El chip más importante de cualquier placa madre es el microprocesador o simplemente procesador. Sin él, un
ordenador no podría funcionar. A menudo a este componente se le denomina CPU (Central Processing Unit,
Unidad de procesamiento central), que descríbe a la perfección su papel dentro del sistema. El procesador es
realmente el elemento central del proceso de tratamiento de datos.
La CPU gestiona cada paso en el proceso de los datos. Actúa como el conductor y el supervisor de los
componentes de hardware del sistema. Asimismo, está unida, directa o indirectamente, con todos los demás
componentes de la placa príncipal. Por lo tanto, muchos grupos de componentes reciben órdenes y son
activados de forma directa por la CPU .
El procesador está equipado con buses de direcciones, de datos y de control, que le permiten llevar a cabo
sus tareas. Estos sistemas de buses varían dependiendo de la categoría del procesador, lo cual se analizará
más adelante.
El alumno:
El hecho de elegir un la placa base de un equipo es una tarea que puede parecer complicada, pero en realidad
es un ejercicio que no tiene mayor dificultad, si siguen estas indicaciones.
Al comprarla tienen que asegurarse que tiene el mismo formato que el chasis (Box, Caja), porque si no, no
podran colocarla en ella, ni conectarla a la a fuente de alimentación.<BR.
Existen dos formatos, ATX y Baby AT. Este último es el más antiguo y tiende a extinguirse. Actualmente es
muy difícil encontrar placas o cajas con este formato, pero es posible que si el ordenador que queremos
actualizar tiene unos años sea Baby AT. En este caso lo más recomendable es cambiar también la caja.
FORMATO Baby-AT
Formato reducido del AT, y es incluso más habitual que el AT por adaptarse con mayor facilidad a cualquier
caja, pero los componentes están más juntos. Este formato trae incluido únicamente un conector externo de
teclado Tipo AT, como el que aparece en la figura siguiente. En algunos modelos de Placas Base, estas pueden
traer incluidas el sonido, video, fax/modem y hasta la tarjeta de red, que se conectan en la caja usando una
ranura bracket disponible en el chasis (box, caja).
En caso de estar actualizando nuestro PC, por lo general, elegir este tipo de placas nos evita tener que
comprar un nuevo chasis (box, caja), evitandonos gastos adicionales.
Las Placas Madre tipo Baby-AT traen conectores de energía para cajas AT y ATX.
Si estás actualizando tu equipo, por economía, continúa con el formato AT, el estándar hasta hace poco.
Cambiar a una placa con formato ATX supone comprar al menos una nueva caja y en casi todos los casos una
nueva fuente de alimentación (algunas placas ATX tienen también un conector para fuente de alimentación
AT).
Si vas a comprar un equipo nuevo, exige placa ATX, cada vez más frecuentes, caja ATX y fuente de
alimentación avanzada ATX; aunque suelen ser un poco más costosas que las de modelos Baby-AT.
Como verás, las modernas placas ATX incorporan conectores de tipo PS/2 para el ratón y el teclado. Estos
últimos conectores son valores añadidos que no deben despreciarse. Además, puedes encontrar en el mercado
placas base que integran la tarjeta de video, la tarjeta de sonido e incluso una controladora SCSI o la tarjeta
de red. También son valores añadidos, pero aumentan el coste de la placa, y en caso de estropearse ésta el
número de componentes inutilizados es mayor y el coste de la reposición mayor. Además, la calidad de las
tarjetas de video y de sonido integradas en la placa base no suele ser de una calidad-prestaciones muy altas,
para ajustar costes, por lo que este tipo de placas "todo en uno" son más adecuadas para equipos de oficina.
Las Placas Madre tipo ATX sólamente traen conectores de energía para cajas ATX.
¿C ó m o s e d i f e r e n c i a u n a c a j a A T c o n u n a A T X ?
La principal diferencia entre una caja AT o Baby AT y otra ATX, consiste en su adaptación para incorporar los
diferentes formatos de placas. Normalmente la Caja ATX trae una ranura cuadrada de unos 16cm x 4,5cm en
Recuerde que las cajas ATX soportan tambien la instalacion de boards AT (usando una tapa trasera con el
orificio grande para el teclado).
Esta tapa por lo general las traen las cajas ATX de fabrica, viene incluida dentro de la caja o instalada en la
misma.
Actualmente esta tapa viene incluida de fabrica dentro de la caja donde viene la placa madre (mainboard).
Algunas cajas ATX incluyen este mismo tipo de tapa, aunque es muy raro que esta sea compatible con el
board que usted instala, ais que generalmente usted usará solo la tapa que viene incluida con su board.
EL CHIPSET
Es el responsable de la comunicación entre los componentes de la placa base, los componentes que se
conectan a ella (memoria, tarjeta gráfica,tarjetas SCSI, etc) y con los periféricos ( disco duro, disketera, puertos
serie, paralelo, USB e infrarrojos).
Es obvio que de su elección depende en gran parte el rendimiento del equipo, y merece que le dediquemos un
apartado especial.
De todos modos recuerda que el diseño de la propia placa base (que varía de un fabricante a otro, de modelo
a modelo e incluso dentro de las distintas versiones de cada modelo) es el que puede sacar o no el máximo
provecho al chipset utilizado.
EL FABRICANTE
Una placa de una marca de prestigio es una garantía de calidad, aunque hay pequeños fabricantes intentando
introducirse en el mercado ofertando productos de calidad a unos precios muy contenidos, por lo que para
una buena elección debemos informarnos adecuadamente sobre cada marca y modelo antes de decidirnos.
Un fabricante de prestigio es una garantía de compatibilidad con los demás componentes y en caso de
producirse alguna incompatibilidad, las grandes marcas reaccionan con gran rapidez, normalmente con una
actualización de la BIOS.
También hay un gran número de fabricantes de placas base de buena calidad, a veces con diseños más
acertados que otros, pero es muy difícil recomendar una marca concreta. Te recomiendo que visites el
apartado de pruebas y comparativas al final de esta página y te dirijas a los enlaces que allí encontrarás.
Lo mejor antes de decidirse definitivamente por una marca y modelo en concreto es echar un vistazo a su
página WEB. Cuanto más completa sea, mejor servicio ofrecerá a sus clientes y nos dará una idea de su
seriedad y profesionalidad.
De todos modos, recuerda que a la hora de decidirte por una placa base, no sólo debes fijarte en las
mediciones de prestaciones puras, sino también en cuestiones de fiabilidad, estabilidad de funcionamiento y
otras que encontrarás explicadas a continuación.
Y por último, recuerda que a veces es difícil conseguir un modelo concreto, porque las tiendas de informática
trabajan con determinados distribuidores que a su vez les suministran los modelos y marcas que ellos
distribuyen, a veces en exclusiva. Haz una selección de varias marcas y modelos e inicia la búsqueda.
ZOCALO o SLOT
* Zócalo 7: utilizado por los INTEL Pentium MMX, CYRIX 6x86 y M1, y por los AMD K6 y K6-2
(solamente en algunas versiones).
* Zócalo Super 7: utilizado para los nuevos procesadores CYRIX M1 y AMD K6-2 con bus de
100MHz, aunque también soporta los procesadores soportados por el Zócalo 7, y que, incluso
también en la mayoría de las placas actuales, soportará el futuro K6-3.
* Zócalo 370: especial para el nuevo CELERON A con 128KB de caché con encapsulado plástico
(como el Pentium MMX), pero no compatible con los procesadores anteriores.
El Zócalo no está muerto, no solo por la exitosa línea K6-2 de AMD, y la inminente K6-3, sino que AMD acaba
de anunciar que habrá una versión del futuro K-7 para Zócalo, aunque inicialmente estaba pensada sólo para
SLOT A. Incluso INTEL ha reconocido las ventajas del Zócalo, en cuanto a coste de fabricación y disipación de
calor, y acaba de invertarse un nuevo Zócalo, el 370, para su nueva línea de CELERON A con encapsulado
plástico.
El conector SLOT para procesador fue introducido por INTEL para su línea Pentium II y actualmente existen dos
tipos:
* SLOT 1: para la gama Pentium II y CELERON con cartucho SECC con 242 conectores. Este Slot
también soportará los futuros procesadores de INTEL como el inminente Pentium III.
* SLOT 2: para Pentium II XEON, con 330 contactos, incompatible con el anterior y que
también alojará los futuros procesadores Pentium II XEON que aparecerán a mediados de año.
Además, AMD ha creado el SLOT A, de similares características a los anteriores, pero incompatible con los
procesadores INTEL, para su futura línea K7.
En cuanto a los Zócalos anteriores 3, 5 y 8, solamente podremos encontralos en placas base antiguas con
procesadores 486 y Pentium Pro (el Zócalo 8), pero actualmente es muy difícil conseguirlasen el mercado.
Cualquier placa base moderna soporta los procesadores de INTEL, pero no todas soportan el Pentium 233
MMX o el Pentium II 450. Otra cuestión muy diferente es el soporte de los procesadores de AMD o CYRIX,
especialmente en sus ultimas versiones (K6-2 de AMD, MII de Cyrix/IBM).
Otra cuestión muy diferente, pero a veces muy importante, es el soporte para futuros procesadores. Para ello
la placa debe cumplir además los siguientes requisitos:
Todas las placas base modernas para Pentium y Pentium II soportan los voltajes estándar requeridos por estos
procesadores. Sin embargo algunas placas más antiguas no soportan VOLTAJE DUAL, imprescindible para los
Pentium MMX, AMD K6 y K6-2 y Cyrix/IBM 6x86MX y MII. Para ver los voltajes necesarios para cada
procesador, visita la página de procesadores.
Un problema diferente son los futuros procesadores. Debido a que muchos de ellos están en fase de diseño, a
veces no se sabe con seguridad el voltaje al que funcionarán. Por ello, a ser posible, escoge una placa en la
que puedas establecer el voltaje en fracciones de 0,1 voltio.
En cuanto a los procesadores Pentoim II y CELERON, el voltaje es detectado automáticamente, aunque algunos
fabricantes como ABIT permiten modificar el voltaje para facilitar el overclocking y el quemado del procesador
si no actuamos con sensatez.
OVERCLOCKING
Para los amantes del overclocking, lo mejor es visitar los enlaces a pruebas de placas base que piuedes
encontrar al final de esta página, o visitarla página dedicada al OVERCLOCKING.
Con el bloqueo de multiplicador en los últimos Pentium y en los Pentium II y CELERON, y el aprovechamiento
que hace AMD de sus procesadores K6 y K6-2, la única opción actualmente para hacer overclocking pasa por
el aumento de la velocidad del bus.
Para las placas con Zócalo 7, además de las velocidades oficiales de 50, 55, 60 y 66MHz, algunos fabricantes
ofrecían la opción de 75MHz, e incluso la de 83MHz, incluso con los chipsets VX, HX y TX de INTEL, con lo que
el forzado no sólo afectaba al procesador, sino también a la placa base., con lo que las posibilidades de éxito
eran escasas. Entonces aparecieron ALI, SIS y VIA, y algo se mejoró.
Las placas con Zócalo Super 7, además de las velocidades oficiales de 66, 75, 83 y 100MHz, y alguna extraña
como 95MHz (necesaria para algunos modelos del K6-2 como el 333MHz o el 380MHz), la mayoría de los
fabricantes ofrecen velocidades de bus de 103, 112, 124, 133 y hasta 140MHz (la IWILL XA-100 Plus), con lo
que podremos hacer overclocking hasta derretir el procesador, aunque el éxito del overclocking suele venir
Las placas con Slot 1 permiten velocidades oficiales de 66 y 100MHz, y la mayorái de los fabricantes añaden a
las anteriores 75, 83, 103, 112, 124 y 133MHz, tanto para pentium II como para CELERON (que parece ser el
rey del overclocking con bus de 100MHz). Sin embargo, hay placas base que detectan automáticamente la
velocidad del bus del procesador (como las fabricadas por INTEL), por lo que no podremos hacer overclocking
hasta estos límites, y es un detalle a tener en cuenta a la hora de ver las pruebas comparativas de las placas
base. Sin embargo, existe un método para anular esta detección, y podréis averiguar cómo hacerlo si os dirigís
a la página del OVERCLOCKING y visitáis el enlace correspondiente.
Las placas Pentium II, salvo raras excepciones, detectan automáticamente el voltaje del procesador isertado,
pero algunos fabricantes como ABIT permite modificar este voltaje, con lo que es más fácil que el overclocking
tenga éxito, aunque también lo es quemar el procesador.
las placas con Slot 1 presentan los mismos problemas que las Super 7 con algunos componentes, que no
llevan nada bien el aumento del bus.
Pero el sueño de los amantes del overclocking es poder seleccionar el multiplicador y la velocidad del bus del
procesador sin tener que abrir la caja continuamente y mover diminutos y a veces difícilmente accesibles
JUMPERS o DIP SWITCHES (interruptor ON/OFF). Cada vez es mayor el número de placas base que permiten
configurar estos valores desde un apartado de la BIOS, lo que permite hacer mil y una pruebas hasta dar con
la configuración óptima para hacer overclocking manteniendo la estabilidad. Busca estas placas si te gusta el
riesgo.
Los SLOTS pueden ser de tipo ISA/16 bits o de tipo PCI/32 bits. Además en las placas modernas para Pentium II
y en las placas Super 7, encontrarás un nuevo SLOT, mejor llamado PUERTO.
Las ranuras ISA son necesarias para modems internos, tarjetas de sonido, tarjetas SCSI suministradas con el
scanner, tarjetas de red, tarjetas capturadoras de vídeo, tarjetas de radio y TV, etc. Existen modems externos
conectables al puerto serien y empiezan a popularizarse con bus PCI y USB, escáneres conectables al puerto
paralelo (más lento), al puerto USB, o los puedes conectar a una tarjeta PCI-SCSI, tarjetas de red para bus PCI e
incluso tarjetas de sonido 3D para bus PCI, pero cuantas más ranuras, mejor y podrás despejar tu mesa de
trabajo.
Las ranuras PCI son necesarias para las tarjetas gráficas, tarjetas controladoras SCSI, tarjetas de red, etc. De
nuevo, cuantas más, mejor.
En cuanto a ranuras AGP, solamente encontrarás 1 para la tarjeta gráfica (que es la única que lo utiliza).
Hablando del número total de ranuras, la combinación 1AGP/4PCI/3ISA es la más habitual, pero debido al
aumento de periféricos para bus PCI (modems, tarjetas de sonido, ertc.) empieza a ser normal 1AGP/5PCI/2ISA.
Recuerda sin embargo, que solamente se puden utilizar un máximo de 6 conectores, compartiendo la ranura
AGP con la ranura PCI 1, y una ISA con la última PCI.
En las placas base más modernas encontrarás ranuras para módulos DIMM de 168 contactos (Chipset VX, TX,
LX y BX de Intel, los chipsets VPx de VIA y los ALADDIN de ALI), que son los únicos en los que puedes instalar
Algunas placas para Pentium no soportan memoria en encapsulado de 72 contactos y sólo soportan memoria
en encapsulado DIMM de 168 contactos, al igual que todas las nuevas placas para Pentium II con chipset LX y
BX. Si no vas a utilizar memoria EDO o FPM procedente de tu antiguo ordenador, escoge una de éstas, porque
no es aconsejable mezclar los dos encapsulados. Dispondrás así de más posibilidades de ampliación. De
nuevo, cuanto más, mejor.
Además, fíjate en los tipos de memoria soportados por la placa base (FPM, EDO, SDRAM, DDR SDRAM, tec.) y
si la placa base soporta memoria ECC (con corrección de errores), de especial importancia en Servidores.
Por último, el enganche de las memorias debe ser de calidad. En la memoria de 72 contactos, los enganches
deben ser metálicos, pues los de plásticos pueden romperse con facilidad, y en la memoria de 168 contactos,
el enganche debe ser lo suficientemente largo para abrazar todo el módulo, y así o se nos caerán los módulos
de memoria al transportar el equipo y siempre tendremos la seguridad de que los errores VXD se deben a un
módulo defectuoso y no a un falso contacto.
LA CACHE
Casi todas las placas actuales incorporan en placa base 512 KB de caché de segundo nivel, aunque en equipos
algo más antiguos, y en ordenadores portátiles, la cantidad puede ser de 256KB o incluso puede que no esté
presente. No aceptes menos de 512 KB. Las nuevas placas Super 7 con chipsets de VIA y ALI pueden soportar
hasta 2MB de caché, mientras que las placas para Pentium II no llevan ninguna, pues la caché de segundo
nivel va en el propio encapsulado del procesador. Como regla general, cuanta mayor cantidad de caché de
nivel 2, mejor..
Otro aspecto que puede afectar al rendimiento es la cantidad de memoria caché TAG. El chipset Intel TX sólo
puede hacer caché de 64 MB de memoria RAM, y muchas otras placas con otros chipsets tampoco lo hacen
debido a la escasez de memoria caché TAG. Si tu vas a instalar ahora o en un futuro más de 64 MB de RAM,
descarta el chipset Intel TX y aclara con el vendedor este punto.
Las placas base modernas incorporan la controladora de disketeras, la controladora IDE PCI (con dos canales
para dos dispositivos cada uno - hasta 4 unidades en total entre discos duros, CD-Roms, algunas unidades de
backup, etc.), las controladoras de los puertos série (COM1, COM2) y paralelo (LPT1)y la controladora de
teclado. La mayoría de las placas más modernas incorporan también conectores para uno o dos puertos USB
(para conectar todo tipo de dispositivos externos - monitor, teclado, ratón, escáner, modem, etc.), aunque
aún son escasos los dispositivos conectables a este puerto, y conector para puerto de infrarrojos (para
comunicar el equipo de sobremesa con uno portátil). Las modernas placas ATX incorporan conectores de tipo
PS/2 para el ratón y el teclado. Estos últimos conectores son valores añadidos que no deben despreciarse.
Además, podemos encontrar en el mercado placas base que integran la tarjeta gráfica, la tarjeta de sonido e
incluso una controladora SCSI o la tarjeta de red. También son valores añadidos, pero aumentan el coste de la
placa, y en caso de estropearse ésta el número de componentes inutilizados es mayor y el coste de la
reposición mayor. Además, la calidad de las tarjetas gráfcas y de sonido integradas en la placa base no suele
ser de una calidad-prestaciones muy altas, para ajustar costes, por lo que este tipo de placas todo-en-uno son
más adecuadas para equipos de oficina. Mi consejo es: compra estos dispositivos por separado, al final
ahorrarás dinero y podrás utilizarlos cuando actualices el equipo.
La mayoría de las placas actuales, incluyen nuevos componentes integrados que son de gran utilidad, como
los siguientes:
* Chips para la monitorización de la temperatura de la placa base, del procesador e incluso del
interior del equipo, espcialmente interesantes para poder hacer overclocking sin freir el
procesador, o para detectar possibles anomalías antes de que lleguen a ser un desastre.
* Chips para la monitorización del buen funcionamiento del ventilador-disipador del procesador,
de la fuente de alimentación e incluso de ventiladores adicionales, lo que nos puede evitar un
recalentameinto del procesador, que puede llegar a dañar a este e incluso a otrso componentes.
* BIOS que permiten encender el equipo o despertarlo del modo de ahorro de energía mediante
diversos componentes: modem, red, teclado, ratón, temporizador, etc.)
* Conector SBLINK: permite que las tarjetas de sonido PCI funcionen en modo MS-DOS emulando
el estándar ISA de SoundBlaster.
Estos dispositivos nos permiten un mayor control sobre nuestros periféricos y garantizan el buen
funcionamiento de nuestro equipo así como su duración.
Aportaciones
Hay casos más sencillos, tal como la placa ISA de las Zip 100 MB SCSI, que no tiene chapa y es pequeña.
En todo caso, si uno tiene muchas placas ISA/PCI que meter, probablemente pueda emparejar una ISA
(preferentemente con componentes de montaje superficial) con una PCI. Hay que currárselo, pero no hay
ningún impedimento eléctrico (hay que salvar los mecánicos).
• Instalación y conexión.
La placa base es la columna vertebral del PC, donde se conectan la práctica totalidad de sus componentes:
microprocesador, memoria, tarjetas de expansión... Por ello, instalar una placa base es el paso más importante
(y uno de los más complejos) a la hora de montar un ordenador.
Por supuesto, instalar una placa base es una operación delicada en la que se ponen en juego múltiples
conocimientos; por ello, la información es algo compleja, pero es que es para entendidos... o al menos
enteradillos.
Si se empeña en ahorrarse unos miles de pesetas de mano de obra o está decidido a aprender bricolaje
informático sea como sea, allá usted... y allá vamos!!!
Si es una actualización.
Vamos a considerar los pasos previos que debe seguir si lo que pretende es cambiar una placa base por
otra. Ante todo, y como se explica en Fundamentos de la actualización de ordenadores:
• busque un sitio despejado (una mesa grande servirá) donde pueda extender todo lo que necesite y
tenerlo al alcance de la mano. Las diversas operaciones llevarán una hora, y eso si todo va bien, así
que téngalo en cuenta;
• desconecte toda alimentación eléctrica, así como el monitor y demás periféricos externos;
• descárguese de electricidad estática antes de empezar (no trabaje sobre una moqueta);
• compruebe que tiene toda la información necesaria de su ordenador: memoria, disco duro, etc. Si va a
cambiar una placa por otra, apunte todos los datos de la BIOS... por si acaso.
1.- Verifique el formato de la caja actual de su ordenador. Hoy en día la práctica totalidad de las placas
base son de formato ATX, mientras que la mayoría de las placas base "clásicas" (para Pentium MMX o
anteriores) usan el formato "Baby-AT". A continuación se presentan esquemas básicos de ambos formatos:
Gráfico superior: esquema de una placa Baby-AT típica; las posiciones del conector del teclado (del tipo DIN
de 5 pines ancho) y de las ranuras de expansión son fijas, no así las del micro, la memoria y los conectores
para discos, que pueden variar según el caso concreto. En las placas más modernas existirá ranura AGP.
Si se trata de un ordenador de marca, muy probablemente la caja ni siquiera sea estándar, sobre todo si es un
486 o inferior; si es un clónico, tendrá más posibilidades. En caso de duda, o si su caja es Baby-AT, compre
una caja nueva sin dudarlo (no le costará más de 10.000 pts, y eso para las de mayor calidad y prestaciones).
Para saber algo más sobre los formatos de las placas base, vaya al apartado correspondiente en ¿Qué es... la
placa base?
2.- Seguidamente, abra la caja antigua y desconecte todas las tarjetas de expansión (tarjeta de vídeo y de
sonido, por ejemplo). Para ello, saque el tornillo que las une a la caja en su extremo y tire con cuidado hacia
fuera; procure no doblar ningún condensador sobre dichas tarjetas. Sáquelas tirando de sus bordes y de la
placa de metal del extremo, o bien sujetándolas en zonas libres de componentes electrónicos.
3.- Desconecte y/o desmonte todo lo que le impida el acceso a la placa, además de los conectores que
vayan a la misma, como el de alimentación. Apunte dónde estaba conectada cada cosa y de qué forma, y
ordene todo lo que va sacando (típicamente algunos cables y quizá el disco duro o el CD-ROM).
Seguidamente, suelte los separadores de plástico que en algunas cajas completan el amarre de la placa al
panel. Si se resisten, pruebe a usar unas pinzas o a cortarlos con mucho cuidado (en cuyo caso necesitará más
para la nueva placa).
La parte mecánica
Veamos ahora la parte física de la instalación de la placa base:
1.- Tras seguir los consejos explicados en Fundamentos de la actualización referentes a la electricidad, luz, etc.,
observe si la caja permite separar el panel sobre el que debe atornillarse la placa base; si es así, sáquelo. Hecho
esto (o también si no se puede separar), instale varios tornillos de anclaje en el panel de la caja; bastará
con tres o cuatro de estos tornillos (generalmente de perfil hexagonal). Hágalos coincidir con los agujeros de
la placa base, claro... y asegúrelos con cierta fuerza, empleando una llave inglesa o alicates si es preciso.
2.- Instale en la caja la chapa que protege los conectores externos de la placa base. Normalmente la caja
y/o la placa base incluirán varias, para diversos diseños de conectores: con o sin vídeo integrado, con o sin
sonido integrado, etc. En muchos casos estarán pre-perforadas algunas zonas de chapa que deberá retirar
para alojar los conectores.
4.- Configure todos los jumpers e interruptores DIP: los que afectan al micro (velocidad, multiplicador,
modelo...) y cualesquiera otros que deba configurar según el manual de la placa. Afortunadamente, en la
actualidad muchísimas placas son jumperless (es decir, que autoconfiguran el micro sin jumpers, e incluso sin
intervención del usuario), pero lea atentamente el manual por si acaso.
5.- Seguidamente, atornille la placa base al panel de la caja (normalmente empleando tornillos con cabeza
"de estrella" o "Philips"). Si dispone de ellos, procure instalar los separadores de plástico, además de emplear
arandelas de cartón o plástico como aislamiento y protección en los tres o cuatro tornillos de anclaje.
No se pase al apretar estos tornillos, el material de la placa es mucho más frágil de lo que parece. Se trata
sólo de que la placa no se suelte ni vibre, no de atravesarla...
6.- Conecte todos los cables y las tarjetas de expansión. Preste especial atención al conector de
alimentación: en las antiguas placas Baby-AT está dividido en dos piezas, de manera que los cables negros
deben quedar enfrentados en el centro; en las modernas placas ATX la posición del conector, único, viene
dada por la forma de sus contactos.
Alinee la franja roja de los cables de disquete y disco duro con el pin número 1 del correspondiente
conector, cuya posición vendrá indicada por un pequeño "1" y/o una flecha serigrafiados en la placa base;
haga todo esto con el manual de la placa a la vista y siguiendo sus indicaciones al pie de la letra.
7.- Sin cerrar la caja, compruebe todo de nuevo, conecte la alimentación y el monitor, rece si es creyente
(disculpas por la irreverencia, pero toda ayuda es poca en este punto) y encienda el ordenador.
Preste atención a posibles pitidos extraños (seguidos, a saltos...), así como a la luz del disco duro y la
disquetera y a la pantalla del monitor, a ver si salen los típicos mensajes de la BIOS o bien permanece negra;
observe además si gira el ventilador del micro.
8.- Si todo fue bien a la primera (permítanme que lo dude respetuosamente, la Ley de Murphy es la reina de
estos temas), cierre la caja y lea el apartado siguiente dedicado a los ajustes de la BIOS y demás. Si algo falló,
vaya a la sección de Problemas. Si incluso llegó a arrancar su sistema operativo sin fallos aparentes, no se fíe;
siga leyendo por si acaso...
Antes de nada, una advertencia: los posibles ajustes en la BIOS son muchos (varias decenas) y muy complejos,
así que no espere que todo se encuentre en estas líneas. Para más datos, aparte del manual de la placa base
(la fuente de información más importante y decisiva), vaya a ¿Qué es... la BIOS?, o al sitio web del fabricante
de la placa (para información muy técnica), o incluso consígase un par de manuales de placas base de amigos
suyos para comparar.
Si se trata de una actualización, podrá utilizar algunos datos de su antigua BIOS, pero ni mucho menos todos.
En cualquier caso, los pasos a seguir son los siguientes:
1.- Entre en la BIOS, quizá con la tecla "Supr" ("Del") o de otra forma (éste es uno de los apartados en los que
no le puedo ayudar... lea el manual de la placa o las indicaciones en pantalla).
2.- Ajuste primero los parámetros básicos (hora, disco duro, disquetera...). A continuación viene un
pantallazo de ejemplo, pero puede que no se parezca nada a su BIOS... suerte. Mire además si el recuento de
memoria es el correcto y si coincide con el test que se hace al arrancar el ordenador; no se preocupe por que
ponga algo menos, como 23.936 Kb en vez de 24.576 Kb (24 MB, 24 "megas"). Sin embargo, en ambos casos
debe estar cerca de la cifra real, ¡nada de 16 MB cuando ha instalado 32!!
Necesitará saber la velocidad y fiabilidad de su memoria RAM (si soporta 100 ó 133 MHz o los que sean, si
puede soportar CAS=2 o sólo CAS=3...), algo sobre controladoras, si su impresora, escáner o Zip prefieren
EPP, ECP o SPP para el puerto paralelo... un poco complicado, ¿verdad? De todas formas, para muchas
opciones podrá seleccionar el modo automático y se ahorrará trabajo.
5.- Por último, configure las opciones de ahorro de energía, ponga una clave de seguridad (una password) al
sistema si lo desea o compruebe la configuración de su disco duro con la auto detección (cuidado con esa
opción, al usarla a veces "machaca" lo que habíamos puesto antes a mano).
6.- Verifique todo de nuevo, grabe los cambios y salga de la BIOS. Reinicie el ordenador (probablemente lo
haga él automáticamente) y observe por más posibles errores. Si todo ha ido bien, arrancará el sistema
operativo de su disco duro y tendrá un ordenador nuevo; ¡¡felicidades!! Si no, siga leyendo para encontrar
solución a algunos problemas comunes.
• Resolución de problemas.
Errare humanum est... y a veces ni siquiera es culpa del humano implicado. Aquí va una batería de posibles
problemas, que desgraciadamente no puede contemplar todos los posibles:
La caja no sirve!!
O el conector de teclado no encaja en su sitio, o los tornillos de anclaje no están donde deben... Pues vale,
pero esto no es un problema; es algo previsible e inevitable si el ordenador es de marca o de diseño. ¡Compre
otra caja, o haga los agujeros necesarios!! (lo de los agujeros es broma, no sea bestia).
El ordenador pita!!
Houston, parece que tenemos un problema... de memoria probablemente. Ante todo, observe la pantalla. Si
está negra, vaya al apartado anterior; si no:
− Lea los mensajes de la pantalla. Si le indican problemas de conexiones (falta de teclado, disco, etc),
revíselas, siempre con el ordenador apagado.
− Si no le dice nada, mire el recuento de memoria (el del test y el de la BIOS, si es que puede llegar a
ella). Reinicie si le hace falta.
− Si la cantidad de memoria es mucho menor de la instalada (si faltan 2 MB o más), tenemos un
problema de memoria. Si es así, lea más abajo sobre fallos de memoria.
− Puede ser una incompatibilidad con algo (memoria, micro, tarjetas de expansión...). Desconecte las
tarjetas innecesarias y pruebe de nuevo. Pruebe con otras memorias o micros.
− Déjelo. Llévelo a una tienda especializada.
Fallos de memoria!!
Pues nada, déle de comer unos rabitos de pasa y... digo, no; mejor:
Competencias Analítica
Identificará el alumno como los medios de información como el Internet, periódico, boletines , revistas entre
otros nos permiten realizar un mercadeo para establecer el costo competitivo de un producto en el mercado,
esto con la finalidad de que se tomen decisiones oportunas en las empresas.
La placa base es la columna vertebral del PC, donde se conectan la práctica totalidad de sus componentes:
microprocesador, memoria, tarjetas de expansión... Por ello, instalar una placa base es el paso más
importante (y uno de los más complejos) a la hora de montar un ordenador.
Además, el elemento que más pronto se queda anticuado en los PCs es el microprocesador. En un mundo
ideal, cuando esto pasara bastaría con quitarlo y poner uno más potente; sin embargo, en la vida real raras
veces podemos hacerlo, debido a múltiples causas: cambios de voltaje, incompatibilidades de zócalo, BIOS
incompatibles... En tales casos, no nos queda más remedio que cambiar toda la placa base.
Competencias de Información
Buscar fuentes de información bibliográfica, hemerográfica, Internet y videotecas que amplíe el acervo de
conocimientos.
El alumno:
− Consultará material técnico en revistas especializadas de tipos y marcas de tarjetas madre que se dan
en el mercado.
http://www.mundopc.net/hardware/
http://www.pchardware.org/actualiz.php
http://www.coloredhome.com/bricolaje_pc.htm
http://www.servicioalpc.com/soluciones.htm
http://www.conozcasuhardware.com/actualiz/index.htm
http://www.mailxmail.com/curso/informatica/armadopc
http://www.computacion-aplicada.com/registro/formulario.php
http://www.linkses.com/articulos/articulo.asp?id=95
http://www.galiciacity.com/hardware.html
http://www.wikilearning.com/introduccion-wkccp-5094-1.htm
http://www.pasarlascanutas.com/montaje_de_un_pc/montaje_de_un_pc0008.htm
http://www.abcdatos.com/tutoriales/hardware/genericos.html
Por lo general, cada modelo específico de tarjeta adaptadora de red compatible con Windows NT tiene
asociado un controlador de tarjeta adaptadora de red. Este controlador puede ser uno de los que se incluyen
con Windows NT o bien puede estar suministrado por el fabricante. Por lo tanto, más que elegir un
controlador de tarjeta adaptadora de red se trata de elegir una tarjeta de red.
En las tarjetas adaptadoras de red, la velocidad depende principalmente del ancho del bus y de la memoria
que incorpore la tarjeta. El ancho del bus de una tarjeta de red es el número de contactos que se utilizan para
conectar la tarjeta al bus de la computadora. Se obtendrá mayor rendimiento cuanto más se aproxime el
ancho del bus de la tarjeta al ancho del bus interno de la computadora. La memoria incorporada en la propia
tarjeta permite a ésta almacenar temporalmente las tramas que entran y salen por la red. Sin embargo, no
siempre una tarjeta con más memoria constituye la opción óptima, ya que a partir de un cierto punto, las
ventajas asociadas a la mayor cantidad de memoria disminuyen y es la velocidad máxima de otros
componentes de la red lo que limita el rendimiento, impidiendo mejoras adicionales.
Algunas tarjetas incorporan también procesadores integrados (estas tarjetas suelen conocerse como tarjetas
inteligentes). Sin embargo, con Windows NT las tarjetas inteligentes apenas representan una ventaja, ya que
es Windows NT, con sus controladores, quien realiza la mayor parte del trabajo de procesamiento relacionado
con la red.
Al considerar el costo de las tarjetas de red, reserve una parte de la inversión para adquirir tarjetas de reserva
con las que reemplazar a las que fallen. Asegúrese también de que el presupuesto asignado al hardware de la
red contemple el cableado, los concentradores, repetidores, encaminadores y otros dispositivos, además de las
tarjetas, así como el costo de la mano de obra necesaria para instalarlas.
Antes de invertir en un determinado tipo de tarjeta de red, asegúrese de que exista un controlador conforme
al estándar NDIS para dicha tarjeta. Además, cerciórese de que el fabricante dispone de infraestructura
suficiente para atender las necesidades de su empresa.
Si está tratando con un distribuidor, asegúrese de que éste posea una vía de comunicación adecuada con el
fabricante de la tarjeta.
Con Windows NT, una vez instalada una tarjeta de red en una computadora, la instalación del controlador
correspondiente resultará muy sencilla. Basta con utilizar el programa de instalación o la opción Red del Panel
de control y elegir el nombre de la tarjeta adaptadora de red entre las que aparecen en la lista. El controlador
de tarjeta de red se enlazará automáticamente a todos los protocolos NDIS que se estén ejecutando en ese
momento en la computadora; si posteriormente se agregan otros protocolos, también quedarán enlazados de
forma automática al controlador de la tarjeta de red.
Elección de un protocolo
Microsoft ofrece cuatro protocolos para utilizar con Windows NT: TCP/IP, NWLink, NetBEUI y DLC (Control de
vínculo de datos). Debe elegir el modo en que se utilizará uno o varios de estos protocolos en su red.
TCP/IP son las siglas en inglés de Protocolo de control de transmisión/Protocolo Internet. Fue desarrollado a
finales de los años 70, como resultado de un proyecto de investigación sobre interconexión de redes realizado
por la Agencia de proyectos de investigación avanzada para la defensa (DARPA) de Estados Unidos. La
principal ventaja y utilidad de TCP/IP es que es un protocolo estándar y reencaminable; se trata del protocolo
más completo y aceptado de todos los existentes. Permite comunicarse a través de redes interconectadas con
distintos sistemas operativos y arquitecturas de hardware, como UNIX o computadoras principales, así como
con Windows NT.
TCP/IP ofrece la interfaz de Windows Sockets 1.1, un marco multiplataforma cliente-servidor que resulta
idóneo para desarrollar aplicaciones cliente-servidor que puedan funcionar con pilas de otros fabricantes que
se ajusten a Windows Sockets. Las aplicaciones Windows Sockets pueden aprovechar otros protocolos de red,
como Microsoft NWLink.
Petición para comentarios (RFC) de NetBIOS. Además, Microsoft proporciona diversas utilidades TCP/IP para su
uso con TCP/IP en Windows NT.
Las tarjetas de red son unos componentes muy baratos y que podemos adquirir en cualquier tienda de
informática, de modo que no debemos alarmarnos por los costes a la hora de aventurarnos a montar nuestra
red en casa.
Esto depende un poco del tipo de red que queramos montar, pero la opción más acertada para una red
doméstica será la de montar tarjetas de red de 10Mbps (Mega bytes por segundo). Esta velocidad está muy
bien para la mayoría de las opciones que tenemos al montar una red, además de ser en principio la más
económica. Pero si lo que queremos es una red donde la velocidad sea lo primero, entonces debemos
decantarnos por una red de 100Mbps. Este tipo de redes está más indicada a la compartición de ficheros,
sobre todo de gran tamaño para minimizar las esperas mientras se traspasan datos de un PC a otro. Esta
opción es algo más cara.
Con respecto al tipo de tarjeta de red, hoy día lo más conveniente es instalar tarjetas del tipo PCI, aunque
será necesaria la instalación de tarjetas tipo ISA en aquellos equipos antiguos que no tengan Slots o Puertos
PCI.
¿Como saber si tenemos slots o puertos PCI? tan solo debemos abrir la carcasa de nuestro PC y echar un
vistazo a su placa base. A continuación vemos un ejemplo de ambos puertos.
• Instalación.
En primer lugar verifico la existencia de una tarjeta de red en cada equipo, en el caso de que no la tuviera se le
deberá instalar una en forma manual de la siguiente manera: como primera mediada apagar el equipo y
desconectarlo de la alimentación eléctrica, luego desmonto las carcazas laterales para colocar
convenientemente la tarjeta de red en el slot correspondiente, una vez colcada la misma en la placa madre, la
aseguro al chasis de la maquina por medio de un tornillo de sujeción, para concluir, después de haber cerrado
convenientemente la CPU procedo a instalar los drivers del dispositivo en cuestión.
Voy a usar tarjetas de red PCI SiS 900 Fast Ethernet que son muy conocidas, económicas y de probada eficacia.
Seguido a esto debo configurar cada equipo para que pueda ingresar a la red, para lo cual sigo los siguientes
pasos
Botón de Inicio Configuracion Panel de ControlRed dentro del cuadro dialogo de Red selecciono la solapa de
Identificación, la que relleno con el nombre del equipo(Maquina 1), Grupo de Trabajo (Cyber-Telefónica) y
Descripción Breve (750 Mhz), luego de esto voy a la solapa de Configuración y selecciono el protocolo
utilizado, al cual le cambio las propiedades correspondientes a Configuración WINS, seleccionando la opción
Desactivar Resolución WINS, y en la solapa correspondiente a Dirección IP selecciono la opción Obtener una
Dicción IP automáticamente, las demás opciones quedan sin variación; para finalizar presiono el botón
Aceptar.(en los equipos que tenga Impresora y Scanner debo además agregar el servicio de Compartir
Archivos e Impresoras para redes Microsoft, donde debo chequear las casillas correspondientes).
Para que el equipo reconozca los cambios introducidos debo reiniciarlo.
Configuración de la red
Una vez concluida la conexión del cableado y ademas cada máquina está en el lugar que le corresponde,
debidamente conectada al tendido de red y al tendido eléctrico, procedemos de la siguiente manera como
primer paso encendemos la maquina servidora (Host) y una a una las maquinas de la red, de esta manera
iniciado el sistema operativo, configuro cada cliente para que pueda ingresar a la red y también la maquina
servidora de Internet, para que pueda compartir el servicio con los demás equipos de la red.
Comenzamos la instalación con un Switch 10/100 modelo TE100-S88E de la Marca Trendware USA, el cual es
un Switch compacto de ocho puertos 10/100 Mbps Fast Ethernet y con un ancho de banda de hasta 200
Mbps en cada puerto, es muy practico para grupos de trabajos pequeños ya que cabe en cualquier espacio,
además cuenta con una conexión Uplink para conectar otro dispositivo similar en caso de expansión de la red.
La red estará formada en un principio por cinco equipos PC genéricos de 750 Mhz o similares, puesto que el
manejo de multimedia requiere una buena velocidad de procesamiento y además una capacidad de Ram
considerable, 64 o 128kb preferiblemente para lograr un buen desempeño de la red, también un disco duro
de 5 Gb o superior para cada estación de trabajo y un disco de mayor tamaño para la estación servidora,
también contamos con una impresora y un escáner.
Al encender el equipo para ingresar a la red me pide que ingrese el nombre de usuario (Maquina 1) y la
contraseña para poder acceder a la red local, si aceptamos vamos a poder tener acceso a los otros equipos y
servicios de la red, lo que no ocurre si no nos validamos como usuario de la misma.
...
...
... detalle por detrás, con el
foto de la tarjeta de red
Foto del embalaje de la foto de detalle de la conector hembra RJ45 de
local PCI, disquete con
tarjeta de red que vamos tarjeta de red ( cada vez 8 vías y dos led's (verde:
drivers y folleto ( declara
a montar ... son más pequeñas, poco enlace, fijo; naranja:
cumplir con 10BASE-T y
más que el conector) ... actividad, parpadeante)
100BASE-TX ) ...
...
Conectar 2 PC en red
• Configuración.
Con este pequeño manual se pretende enseñar cómo configurar una tarjeta de red fácilmente paso a paso,
para conectar un ordenador a una red local, con el objeto de compartir carpetas, impresoras, y una conexión a
Internet (para ello, ver el resto de secciones de este tutorial).
(van dentro del ordenador, en una ranura PCI o ISA (más antigua)
-Si la tarjeta es PnP (Plug And Play), Windows detecta automáticamente la tarjeta y aparece:
Si el nombre y modelo de la tarjeta de red que ha detectado Windows coincide con la que tenemos, pulsamos
"siguiente":
Elegimos la primera opción ("buscar el ...") y pulsamos siguiente.
En este punto, quizá necesitemos insertar el disquete o CD incluido con la tarjeta de red, y elegir la carpeta
adecuada del mismo.
En ocasiones, debemos usar la siguiente pantalla, donde elegiremos el lugar donde hemos insertado el cd o
disquete de controladores de la tarjeta de red:
El ordenador habrá instalado el protocolo TCP/IP, necesario para conectar la red a internet.
También se pueden usar otros protocolos como NetBeui e IPX:
NetBeui (de Microsoft) sirve para muchas de las tareas de red, excepto la conexión a Internet, aunque es más
simple de configurar que TCP/IP.
IPX es un protocolo de Novell, que está en desuso actualmente; por ejemplo, era el utilizado en los primeros
juegos multijugador para red local (Quake I y Duke
Para instalar estos protocolos, usaremos el método explicado al final de esta página, pero en la mayoría de los
casos, no será necesario, ya que TCP/IP nos permitirá realizar las tareas de red más interesantes.
Si deseamos que nuestro ordenador pueda compartir sus carpetas e impresoras con los demás equipos de la
red local, lo activaremos mediante el botón "Compartir carchivos e impresoras":
Volviendo a la primera ficha (Configuración), haciendo doble clic sobre TCP/IP, teclearemos la dirección IP que
queremos asignar al ordenador.
Al hacer doble clic sobre uno, veremos las carpetas e impresoras compartidas que contiene:
"Netbeui" está en la sección "Microsoft"; quizá te pida el cd-rom de Windows, y cuando termine el proceso,
tendrás el nuevo protocolo instalado:
La actual configuración de UNICAN-i está planteada para asegurar la compatibilidad con todo tipo de
dispositivos de tarjeta de red y sistemas operativos.
Cualquier tarjeta inalámbrica sirve para acceder a UNICAN-i, sin embargo se han encontrado problemas
de compatibilidad con tarjetas 3com (modelos 11a/b/g o 11g), por un aparente incumplimiento de
estándares.
Disponer de una tarjeta de red inalámbrica compatible con la norma 802.11b de 11 Mbits.
Windows XP tiene drivers para la mayoría de tarjetas inalámbricas, por lo que basta con conectarla al equipo
para que funcione. Si no, saldrán las habituales pantallas de configuración de dispositivos, y habrá que seguir
el procedimiento que indique el manual de la tarjeta.
Configurar la tarjeta en el sistema operativo correspondiente. La tarjeta deberá tener sus parámetros
de red en automático, sin asignar direcciones IP o DNS.
Configurar la tarjeta de red para que se una a la red ALUMNOS-i. Habrá que configurar el parámetro
SSID o nombre de red como ALUMNOS-i. Se debe desactivar el cifrado WEP, autentificación 802.11x,
etc.
Para ello se pulsa botón derecho sobre este icono , y se elige la opción "ver redes inalámbricas disponibles".
Pulsamos el botón de Opciones Avanzadas.
• Resolución de problemas..
Así que por fin ha conseguido una conexión a Internet de alta velocidad y ya puede dejar que el MODEM se
cubra de polvo en alguna esquina. Pero tiene más de un ordenador, así que, ¿qué puede hacer para unirlo
todo y usar una única conexión a Internet?
Sharon Crawford, columnista en Expert Zone, hace una fantastica descripción de cómo se utiliza Internet
Connection Sharing en un artículo suyo, Internet Connection Sharing (en inglés). Yo me encargaré de
explicarles cómo agregar un router a su red.
Los routers, que a veces también se llama conmutador, son una forma de aislar y conectar una parte de la red
con otra. En el entorno doméstico, ofrecen un medio para separar la red doméstica de Internet y al mismo
tiempo ofrecer un punto de conexión. Para su proveedor de DSL o conexión por cable la red interna aparece
como un único dispositivo, así que a lo mejor necesita pagar más si conecta otros equipos. En la Imagen I se
muestra el diseño que tendría una red que tuviese un router instalado y estuviese formada por dos equipos.
Los Routers tienen un precio bastante económico, por lo general inferior a 100 los más básicos que incluyen
un hub de cuatro puertos e incluso un punto de acceso inalámbrico. Ofrecen una capa de aislamiento y
protección de Internet mientras que simplifican la configuración de la red doméstica. En el proceso que se
explica a continuación se expone cómo se realiza la configuración de un router en casa. En las instrucciones se
dan por sentado algunas cuestiones. En primer lugar, que todos los ordenadores tienen una tarjeta de red
configuradas para obtener de forma automática una dirección IP que es la configuración por defecto.
Cómo configurar una red doméstica con un router
− Enchufe su cable o el MODEM DSL y conéctelo al cableado o a la línea telefónica con DSL. Si la
empresa del cable o el proveedor de DSL no le hace la instalación, le dará instrucciones específicas
sobre cómo hacerlo.
− Conecte el MODEM cable/DSL al puerto de la red WAN de su router con el cable que le hayan dado. Si
no le han dado ninguno, puede utilizar un cable estándar CAT5 .
− Conecte el router y espere a que todas las luces de diagnóstico dejen de pestañear.
− Conecte los ordenadores al puerto LAN del router utilizando los cables estándar de interconexión de
red CAT5.
Si quiere más información sobre la conexión inalámbrica eche un vistazo al artículo Cómo utilizar un portátil
inalámbrico en la oficina y en casa (en inglés), que trata sobre cómo conectar su portátil de trabajo a su red
doméstica—los procesos son iguales. Si quiere información detallada sobre la solución de problemas con ICS,
consulte La solución de problemas de ICS ( Internet Connection Sharing on Microsoft Windows XP.
Otro problema que aparece comúnmente es que la tarjeta de red no se conecte y tiene una dirección IP que
empiece por 169.254. Esto puede suceder con una tarjeta de red normal o una inalámbrica aunque es más
probable que pase con la inalámbrica. Si la dirección IP empieza con 169.254 eso indica que no ha recibido la
dirección IP desde un servidor DHCP (Dynamic Host Configuration Protocol ) por algunas razones,
seguramente debido a problemas de conexión. Si se trata de una conexión normal, puede empezar por
comprobar el estado de las luces en la parte de atrás de la tarjeta de red y ver que tienen el color adecuado.
Eche un vistazo a la documentación de la tarjeta de red para saber qué significan los colores. Si no están los
colores adecuados, puede deberse a 5 razones como mínimo:
Vamos a examinar esta última posibilidad. Siempre debería utilizar los cables de red CAT5, CAT5+ o bien
CAT6. Ni los cables de teléfono ni otros tipos de cable que sean parecidos. En segundo lugar, hay tanto cables
"paralelos" como "cruzados". Si te conectas a un hub o un conmutador necesitas un cable paralelo. Si estás
conectando directamente la tarjeta de red de un ordenador con la de otro necesita un cable cruzado. Si quiere
más información sobre cables consulte
¿Cómo puede establecer una conexión entre dos PC's?
Todo lo que tiene que hacer es conectar los dos equipos para crear una pequeña red, una configuración de
red sencilla como la que aparece en la Imagen 2 es todo lo que necesita.
Así que si quiere conectar los dos a Internet, tendrá que activar la ICS en uno de los equipos o conectarlos los
dos al router, en lugar de uno al otro, como se ha explicado
No se trata de una cuestión relacionada con las redes pero sigue siendo una de las preguntas más frecuentes
en los grupos de noticias de redes. Por desgracia, significa que el ordenador está infectado con el gusano
Blaster u otro tipo de gusano. Tiene que protegerse usted de otras infecciones y borrar el gusano. Lo que es
aún más importante, tiene que configurar el equipo para que haga una instalación automática de las
actualizaciones de seguridad. Le recomiendo que instale Windows XP Service Pack 2— ya que incluye una
Actualización de Windows mejorada, un servidor de seguridad de Windows más potente, una mejor
protección de red y le ayuda en la entrega de correos electrónico y búsquedas en Internet más seguras.
Por desgracia, este problema es más común de lo que nos gustaría. Si está acostumbrado a conectar sus
equipos utilizando Windows 95, Windows 98, o bien Windows Me, verá que las cosas son un poco más
diferentes con Windows XP
Aunque son varias las causas que pueden provocar problemas de búsqueda, por lo general solo hay una
forma de solucionarlo. Si sabe el nombre de la parte del equipo al que quiere conectar y sabe la dirección IP
del mismo, puede conectarlo a esa parte directamente sin ni siquiera tener que "ver" el ordenador en la red.
Por ejemplo, si quiere conectar desde el ordenador en la cocina a la carpeta de Mis Documentos en el equipo
de casa que utiliza para cosas de la oficina , todo lo que tiene que saber es la dirección IP de ese ordenador. Es
muy fácil de averiguar. En el equipo que tiene para la oficina:
Su dirección IP aparece en la lista. En este ejemplo, es 192.168.50.100, pero puede que la suya no tenga nada
que ver.
Ahora que ya tiene la dirección IP del ordenador al que se quiere conectar, puede volver al ordenador de la
cocina. Hay formas gráficas de hacer la conexión, pero seguramente la forma más sencilla es utilizar otro
símbolo de sistema. Si damos por sentado que ya está compartiendo la carpeta de Mis documentos del
ordenador de casa para la oficina como "CharlieDocs," lo conectará a una letra a una unidad asignada por
Windows siguiendo estas instrucciones:
Eso es, ahora la unidad Z está conectada al equipo de casa asignado a la oficina y así nunca me tendré que
volver a preocupar sobre si podré verlo en Windows Explorer o en mis sitios red. Por supuesto, su "share point"
probablemente no se llamará CharlieDocs, y su dirección IP será diferente a la mía, por lo que tendrá que
hacer los cambios en los comandos pertinentes.
PROBLEMAS FRECUENTES
Haga un clic con el botón derecho del Mouse sobre el icono Entorno de red y seleccione la opción
propiedades.
Se abre una ventana donde debe seleccionar el grupo al cual pertenece el componente que desea agregar,
generalmente se deben agregar protocolos o servicios, una vez seleccionado con un clic presione el botón
Agregar.
Para el caso de agregar un servicio, recuerde agregar aquellos que tengan relación con redes Microsoft, no
Netware. Haga clic en Aceptar y Reinicie el equipo.
Para el caso del protocolo TCP/IP además de agregarlo hay que configurarlo. Lo puede hacer al momento de
agregarlo o una vez reiniciado el equipo.
Si se considera un usuario medianamente experto tiene buenas posibilidades de instalar la tarjeta de red.
Este proceso es un poco complejo, y con algunas irregularidades que carecen de cierta lógica a la hora de
realizar dicho instalación: a veces la instalación no queda bien al primer intento, a veces se puede instalar
desde un respaldo de disco duro, a veces es necesario realizar algunos cambios a nivel de interrupciones u
otras cosas para hacer que la tarjeta funcione, etc. En el mejor de los casos teniendo a mano el driver de la
tarjeta y agregando componentes en las propiedades de la red se consigue la instalación.
Problemas Físicos
Enchufe el cable de red en un punto de red que este funcionando, si funciona el punto de red era que está
dañado y debe reportarlo.
Los problemas de red podrían deberse a que la tarjeta de red no este funcionando correctamente.
Habitualmente las tarjetas de red traen dos pequeñas luces, una que indica el Link y otra que indica el tráfico
(trafic). Cuando la tarjeta está funcionando la luz Link está encendida como muestra la imagen y la luz de
trafic parpadea dependiendo del tráfico que tiene la red en ese momento. Si estas luces están apagadas la
tarjeta puede estar suelta o quemada y por lo tanto la red no funciona
Competencias Analítica
Identificará el alumno como los medios de información como el Internet, periódico, boletines , revistas entre
otros nos permiten realizar un mercadeo para establecer el costo competitivo de un producto en el mercado,
esto con la finalidad de que se tomen decisiones oportunas en las empresas.
Promover habilidades cognitivas que les permitan utilizar hábitos y técnicas de estudio que potencialicen su
estilo de aprendizaje.
654
Tarjeta de red, tarjeta de circuitos integrados que se inserta en uno de los zócalos de expansión de la placa
base y cuya función es conectar el ordenador o computadora con la estructura física y lógica de la red
informática a la que pertenece. De esta manera, todos los ordenadores de la red podrán intercambiar
información conforme a los protocolos establecidos en la misma.
Existen distintos tipos de especificaciones de red, definidos según estándares del IEEE; para cada uno de ellos
se emplean distintos tipos de tarjetas y distintos modos de conexión entre ordenadores, lo que tiene
consecuencias en la velocidad de transmisión de la información que propician. Una de las tarjetas de red más
empleadas es la de tipo Ethernet, que en sus distintas variantes, puede permitir transmisiones desde algunos
miles de bits por segundo hasta un gigabit por segundo.
Competencias de Información
Buscar fuentes de información bibliográfica, hemerográfica, Internet y videotecas que amplíe el acervo de
conocimientos.
El alumno:
− Consultará material técnico en revistas especializadas de tipos y marcas de tarjetas de red que se dan en
el mercado.
http://www.mundopc.net/hardware/
http://www.pchardware.org/actualiz.php
http://www.coloredhome.com/bricolaje_pc.htm
http://www.servicioalpc.com/soluciones.htm
http://www.conozcasuhardware.com/actualiz/index.htm
http://www.mailxmail.com/curso/informatica/armadopc
http://www.computacion-aplicada.com/registro/formulario.php
http://www.linkses.com/articulos/articulo.asp?id=95
http://www.galiciacity.com/hardware.html
http://www.wikilearning.com/introduccion-wkccp-5094-1.htm
http://www.pasarlascanutas.com/montaje_de_un_pc/montaje_de_un_pc0008.htm
http://www.abcdatos.com/tutoriales/hardware/genericos.html
En el mundo del PC hay dos grandes estándares, IDE y SCSI, aunque el primero está mucho más extendido que
el segundo, la tecnología SCSI está presente en otras muchas plataformas, como los Mac , sistemas Unix,
AS/400, etc..
Los dos estándares han ido sufriendo a lo largo del tiempo distintas implementaciones para intentar seguir el
ritmo marcado por otros componentes cada vez más rápidos, como los procesadores.
Parámetros a tener en cuenta:
Tiempo de acceso: Importante. Este parámetro nos indica la capacidad para acceder de manera aleatoria a
cualquier sector del disco.
Velocidad de Rotación: Tal vez el más importante. Suele oscilar entre las 4.500 y las 7.200 rpm (revoluciones
por minuto).
Caché de disco: La memoria caché implementada en el disco es importante, pero más que la cantidad es
importante la manera en que ésta se organiza. Por ello este dato normalmente no nos da por si solo
demasiadas pistas. Son normales valores entre 64 y 256 Kb.
El interface:
IDE:
Cronologicamente, y empezando por el primero no encontramos con los primeros discos IDE con su limitación
a 528 Mb. y pudiendo solo conectar hasta 2 de ellos.
SCSI:
En el caso de los discos SCSI, tenemos el primero, llamado SCSI-1, con un ancho de bus de 8 bits, aunque ya
en esta primera especificación se incluian características muy destacadas, como la posibilidad de conectar
hasta 7 dispositivos de todo tipo, discos, cinas, escáners, CD-ROM, etc..
Después viene el SCSI-2, que ya dispone de un ancho de bus de 16 bits. El siguiente paso es el Fast-SCSI,
considerado el doble de rápido. Después viene el Wide SCSI, ya con un ancho de bus de hasta 32 bits, así
como un mayor rendimiento.
MECANICA INTERNA
Todo disco duro esta compuesto por uno o varios discos magnéticos (también llamados platos magnéticos),
una o varias cabezas lectoras/grabadoras, un motor de giro y una circuitería interna que manipula estos
elementos.
Para tratar mejor el tema imaginaremos que todo disco duro sólo esta formado por un solo disco magnético y
dos cabezas (una para cada cara del disco), de esta forma se simplifica el tema y nos evitamos hablar de
cilindros, los cuales siempre dan pie a errores de interpretación.
Como ya hemos dicho, suponiendo que los discos duros solamente tuviesen un solo disco magnético y dos
cabezas, su funcionamiento sería similar al de un disquete. Al encender el equipo, la corriente de 12 voltios
que le suministra la fuente de alimentación del PC hace girar el motor de giro del plato magnético y posiciona
las cabezas justo al principio de éste. Es básicamente igual que cuando colocamos un disco en el tocadiscos de
nuestra cadena de música y colocamos la aguja en el comienzo de su superficie. En el momento en el que el
PC necesitar realizar cualquier operación de lectura o escritura, envía la orden a la circuitería del disco duro,
la cual mueve las cabezas al lugar exacto donde se encuentra la información a recuperar o, en caso de tener
que grabar algo, mueve las cabezas al lugar del disco duro donde hay espacio libre disponible.
El funcionamiento teórico, como se puede ver, es sencillo; se trata de mover las cabezas de un sitio a otro con
el fin de leer o grabar información. Esta operación realmente es mucho más compleja puesto que en realidad
entra en juego el procesador, la controladora de discos, la BIOS, el sistema operativo, la memoria RAM y el
propio disco, pero al fin y al cabo se reduce a la lectura o grabación de información, nada más.
PARTICIONES
Al igual que un CD AUDIO se fabrica estructurado en pistas, siendo cada pista una canción grabada, un disco
duro debe estructurarse de forma que pueda grabarse la información en su interior de forma ordenada para
poder recuperarla, leerla, borrarla o modificarla cuando sea necesario.
Imaginemos que cuando sale un disco duro de la fábrica éste tiene el mismo aspecto interno que una casa en
la que se han construido solamente las paredes y el tejado. Dentro de la casa es necesario levantar paredes y
puertas que delimiten las diferentes habitaciones y estancias para que pueda ser habitable. De igual forma es
necesario estructurar el disco duro en su interior para que la información se grabe correctamente.
Un disco duro se estructura a base de PARTICIONES. Cuando particionamos un disco duro lo que hacemos es
informar a nuestro sistema operativo que el disco duro que hay instalado es de una capacidad ‘X’, por
ejemplo 500 MB. Antes de ser particionado, el PC sabe que tiene instalado un disco duro pero no sabe de qué
capacidad es. Para entenderlo mejor supongamos el siguiente ejemplo:
Imagina que vas andando por una calle de tu localidad y de pronto pasas por delante de una parcela de
terreno en la que sólo ves tierra y unas cuantas hierbas. Al cabo de un mes vuelves a pasar y ¡sorpresa! una
compañía constructora ha asfaltado el suelo, lo ha pintado con líneas y flechas, ha construido una valla con
una gran puerta y en la entrada ha puesto un cartel que dice “PARKING DE 2000 PLAZAS”. Vaya cambio ¿eh?
Hemos pasado de ver simplemente una parcela de terreno a saber que se trata de un parking perfectamente
delimitado con una cabina para el guardia de seguridad y 2000 plazas de capacidad.
Siguiendo el ejemplo podríamos decir que particionar un disco es colocar una valla en todo su perímetro con
un cartel en su comienzo que diga “Este es un disco duro de 500 MB”. Para particionar un disco usaremos el
programa FDISK que se distribuye con Windows 95, 98 y ME.
TIPOS DE PARTICIONES
Existen dos tipos de particiones, las PRIMARIAS y las EXTENDIDAS. Para explicar la diferencia entre unas y
otras de forma sencilla y clara diremos que las particiones primarias son las que comienzan justo en el
principio del disco duro llegando hasta el final o hasta el punto que nosotros queramos. Cuando establecemos
una partición primaria que no llega a ocupar la totalidad del disco duro, el resto de espacio virgen lo
podemos gestionar con otra partición, en este caso EXTENDIDA. El nombre de EXTENDIDA explica
perfectamente el tipo de partición que es: se EXTIENDE desde el final de la partición primaria hasta el final del
disco duro.
Imaginemos que tenemos un disco duro de 2 GB de capacidad. Tenemos la intención de instalar Windows 98
y luego algún procesador de texto para poder trabajar con el PC. Bien, podríamos configurar el disco de dos
formas diferentes: la primera sería crear una partición de 2 GB, es decir, que ocupase todo el disco, para
instalar en ella Windows y el procesador de texto junto con los documentos que usemos.
Por otro lado también podríamos hacer lo siguiente: crear una partición de 1GB en la que instalaríamos
Windows y el procesador de texto y luego creamos otra de 1GB para almacenar allí todos los documentos que
usemos. De esta forma los documentos permanecen mejor localizados y con menor riesgo de que los
borremos por accidente. La primera partición seria la partición PRIMARIA del disco y la segunda, en la que
tenemos los documentos, la EXTENDIDA.
Trabajar con particiones, puede ser tan sencillo como crear una sola partición que ocupe todo el disco duro o
puede complicarse de tal forma que necesitemos múltiples particiones para diferentes sistemas operativos en
nuestro PC. Solo con práctica se puede dominar el proceso de administración de particiones puesto que
aunque se trata de una técnica sencilla, un mínimo error puede hacer imposible que podamos acceder a un
disco duro.
Luego de elegir el disco duro indicado para su máquina, debería ser instalado. Lo más recomendable es que lo
haga un profesional, pero, si no disponemos del dinero o simplemente queremos aprender, aquí le indicamos
todos los pasos para saber cómo instalar un disco duro. Recomendamos leer el cursillo completo antes de
iniciar con la instalación.
-Destornillador con punta de estrella (que son los que generalmente se usan para atornillar la cobertura del
gabinete y los discos duros)
-Manual del disco duro, que seguramente indicará como instalarlo. Si hay alguna diferencia con este curso,
siga la instrucción del manual
-Algunos conocimientos previos sobre el hardware y la BIOS, igualmente el curso es lo suficientemente
didáctico como para que aprenda
-Familiarizarse con los términos: maestro (master), esclavo (slave), IDE, BIOS, disco duro, formatear,
particionar, sector de arranque, disco de arranque
-Un disco de arranque hecho obligadamente en Windows 98 o superior
-y un disco duro!
Aquí exponemos por paso rápidamente cómo instalar el disco duro y más adelante se explica en detalle:
-Pensar la configuración que le daremos al nuevo disco (maestro, o esclavo) dependiendo de los demás
dispositivos que haya conectados al IDE.
Algunas verificaciones
Primero debemos hacer algunas verificaciones antes de la instalación física del disco duro:
Hay que saber de qué tipo es el disco duro: IDE, SCSI. Por lo general son IDE.
Cuando la computadora está apagada, abrir su gabinete y comprobar que hay espacio y está el cable
necesario para conectar un disco duro (cable IDE o bahía).
Si ya tiene un disco viejo, es recomendable hacer una copia de seguridad de la información más importante,
pues podría pasar cualquier accidente (formatear el disco incorrecto, caerse el dispositivo, etc).
Si su computadora o la BIOS que posee es muy vieja, lo más seguro es que no acepte discos duros de grandes
capacidades; no es científico, pero si es del '95 en adelante, tal vez acepte discos duros de varios gigas. Si
quiere instalar los nuevos discos de 40GB o más, la BIOS debe ser bien actual.
Debe familirizarse con su BIOS también. La BIOS es la configuración más básica de la computadora, y es un
sector muy importante. Por lo general se puede acceder con la tecla "DEL" o "SUPR" en la primer pantalla de la
computadora al encenderse. Puede saber cuál es la tecla por el manual de la computadora, o cuando se ve la
primer pantalla hay un texto (generalmente en la parte de abajo o al medio) que indica con qué tecla se
accede al "SETUP", que vendría a ser la BIOS. Puede presionar la tecla PAUSE para leer la pantalla.
Ahora debe elegir si el disco que va a instalar va a ser maestro o esclavo. Si elige el disco duro como maestro
es porque seguramente quiere que sea el disco principal, es donde se instalará el sistema operativo
(generalmente toma la letra C:). Si lo quiere así, tiene que verificar que esté bien ubicado el jumper. Ahora, si
lo quiere en modo esclavo, es porque ya tiene un disco duro maestro instalado y quiere que, justamente, sólo
sirva el nuevo como esclavo del otro. En el caso de que quiera que el nuevo disco duro sea el maestro y el
viejo esclavo, deberá cambiar los jumpers de ambos en el lugar correcto.
Sobre el disco duro que va a instalar hay una pegatina donde se indica en qué posición debe colocarse el
jumper para indicar cómo funcionará el disco duro, si en modo maestro o en esclavo. Deberá mover el jumper
de una posición a otra (suele costar sacar el jumper si no se tiene la herramienta correcta).
Una vez configurados los jumpers del disco nuevo (y del viejo si tiene uno ya instalado), debe proceder a
enchufarlo. Coloque el disco duro en el gabinete (puede atornillarlo al gabinete ahora si lo desea). Luego
conecte el cable IDE y la alimentación a la parte trasera del disco. Puede ser que no haya cables IDE o de
alimentación porque ya están todos ocupados; debería comprarse unos.
Al final, los cables IDE deben estar conectados de esta manera: el disco duro maestro debe ir conectado en el
extremo final del IDE (maestro primario), y su esclavo en el medio (esclavo primario). El otro extremo va
conectado a la placa madre. Si el cable no tiene tres salidas, debe comprarse uno con tres. Por lo general hay
dos cables IDE y por lo tanto se pueden conectar cuatro dispositivos (maestro primario, esclavo primario,
maestro secundario, esclavo secundario).
Recuerde que en el caso de que ya tenga un disco anterior maestro, debe configurarlo como esclavo (si quiere
que su nuevo disco sea el primario). Ahora, si el nuevo disco es el esclavo, el viejo (el maestro) no debe
tocarlo.
Una vez que verifique que está todo correctamente conectado (las conexiones deben ser firmes y al
aplicárseles presión, no deberían hundirse más, ni estár más hundidas de un lado que de otro. Ahora puede
encendar la computadora (por ahora solo póngale encima la tapa al gabinete sin atornillarlo).
Hay una complicación extra. El cable IDE conecta los discos duros y otros dispositivos como las
lectoras/grabadoras de CD o DVD. Pueden crearse complicaciones con la configuración de los jumpers, ya que
estos otros dispositivos también usan estas configuraciones. Es por esto que desde la BIOS podemos ver cuáles
son las configuraciones que tiene cada dispositivo (no puede haber dos dispositivos con la misma
configuración). Hay cuatro formas generalmente: Maestro primario, Esclavo primario, Maestro secundario,
Esclavo secundario.
Si tiene complicaciones, vaya más abajo a "Distintas opciones con los jumpers". Si es un usuario inexperto, lo
más seguro es que no le acierte a la configuración de los jumpers desde un primer momento; debe intentarlo
una y otra vez con distintas posibilidades.
Ahora la pregunta, ¿qué debería hacer si todo salió bien? Si el disco nuevo fue instalado como maestro, lo
más seguro es que haya que instalar el sistema operativo (y si no está formateado y particionado, hacerlo). Si
es un esclavo, sólo tendremos que formatearlo (a menos que ya lo esté). Cómo particionar y formatear, lo
explicamos más adelante.
¿Qué debería pasar si algo salió mal? En el peor de los casos, al encender la computadora, se queda detenida
en la primer pantalla, tal vez con un mensaje de error. Reinicie la computadora nuevamente y antes de que dé
el error, ingresar en la BIOS y fijarse en los dispositivos instalados. Seguramente no detectó el nuevo disco (o
tal vez ninguno de los dispositivos que tiene). Esto indica sencillamente que está mal configurado o mal
conectados. Debe pensar nuevamente las configuraciones y reconectarlos.
Aquí explicamos las distintas configuraciones que debería tomar dependiendo los dispositivos que tenga
conectado.
*1* Podemos conectar este nuevo disco rígido al mismo canal que el disco rígido anterior, quedando como
secundario el nuevo; éste nuevo disco posee como unidad la letra libre; debe ser configurado como primary
slave (esclavo primario) en los jumpers.
A veces encontraremos ese lugar o canal ocupado por el CD, entonces debes conectarlo al canal IDE
secundario con el cable correspondiente.
Tal vez debas cambiar los jumpers del CD y configurarlo como Master, esto depende del tipo de placa que
tengas, hay algunas que no lo soportan.
*2* Otra forma es conectar este disco rígido en el mismo lugar que el disco anterior, de esta forma la unidad
seguiría siendo C: y se configuraría como master primario (ya que es el disco principal) en los jumpers.
Entonces el disco anterior debería ser configurado como esclavo primario (primary slave, ya que ha pasado a
segundo plano) o simplemente no utilizarlo más. Acuérdate que el nuevo disco está como principal y en su
interior no contiene nada, entonces cuando se inicie la máquina no se encontrará el sector de booteo (no
arrancará el sistema operativo).
En cuanto al CD, si está en el canal primario, debes conectar este otro disco en el canal IDE. También puedes
cambiar los jumpers del CD y configurarlo como master.
*3* También podemos conectar directamente el nuevo disco al canal IDE secundario mediante un cable IDE;
de esta forma no es necesario cambiar los jumpers en ninguna unidad ya que viene de fábrica como master. El
disco entonces toma la letra de la unidad libre.
*4* Podemos conectar también el disco nuevo al canal IDE primario y el antiguo al IDE secundario a través de
un cable IDE. La nueva unidad reemplaza a la vieja, entonces se llamaría C:. De esta forma no es necesario
cambiar ningún jumper.
En cuanto a la unidad de CD, también puedes conectarla como slave en el canal secundario.
A veces la BIOS autodetecta los discos, pero si no, debe ejecutar la autodetección de discos dentro de la
misma. También se pueden poner los datos manualmente, para eso tendrá que saber los datos del nuevo
disco duro (en el manual o en la pegatina sobre el disco). Deberá indicar en la BIOS el número de cilindro, el
Como aclaramos anteriormente, el disco estará vacío, entonces debería instalar el Sistema Operativo. También
puede hacer arrancar el Sistema Operativo desde el disco viejo, pero deberá cambiar el orden de booteo en la
BIOS, y poner primero al disco antiguo. De esta manera, cuando reinicie, la máquina verificará primero el disco
viejo y arrancará el Sistema Operativo que allí estaba.
Si el nuevo disco ya está formateado y particionado, podremos instalar el sistema operativo directamente. En
el caso de que no esté formateado o particionado, deberemos hacerlo (instalación lógica).
Instalación lógica
Aclaración importante: No es necesaria la instalación lógica (ni el FDISK, ni el FORMAT) si el disco duro que
está instalando ya está particionado y formateado. Si es un disco totalmente nuevo, lo más seguro es que
tenga que hacerlo. Si es un disco prestado, antiguo o como fuera, tal vez no sea necesario particionarlo y
formatearlo, pues ya está hecho.
Si escogiste las opciones 1 ó 3; al iniciar la computadora, al iniciarse la segunda pantalla que se ve presione F8
y elija Modo Ms-Dos. En vez de hacer esto último, también puede poner el disco de arranque en la lectora y
elegir la opción que va al DOS con compatibilidad de lectora de CD. Cuando llegue al prompt del DOS escribir
FDISK (abajo explicado)
Si elige las opciones 2 ó 4, debe tener a mano un disco de arranque o inicio. Entonces debe introducir el disco
de inicio en la disquetera, cuando encienda el equipo, tomará a ese disco para el inicio de la máquina y elija la
opción con compabilidad para la lectora de CD. Desde el prompt del MS DOS debe escribir FDISK (abajo
explicado)
Si escogiste la opción 1 ó 3 debes escoger primero la opción "Cambiar la unidad actual de disco rígido".
Si el disco de arranque fue hecho en Win 95 en adelante, preguntará si desea habilitar la compatibilidad con
discos grandes. Si instala como Sistema operativo a Windows NT, OS/2, Linux u otro escoge NO.
Cuando introduzca FDISK, elige la opción 1, Crear una partición o unidad lógica DOS, escoge Crear una
partición Primaria. Si vamos a crear dos o más particiones, recomendamos que seas un usuario avanzado que
ya tiene conocimiento sobre todo lo que hace, de lo contrario será mejor crearla después con un programa
que particione y no borre la información cómo Partition Magic.
Deberá iniciar el equipo en modo MS-DOS o con un disco de inicio y desde el prompt del DOS, formatear la
nueva unidad. Debe colocar "Format X: /s" La X equivale a la unidad del nuevo disco. Asegúrate de no borrar la
unidad equivocada. Si el nuevo disco que instaló es maestro primario, lo más seguro es que haya que
formatear la unidad C:. Si el nuevo disco es esclavo, y el anterior tiene el Sistema Operativo puede formatear el
nuevo desde Windows (para no equivocarse de disco).
Para instalar el Sistema Operativo en el nuevo disco maestro, debe reiniciar la máquina con el disquete de
inicio puesto. Elegir la opción (entrar al DOS con compatibilidad con lectora de CD). De esta manera puede
acceder al CD del Sistema Operativo. Ya en el prompt (línea de comando) del DOS, debe escribir la unidad de
la lectora (si no sabe, vaya probando las letras hasta que lea la lectora). Escriba simplemente: "X:" (sin comillas,
y la X representa la unidad de la lectora). Luego instalar.exe (si es que se trata de Windows).
ADVERTENCIA: el format elimina todo el contenido de un disco. Si no está seguro de que un disco esté vacío,
puede ir a la unidad del disco con "X:" (X es la letra de la unidad), y luego poner "dir". Si no da una lista de
nombres de directorios y archivos, es que está vacío.
Aquí repasamos las ventajas y desventajas de configurar de una u otra manera los jumpers. Tiene que pensar
en el uso que le dará al nuevo disco duro. Si en el nuevo disco quiere poner el Sistema Operativo, será mejor
reemplazar al antiguo y configurarlo como master (tal vez por ahora le convenga dejar el antiguo de lado y no
complicarse con las configuraciones extras hasta que termine de instalar y formatear correctamente el nuevo
disco). Igualmente si quiere los dos discos, el viejo lo debe configurar como primario esclavo (en el jumper
como esclavo y conectado en el conector del medio del cable IDE, en el extremo iría el primario maestro, el
disco nuevo y el otro extremo a la placa madre). Si ya tiene ocupado el primario esclavo con otro dispositivo
(una lectora, por ejemplo), puede optar por cambiar de lugar la lectora (y también sus jumpers) o conectar el
disco viejo en el segundo cable IDE (si no lo tiene, cómprelo) como maestro secundario. Si ese también está
ocupado, lo conecta como esclavo secundario.
Si el disco duro nuevo sólo es para tener más espacio y quiere conservar el antiguo como el principal (el que
tiene el sistema operativo), deberá instalar este disco nuevo como primario esclavo (cambiar el jumper a
esclavo, y conectarlo en el conector del medio del cable IDE primario. El IDE primario es el que está conectado
al disco viejo maestro). Ahora, si está ocupado el primario esclavo por otro dispositivo; puede optar por
cambiar de lugar ese dispositivo (y su configuración) o instalar el nuevo disco en el segundo cable IDE. Puede
configurarlo como maestro secundario y conectarlo en el conector final del cable IDE secundario. Si también
este último también está ocupado, debe conectarlo como esclavo secundario (cambiar el jumper a esclavo y
conectarlo al conector del medio del cable IDE secundario).
Para saber si el cable IDE es el primario, lo más seguro es que su disco antiguo esté conectado al cable IDE
primario en el extremo (en el extremo se conectan los maestros). El cable libre es el IDE secundario, si es que
existe.
Material necesario
− Destornillador de estrella.
− Pinzas pequeñas.
− Cable IDE (según configuración).
Manos a la obra
Abrimos el Pc...
...dispone de tres conectores, uno a placa base y los otros dos a lectores o discos duros.
Miraremos dentro del PC para ver si tenemos alguno de estos conectores libres.
Si el que esta libre es gris la configuración del disco duro será "master", en caso de que esté libre el negro la
configuración será "slave".
Cada placa base soporta 2 cables IDE, lo que sumará un total de cuatro dispositivos del tipo disco duro o
lectores/grabadores.
Una vez que ya sabemos que configuración debemos seguir, nos dirigiremos a la pegatina del configuración
del disco duro.
Nota.
Como ya hemos dicho, para crear particiones debemos usar un programa específico, en nuestro caso
usaremos FDISK, un programa que se distribuye con MS-DOS y cualquier versión de Windows 95, 98 ME y
2000.
Existen dos versiones de FDISK, la que podríamos llamar 16 bit y la nueva versión, la 32 bit. La versión antigua
no soporta discos duros mayores de 2 GB de capacidad mientras que la segunda soporta sin problemas
cualquier disco duro.
Debido a la mayor compatibilidad de la versión 32 bit es totalmente recomendable descartar por completo la
versión antigua a favor de la nueva.
Es tan sencillo como crear un disco de inicio con Windows 95 o Windows 98. En el proceso de creación del
disco de inicio el sistema operativo incluye las dos herramientas necesarias para preparar discos duros, FDISK y
FORMAT
Para preparar un disco duro virgen o volver a preparar otro que ya esta en funcionamiento deberemos
arrancar el PC con el disco de inicio antes comentado. Una vez iniciado simplemente tecleamos FDISK en la
pantalla y el programa arrancará.
PANTALLA PRINCIPAL
Consta de un menú con 4 posibilidades distintas, justo con el aspecto que aparece en la siguiente figura:
Para realizar esta operación seleccionaremos la primera opción del menú pulsando 1. Nos aparecerá la
siguiente pantalla:
De nuevo pulsamos 1 para seleccionar la primera opción, con lo que veremos la siguiente pantalla
Si pulsamos S, FDISK creará una única partición que abarcará TODO el disco duro, por lo que será partición
PRIMARIA. De esta forma ya habremos terminado de gestionar particiones y sólo tendremos que reiniciar el PC
para que los cambios surtan efecto.
En caso de pulsar N, FDISK mostrará el siguiente mensaje en el cual nos pide que introduzcamos el tamaño
que queremos para toda la partición.
Cuando hayamos introducido tamaño de la partición (2500 MB) nos aparecerá una pantalla en la que se nos
muestran los datos de nuestra nueva partición:
Pulsamos ESC y volvemos al menú principal de FDISK. Al volver a pulsar ESC cerramos el programa. Ahora sólo
falta reiniciar el equipo para que los cambios surtan efecto.
Si nos fijamos atentamente, en estas dos últimas pantallas de ejemplo, veremos que le hemos dicho a FDISK
que nuestra partición NO va a ocupar todo el disco duro, sino que de los 3250 MB de nuestro disco
imaginario vamos a usar 2500. Para poder usar los restantes 750 MB del disco es necesario configurar una
partición EXTENDIDA, de lo contrario quedaran en desuso.
Para llevar a cabo esta operación volveremos, pulsando ESC al menú principal de FDISK (ver primera pantalla)
y seleccionamos la opción número 2, con lo que nos aparecerá la siguiente pantalla, en la que por defecto se
nos ofrecen la totalidad de los MB disponibles en el disco duro:
Una vez introducido el tamaño de nuestra nueva partición EXTENDIDA de 750 MB, FDISK nos muestra la
siguiente pantalla para mostrarnos, a modo informativo, la configuración de nuestro disco duro tras este
último cambio:
Ya hemos introducido el tamaño de nuestra unidad lógica. Si pulsamos ESC aparece la siguiente pantalla a
título informativo:
FORMATEO DE UNIDADES
La acción de formatear un disco duro o cualquier otro disco es, simplemente preparar el interior de su(s)
partición(es) para que cada archivo que guardemos dentro tenga su propio espacio, evitando de esta forma
que los archivos se solapen unos con otros y, por consiguiente, se produzcan errores irreparables.
Supongamos que en el ejemplo anterior del parking de 2000 plazas, la empresa constructora no hubiese
pintado las líneas blancas en el asfalto que delimitan cada plaza de aparcamiento, ¿qué es lo que ocurriría?
pues que la gente entraría al parking y dejaría el coche como mejor pudiese, osea, que se armaría un jaleo
impresionante. De igual forma ocurre cuando creamos una partición y no la formateamos; no podemos
introducir ningún tipo de información puesto que no existe una estructura dentro de la partición que
garantice la correcta ubicación de la información.
Para elaborar esta estructura interna se usa el programa FORMAT que viene, al igual que FDISK, distribuido
con los discos de inicio de MS-DOS Windows 95-98-ME y 2000.
El programa FORMAT crea toda una estructura de unidades de almacenamiento de información llamadas
SECTORES, uno detrás de otro, desde el principio al final de la partición que se esté formateando. Cada sector
esta perfectamente delimitado, por lo que puede guardar con total garantía cualquier información. Como
vemos, la estructura interna de una partición tiene un aspecto semejante al de un gran aparcamiento circular,
tal y como se ve en la siguiente figura:
Formatear un disco duro es sencillo pero existen varios casos distintos, dependiendo de los cuales se puede
usar FORMAT desde el propio disco duro o, por el contrario, es necesario iniciar el PC con un disquete, al igual
que hacíamos con FDISK para poder cargar este programa.
A. Formatear un disco de 10.000 MB (10 GB) con una única partición (lo mas usual hoy día, 17/3/01).
B. Formatear el disco de ejemplo que particionamos antes con FDISK. Recordaremos que posee una partición
primaria de 2500 MB (C:) y otra de 750 MB (D:).
Pulsamos S para que de comienzo el formato de la unidad y esperamos a que termine (puede legar a tardar
incluso HORAS, dependiendo del disco duro y el PC donde este instalado.
Al finalizar el formato del disco nos aparece un mensaje que sugiere que introduzcamos un nombre para el
disco. No es obligatorio para un PC que tengamos en casa, pero si muy recomendable para equipos
conectados en red. Veamos el mensaje:
Formateando 10.000 MB
Formato completado.
¿Nombre del volumen (11 caracteres, Entrar para ninguno)?
En el caso de que queramos introducir un nombre para el disco sólo podremos introducir 11 caracteres. Si no
queremos introducir ningún nombre, simplemente pulsamos intro y ya está, ya hemos finalizado el formato
de nuestro disco.
Recordaremos que posee una partición primaria de 2500 MB (C:) y otra de 750 MB (D:).
Para realizar esta operación seguiremos exactamente los mismos pasos que hemos visto en el caso anterior.
No hay variación ninguna: primero tecleamos FORMAT C: al iniciar el equipo y seguimos las indicaciones que
aparecen en la pantalla. Una vez finalizado el formato de la unidad C, pasamos a formatear la unidad D. Para
ello volvemos a repetir la operación pero esta vez tecleando FORMAT D:. De nuevo seguiremos las indicaciones
de los mismos mensajes que el programa FORMAT nos muestra en pantalla.
Como ya hemos visto en el punto anterior, el formato de disco establece una estructura interna dentro de las
particiones que permite grabar con total seguridad la información, pero, aunque la información se encuentre
Volvamos al parking de las ya conocidas 2000 plazas. Imaginemos que dejamos allí nuestro coche rojo bien
aparcado y nos vamos. Cuando volvemos tras un par de horas vemos algo increíble: han aparcado otros 1.999
coches rojos en el parking junto con el nuestro.... ¿Cómo lo encontramos? La solución sería IR A LA PUERTA Y
PREGUNTAR AL GUARDIA DE SEGURIDAD, el cual nos diría el punto exacto donde se encuentra nuestro
vehículo.
La FAT (File Allocation Table) es un pequeño índice que el programa FORMAT crea en el principio de la
partición que está formateando. La FAT trabaja igual que el guardia del ejemplo: sabe la localización exacta en
el plato magnético del disco de toda la información que haya grabada. Cuando es necesario acceder a la
información del disco, Windows LEE la FAT y de este modo localiza la información.
La FAT no puede verse ni desde MS-DOS ni Windows, sea la versión que sea. Sólo programas específicos de
mantenimiento profesional de PC,s pueden acceder a la FAT y mostrarla; permanece funcionando de forma
transparente para nosotros así que no hay que prestarla mas importancia.
El funcionamiento “normal” es el que hemos explicado antes. Simplemente tecleamos FORMAT X: donde la
X es la letra de la partición que queremos formatear. De esta forma se crea la estructura de sectores de nuevo.
Este tipo de funcionamiento es OBLIGATORIO siempre que el disco no esté aún formateado.
En caso de que nuestro disco duro ya esté formateado y lo que queramos es formatearlo de nuevo y lo
queremos hacer de forma casi instantánea lo que haremos será teclear FORMAT X: /q.
El parámetro “/q” indica a FORMAT que no cree de nuevo la estructura de sectores de la partición (porque ya
está creada), sino que BORRE LA FAT, simplemente eso.
Borrar la FAT es una de las técnicas mas habituales de los virus, los cuales, al borrar este preciado índice
logran dos objetivos: eliminar la información del disco donde se encuentran y de paso se borran a sí mismos
para que nadie los estudie y saque la vacuna correspondiente.
• Resolución de problemas.
Para que estos dos sistemas operativos puedan convivir sin tener conflictos, es necesario particionar tu disco.
La partición del disco solo es seccionar tu disco duro dividiéndolo en áreas en donde puedas poner cada
sistema por separado. Los Windows más comunes deben de estar en la primera partición del disco para poder
funcionar adecuadamente (c), aunque no todos son así, por ejemplo, Windows XP puede trabajar en una
partición secundaria (d) y funcionar de manera correcta. Aún así es recomendable que tu primera partición sea
de Windows y tu segunda sea de Linux, sobre todo si no eres muy experimentado en esto y no quieres liarte
con ambos sistemas.
Cada sistema utiliza su propios sistema de archivos, mientras Windows utiliza el FAT, FAT32 y NTFS, Linux
utiliza el sistema de archivos EXT2FS o EXT3FS y el sistema de archivos de intercambio SWAP. Si tienes en tus
manos un disco de instalación de linux y no tienes ninguna partición con el sistema de archivos ext2fs o
En esta nota voy a poner dos métodos para poder iniciar la instalación manejando las particiones de tu disco:
1. Desde Windows puedes utilizar un programa gráfico de particionado como puede ser Partition Expert o
PartitionMagic. Estos programas pueden hacer una nueva partición en tu disco sin borrar tus datos actuales.
Con este método haz una partición ext2fs o ext3fs y luego comienza la instalación de linux. La partición que
hiciste solo fue para que te dejara iniciar la instalación reconociendo un sistema de archivos compatible. Ya en
el momento de la instalación la mayoría de las distribuciones de linux te indicaran si deben utilizar esa
partición que hiciste para hacer otras más, las necesarias para trabajar con el sistema, Debes aceptar esto para
seguir la instalación.
2. Puedes utilizar Fdisk de Windows para borrar una partición. Esto es si ya tienes una partición con FAT32 y
quieres utilizarla para instalar linux, habiendo sacado cualquier dato importante de esta. Lo que se pretende
es que se destruya esta partición con el Fdisk y quede en el disco espacio libre que al momento de la
instalación de linux, lo detecte y en su momento te pregunte si deseas utilizar ese espacio libre para poner
linux ahí. En este caso dale en aceptar y sigue los pasos que te da tu distribución. Utilizar Fdisk es un poco
riesgoso para los novatos, así que hay que utilizarlo con precaución.
Espero que esta nota te sea de utilidad y si tienes alguna duda con gusto la podemos resolver en los foros del
sitio
Cuando se colocan nuevos dispositivos a la máquina, debe tenerse en cuenta que calientan más el ambiente
del gabinete. Si comienza a tener problemas como errores inesperados en el sistema operativo o se reinicia
sola, significa que la computadora se está recalentando. Debería poner un ventilador apropiado para enfriar el
gabinete.
Puede pasar que cuando ponga el disquete de arranque, la computadora al iniciar no lo lea. Tal vez entre a
Windows del disco viejo directamente o simplemente diga (generalmente en inglés) que no hay sector de
arranque y la computadora se detenga. Esto puede pasar porque la disquetera está rota o no está conectada
o está mal configurada en la BIOS (nos detendremos en esto último).
En la BIOS debe configurar el orden de dispositivos que la máquina irá verificando para encontrar el sector de
arranque. Generalmente dice 1st boot (primer booteo): Floppy. Esto significa que primero se fijará primero si
hay un disquete de arranque en la disquetera. Luego dice 2st boot: IDE-0. Significa que luego verificará si hay
un sector de arranque en el disco duro maestro primario. Así sigue hasta generalmente cuatro pasos. Esa
debería ser la configuración generalmente. El IDE-1 es el esclavo primario, el IDE-2 el maestro secundario, el
IDE-3 el esclavo secundario. También se puede configurar como arranque la lectora de CD y otros.
Repetimos, el orden más lógico sería poner primero el disquete (Floppy) y luego el IDE-0 (disco duro maestro
primario).
La mayor parte de los discos duros son fijos, es decir, están alojados en el ordenador de forma permanente.
Existen también discos duros removibles, como los discos Jaz de Iomega, que se utilizan generalmente para
hacer backup —copias de seguridad de los discos duros— o para transferir grandes cantidades de
información de un ordenador a otro.
El primer disco duro se instaló en un ordenador personal en 1979; era un Seagate con una capacidad de
almacenamiento de 5 MB. Hoy día, la capacidad de almacenamiento de un disco duro puede superar los 50
MB. A la vez que aumentaba la capacidad de almacenamiento, los discos duros reducían su tamaño; así se
pasó de las 12 pulgadas de diámetro de los primeros, a las 3,5 pulgadas de los discos duros de los
ordenadores portátiles o las 2,5 pulgadas de los discos de los notebooks (ordenadores de mano).
El alumno:
− Aplicará la competencia desarrollada durante su formación académica, su desempeño cotidiano y su
nivel de comunicación.
• Tipos de unidades.
¿Qué son los discos ópticos, qué tipos existen, y cuáles son sus usos?
Los discos ópticos presentan una capa interna protegida, donde se guardan los bits mediante distintas
tecnologías, siendo que en todas ellas dichos bits se leen merced a un rayo láser incidente. Este, al ser
reflejado, permite detectar variaciones microscópicas de propiedades óptico-reflectivas ocurridas como
consecuencia de la grabación realizada en la escritura. Un sistema óptico con lentes encamina el haz
luminoso, y lo enfoca como un punto en la capa del disco que almacena los datos.
− por moldeado durante la fabricación, mediante un molde de níquel (CD-ROM y DVD ROM),
− por la acción de un haz láser (CD-R y CD-RW, también llamado CD-E),
Los discos ópticos tienen las siguientes características, confrontadas con los discos magnéticos:
− Los discos ópticos, además de ser medios removibles con capacidad para almacenar masivamente
datos en pequeños espacios -por lo menos diez veces más que un disco rígido de igual tamaño- son
portables y seguros en la conservación de los datos (que también permanecen si se corta la energía
eléctrica). El hecho de ser portables deviene del hecho de que son removibles de la unidad.
Asimismo, tienen bajo costo por byte almacenado. Los CD-ROM se copian (producen) masivamente.
La mayor capacidad de los discos ópticos frente a los magnéticos se debe al carácter puntual del haz
láser incidente, y a la precisión del enfoque óptico del láser. Ello permite que en una pista los bits
estén más juntos (mayor densidad lineal), y que las pistas estén más próximas (más t.p.i).
Los CD son más seguros en la conservación de los datos, dado que la capa que los almacena es
inmune a los campos magnéticos caseros, y está protegida de la corrosión ambiental, manoseo, etc.,
por constituir un "sandwich" entre dos capas transparentes de policarbonato.
Por otra parte, la cabeza móvil -que porta la fuente láser y la óptica asociada- por estar separada a 1
mm. de la superficie del disco, mmca puede tocarla. Por ello no produce en ella desgaste por
rozamiento, ni existe riesgo de "aterrizaje", como en el disco rígido con cabezas flotantes. Tampoco el
haz láser que incide sobre la información puede afectarla, dada su baja potencia.
Son aplicaciones comunes de los discos ópticos: las bases de datos en CD ROM para bibliotecas de datos
invariables (enciclopedias, distribución de software, manuales de software, demos, etc.), y para servidores de
archivos en una red local, así como el uso de CD-R (grabables por el usuario) para copias de resguardo
seguras, y las bibliotecas de imágenes.
Puede estimarse entre 10 y 15 años la permanencia de la información en un CD ROM común, dado que la
superficie de aluminio que contiene la información se oxida muy lentamente en ese lapso, salvo que sea
sometida a una protección anti-óxido especial, o sea de oro. En un CD-R este tiempo será mucho mayor, por
presentar oro la fina capa metálica interior.
En informática se usan los siguientes tipos de discos ópticos, tratados luego en detalle:
1. Grabado masivamente por el fabricante, para ser sólo leídos: como lo son el CD ROM (Disco compacto
de sólo lectura) y el DVD ROM (Digital Versatil Disc de sólo lectura). En éstos, a partir de un disco "master"
grabado con luz láser, se realizan múltiples copias obtenidas por inyección de material (sin usar láser). Se
obtienen así discos con una fina capa de aluminio reflectante -entre dos capas transparentes protectoras-.
Dicha capa guarda en una cara unos y ceros como surcos discontinuos, que forman una sola pista en espiral.
La espiral es leída con luz láser por la unidad de CD del usuario.
2. Grabable una sola vez por el usuario: el CD-R (CD Recordable) antes llamado CD-WO (Write once) En la
escritura, el haz láser sigue una pista en espiral pre-construida en una capa de pigrnento. Donde el haz incide,
su calor decolora para siempre el punto de incidencia. En la lectura, esta capa deja pasar el haz láser hacia la
capa reflectora dorada que está más arriba, reflejándose de forma distinta según que el haz haya atravesado
un punto decolorado o no, detectándose así unos y ceros. Ambas capas están protegidas por dos capas
transparentes. Una vez escrito, un CD-R puede leerse como un CD-ROM.
Si bien los CD-ROM son los CD más usados para almacenar programas y datos, las unidades lectoras de CD
actuales también permiten leer información digital de otros tipos de CD basados en la misma tecnología, con
vistas a aplicaciones en multimedia, como ser:
CD-DA (Digital Audio): es el conocido CD que escuchamos en un reproductor de CD para audio. Podemos
escuchar la música que contiene mientras trabajamos con una PC, o bien mezclarla en usos multimedia.
CD-I son las iniciales de disco compacto interactivo. De tecnología semejante al CD-ROM, puede combinar
datos, audio y video, conforme a un estándar multimedia propuesto por Phillips y Sony en 1986. Este también
define métodos para codificar y decodificar datos comprimidos, y para visualizarlos. Almacena 72 minutos de
audio digital estéreo ó 19 horas de conversación de calidad en mono, ó 6000 a 1500 imágenes de video -
según la calidad deseada- que pueden buscarse interactivamente y mezclarse. Requiere una plaqueta
inteligente especial en el computador. Al usuario le es factible interactuar mientras el CD es reproducido -en
una unidad lectora compatible- mediante el mouse, o un dispositivo para disparar sobre un punto infrarrojo
emitido ("thumbstick").
CD-ROM XA (de extended Architecture): es un estándar para sonido e imagen propuesto por Phillips, Sony y
Microsoft, extensión de las estructuras de un CD-ROM, que especifica la grabación comprimida de sonido en
un CD-ROM por el sistema ADPCM, también empleado en CD-I. Esto hace que un CD-ROM XA sea un puente
entre CD-ROM y CD-I.
Photo CD: el estándar elaborado en 1990 por Phillips y Eastman Kodak especifica el procedimiento para
convertir fotografías de 35 mm en señales digitales para ser grabadas en un CD-R en una o varias sesiones. La
grabación se realiza durante el revelado de la película. Así se guardan cientos de fotos color en un CD-R. Los
Photo CD y Video CD son CD-ROM XA "Bridge Format", que pueden leerse en lectoras CD-I como en lectoras
propias de computadoras.
DVI es un tipo de CD ROM que integra video, televisión, gráficos con animación, audio multicanal y textos.
Necesita plaquetas adicionales. Merced a una técnica de compresión de datos, éstos ocupan 120 veces menos
lugar, permitiendo ver una hora de video de 30 imágenes por segundo. A esta velocidad, dado que una
imagen de TV ocupa 600 KB, para ver un segundo se requieren 600 KB x 30 = 18 MB. De no existir
compresión, los 600 MB de un CD ROM sólo permiten unos 600/18 " 30 seg. de visión. Los reproductores de
CD actuales pueden leer CD-ROM, CD-R (de varias sesiones), CD-ROM XA, Photo CD, Video-CD, CD-I, CD-plus, y
CD-DA.
En un CD-ROM la espiral que codifica la información grabada es moldeada (en máquinas que fabrican en serie
miles de CD iguales) en un molde de níquel, en el cual a temperatura se inyecta plástico.
A dicha espiral así moldeada se le deposita una fina capa de aluminio, y es protegida por una capa
transparente superior. Más en detalle, con el disco visto desde abajo, la superficie grabada presenta una
sucesión de hoyos ("pits") separados por espacios planos ("lands"), que forman una pista en espiral.
Por presentar un CD-ROM más bytes para código detector de errores que un disco CD-DA, no es factible leerlo
en una reproductora para CD de audio.
La información digital (bits) en un CD-ROM -al igual que en un CD DA- se debe grabar en bloques (también
llamados sectores) contiguos de una espiral.
Un tipo de CD-ROM de 60 min de duración (también son comunes los de 74 min) presenta la espiral
constituida por 27000 sectores conteniendo cada uno 2048 bytes (2 K) para datos. En total se pueden
almacenar:
Antes de grabar el disco "master", punto de partida para fabricar miles de CD ROM, un programa fracciona
cada archivo a grabar en sectores de 2048 bytes de datos, y les agrega, conforme a los campos de un sector:
− unos y ceros indicadores de comienzo de bloque, que sirven para sincronismo con la lectora de CD.
− una secuencia de bits que irá en la cabecera (header) de cada bloque para poder localizarlo.
− los códigos ECC de Reed y Salomon para detectar/corregir errores que van al final de cada bloque.
Cada uno de los 270.000 bloques así conformados se va grabando en un disco "master" de vidrio, recubierto
en una de sus caras por una película que atacará un haz láser, para formar en ella una espiral constituida por
hoyos ("pits"). Para ello, se inserta el disco "master" de vidrio en un dispositivo de grabación, que presenta un
cabezal que porta un haz láser de potencia, el cual se mueve en línea recta desde el centro al borde del disco.
Este movimiento combinado con el de giro del disco, da como resultado que sobre la superficie del disco
pueda formarse una espiral que crece desde el centro. Cada vez que el haz es activado, el calor que genera la
punta microscópica del mismo (menor que una milésima de mm.) ataca la película que recubre el vidrio del
"master" -en la cual está enfocado- generando en ella un hoyo que conformará la espiral.
Más en detalle, una computadora envía al cabezal, uno por uno, los bits a grabar, y en correspondencia se
enciende o apaga el haz láser. Si el haz se activa, quema un punto microscópico en la pista en espiral que se
va generando (de ancho algo menor que el punto), creando en ella un hoyo. De esta forma dicha pista se va
conformando por hoyos ("pits"), separados por espacios no atacados por el haz, los "lands".
En un tipo de grabación corriente, un "land" representa un uno, y el “pit" que le sigue representa uno o más
ceros, según sea la longitud de dicho "pit" (y el tiempo involucrado).
La espiral presenta unas 16.000 vueltas por pulgada radial (t.p.i). En el espesor de un cabello entran 50
vueltas. En total tiene 22.190 vueltas.
Cada archivo queda grabado en sectores sucesivos (que forman lo que suele denominarse un "track", aunque
la pista en espiral es una sola). A continuación de un archivo sigue otro en la espiral, como en una cinta
magnética.
La pista en espiral de un CD presenta el mismo número de bits por centímetro en todos sus tramos (densidad
lineal constante), para aprovechar mejor el medio de almacenamiento. Un disquete gira a velocidad angular
constante (CAV: constant angular velocity), como ser, cada vuelta siempre en 1/5 seg. Si tiene 18 sectores por
pista, en cada vuelta leerá 18 sectores en 1/5 seg, cualquiera sea la pista. De esta forma, con CAV, se logra
fácil que la cantidad de bits que se leen por segundo (velocidad de transferencia interna) sea la misma, sin
importar qué pista sea.
Análogamente en un CD-ROM, por tener su pista en espiral igual densidad en cualquier tramo, a medida que
ella es leída desde el centro al borde, -y por ende también cuando es grabada- la velocidad de giro debe
disminuir continuamente, para que la cantidad de bits leídos por segundo sea constante en cualquier tramo.
Dado que la espiral tiene igual cantidad de bits por cm en cualquier tramo, una vuelta interna guardará
menos bits que otra más externa, por tener menor longitud. Si la espiral se leyera a velocidad de giro
constante, durante una revolución del disco, una vuelta más interna de la espiral proporcionaría menos bits
que otra más externa. De ser así, la lectura de una vuelta más interna de la espiral al ser leída proveería menos
bits por segundo que otra más externa.
Para tener igual densidad en cualquier tramo de la espiral, en la grabación del "master", el punto luminoso del
haz láser emitido por la cabeza (que se mueve en línea recta radial desde el centro al borde del plato,
incidiendo siempre perpendicular al disco) genera la espiral a velocidad lineal constante (constant linear
velocity-CLV, en cm/seg), para que sea constante la cantidad de bits grabados (y por ende leídos y
transferidos) por segundo. Para que esto ocurra, el disco en el centro gira a una cierta velocidad angular
(vueltas por segundo), que debe disminuirr permanentemente a medida que la cabeza se aleja rectilineamente
hacia el borde del disco.
Resulta así, que la velocidad de rotación variable de un CD no se debe a su pista en espiral. Del mismo modo,
en un disquete, un sector más interno ocupa menos longitud de pista (mayor densidad de bits por cm) que
otro más externo (menor densidad).
Sintetizando: por girar un CD a velocidad angular variable, y ser escrito a velocidad linear constante, se
escriben (y leen) la misma cantidad de bits por segundo y por centímetro, cualquiera sea el sector del mismo
Los sectores grabados, por contener igual cantidad de bytes, presentarán igual longitud en centímetros, dado
que la cantidad de bits por centímetro es igual en cualquier porción de la espiral. El número de sectores
escritos en cada vuelta de la espiral es un número variable, y en general no entero.
¿Cómo se lee un CD en una unidad lectora de CD-ROM, sea simple, 2x, 4x,... 12x ...?
En un tipo de mecanismo corriente, al apretar un botón la bandeja de inserción ("caddy") sale hacia fuera, y el
CD es puesto en ella. Al pulsar nuevamente dicho botón, la bandeja vuelve hacia adentro.
En un determinado momento de su trayecto empuja también hacia adentro a dos "mandíbulas" que se cierran
paulatinamente (como una dentadura), hasta que el agujero central del disco queda prisionero (a través del
hueco la bandeja) entre dos piezas circulares giratorias imantadas, vinculadas a esas mandíbulas. Así el disco
queda centrado, y levantado respecto de la bandeja, a fin de no rozarla al girar.
Más en detalle, al final del recorrido de la bandeja -cuando se cierran por completo las mandíbulas- la pieza
circular ligada a la mandíbula superior atrae magnéticamente al cuerpo de la pieza circular de la mandíbula
inferior, vinculada al eje de un motor de giro, para asegurar que el borde interno del disco quede aprisionado
entre dichas piezas, a fin de que pueda girar correctamente y esté centrado, como se planteó.
La mandíbula inferior presenta una base que contiene el motor de giro, el cabezal con el láser, y un sistema
con dos guías para desplazar hacia atrás o adelante (mediante otro motor) el cabezal respecto a esta base, en
dirección radial al disco. Además existe un bus flexible, para conectarla a la electrónica IDE.
Para que en todos los puntos grabados en espiral en el CD pueda incidir el haz láser generado por el cabezal,
a medida que éste avanza radialmente hacia el borde del CD, se disminuye la velocidad de giro del disco; e
inversamente, si el cabezal avanza hacia el centro, el CD debe girar más rápido. O sea, que al pasar el haz de
un punto al siguiente de la espiral grabada, la velocidad de giro del disco ya varió.
El cabezal está a 1 mm. de la superficie del CD, generando un haz láser infrarrojo no visible, de baja potencia
(pero peligroso para la vista), con un sistema de autoenfoque automático permanente en la capa de aluminio
del CD, para incidir sobre "pits" y "lands" de la espiral grabada en esta capa.
Si en su movimiento rectilíneo radial a velocidad constante, el punto luminoso del haz incide en un "land" de la
espiral grabada (cuya velocidad de rotación varía constantemente), el haz láser es reflejado por el aluminio,
con mayor intensidad que si incide en un “pit”.
Un diodo fotosensor detecta estas diferencias de intensidad de luz láser reflejada, a fin de recuperar -bajo la
forma de impulsos eléctricos- los ceros y unos almacenados. Dichos pulsos según su duración representan
distinto número de ceros, mientras que tanto el comienzo como el final de un pulso representa un uno.
A un nivel de mayor detalle, en el cabezal existe un sistema de lentes móviles no dibujado -gobernado por la
electrónica de la unidad lectora de CD, basada en un microprocesador- que tiene como función enfocar el haz
láser en cada punto de la espiral grabada, formada en la capa metálica del CD. Esto es necesario, dado que el
CD no es perfectamente plano, por presentar deformaciones (± 0,6 mm) por el proceso de fabricación.
También dicha electrónica comanda otro subsistema para desplazar levemente el haz sobre la superficie
grabada del CD, de modo que en la lectura el haz siga correctamente sobre la pista en espiral grabada.
Los CD que almacenan 650 MB y 1,3 GB se graban típicamente según al método PPM (pulse position
modulation) por el cual se representa un uno haciéndole corresponder un "land" de la espiral, al cual sigue un
número de ceros representados por la longitud del "pit" que sigue a dicho "land". Los bytes a grabar están
recodificados según el código EFM, a tratar.
En la lectura de un CD el diodo láser del cabezal genera un haz de luz láser infrarrojo perpendicular a la
superficie del disco. En su camino hacia el disco, atravesará un prisma triangular sin desviarse, y luego pasará
Atravesando esta capa los rayos se difractan (desvían), llegando luego a tener el haz un diámetro de unas 0,8
milésimas de mm. Cuando incide sobre la pista en espiral (cuyo ancho es de 0,5 milésimas).
En PPM un "land" es menor que 0,8 milésimas, por lo que el haz mmca puede incidir totalmente en un "land":
parte de los rayos incidirán en el "land", y parte en el "pit" vecino. Dado que un "pit" está a una profundidad de
un cuarto de longitud de onda de un "land", la porción de rayos que inciden en el "pit”, antes de hacerlo
recorren un cuarto de onda más que los que inciden en el "land". El haz luego de incidir en el aluminio, se
reflejará. Los rayos que incidieron en el "pit" después de reflejarse harán nuevamente un cuarto de onda más
de camino que aquellos que incidieron en el "land".
En definitiva, los rayos incidentes en el "pit" recorrerán media onda (un cuarto más un cuarto) más que los
incidentes en el "land". El efecto resultante, es que el haz que incide parte en un "land" y parte en un "pit", al
ser reflejado, llega al diodo fotosensor con muy poca intensidad luminosa (luego de pasar por el objetivo y ser
reflejado por la cara de un cristal que por su inclinación oficia de espejo), por anularse entre sí los rayos
desfasados en media onda provenientes del "land" y del "pit".
En cambio, cuando el haz incide en un "pit", en cada punto del mismo todos los rayos reflejados recorrerán la
misma distancia, reforzándose mutuamente (todos en fase) provocando una fuerte intensidad luminosa al
llegar al fotodiodo.
El método de registro PWL (Pulse Width Modulation) permite una mayor densidad de almacenamiento. Los
“lands” dejan de servir para codificar un solo uno, pudiendo codificar uno o más ceros como los "pits". La
transición de “pit" a "land" o la inversa codifica un uno; y la distancia entre dos transiciones (dos unos)
representa un cierto número de ceros, según sea su longitud (y el tiempo transcurrido).
Existen unidades lectoras CD-ROM de tipo 2x, 4x, 6x y 8x,.... de doble, cuádruple, séxtuple, óctuple, ...
velocidad que la velocidad simple de una unidad CD de audio estándar, respectivamente. Las mismas tienen,
en consecuencia, tiempos de acceso y transferencia respectivamente más rápidos que la velocidad CD
estándar.
Por ejemplo, las del tipo 6x tienen un tiempo de acceso de unos 120 mseg (para 1/3 de carrera del cabezal
entre extremos, que se duplica si la carrera es entre extremos), y velocidad de transferencia de 900 Kbytes/seg,
casi 1 MByte/seg (contra 600 Kbytes/seg de las 4x, en correspondencia con el 50% de diferencia de velocidad).
Las unidades 6x presentan un buffer de datos de 256 Kbytes.
En la performance de una lectora intervienen la eficiencia del controlador y e1 tamaño del buffer.
¿Cómo son y se escriben los CD para grabación por un usuario designados CD-R?
Un CD-R (CD Recordable, o sea grabable) puede grabarse por cualquier usuario que tenga conectado en su
computadora el periférico "unidad grabadora de CD" (u optar por pagar este servicio).
En ésta, un haz láser graba en una espiral parcialmente pregrabada de fábrica -construida en una capa de
material orgánico- un equivalente de “pits" y "lands", requeridos para almacenar los datos. Dicha espiral ya
viene formateada por hardware con las direcciones de los sectores, y sirve de guía para el láser. El CD-R sobre
dicha capa orgánica con la espiral, que es translúcida, presenta otra capa de oro para reflejar el haz láser en
cada lectura. Estas dos capas están protegidas por otras de policarbonato. La capa orgánica translúcida es de
resina o pigmento verde (generalmente cyanina). Durante el proceso de grabación de los datos, el equivalente
Después de ser grabado, un CD-R se convierte de hecho en un CD-ROM, que puede leerse en cualquier unidad
lectora de estos discos -de la forma antes descripta- sin posibilidad de ser regrabado.
Para la lectura de cada punto de la espiral, el haz láser incidente atraviesa la capa de policarbonato
transparente y la capa de pigmento, hasta llegar a la capa superior metalizada cm oro, donde se refleja (en
ella está enfocado). El haz reflejado -correspondiente al punto leído- es sensado por un fotodiodo, pasando
ahora primero por la capa de pigmento y luego por la transparente. Según que el punto de la capa de
pigmento por donde pasó el haz incidente (y retomó reflejado) esté decolorado ("pit") o no ("land"), el haz
reflejado tendrá distinta intensidad, lo cual será detectado por el fotodiodo. Puntos sucesivos de igual
intensidad luminosa constituirán un "pit" o un "land", según el valor de la intensidad detectada.
No es necesario grabar toda la espiral de un CD-R de una sola vez (sesión). Es factible hacerlo en tantas
"sesiones" como archivos se quiera incorporar a lo largo del tiempo, hasta completar la capacidad del CD-R
(como ser, 650 MB).
Una vez grabada una porción de la espiral, no puede borrarse y ser regrabada. Por tal motivo, los CD-R
también se denominan CD-WO (Write Once, o sea de una escritura). Esta imposibilidad de regrabación ha
motivado su uso en el ámbito contable y financiero, pues garantiza datos no borrables para auditorias. Por lo
general, los CD-R se reconocen a primera vista, por el color dorado de su etiqueta.
Los primeros 4 mm de ancho radial de una espiral de un CD-R o de un CD-ROM constituyen el "lead in", que
antecede a la zona de datos. Esta es de unos 29 mm de ancho, y le sigue el "lead out" de 1 mm.
En un CD-R, el “lead-in” es precedido por dos áreas necesarias para alinear el haz láser a fin de poder grabar lo
que sigue. Cada sesión de grabado de la espiral debe comenzar con la escritura de un "lead in", y terminar con
la de un "lead out". A su vez, cada “lead in” debe contener la tabla de contenidos ("Tabla of contents" TOC),
índice de los datos grabados en la sesión correspondiente.
Debe mencionarse que un CD-R grabado en "multisesiones" debe ser leído por un lector de CD-ROM apropiado
(como son los actuales). De no serlo, sólo leerá la primer sesión.
Existen grabadoras/lectoras de CD-R de varias velocidades (x1, x2, x4 ... ). A mayor velocidad debe usarse un
láser más potente para producir más calor, de forma de poder atacar adecuadamente los puntos requeridos
en la espiral. Existen discos vírgenes CD-R para distintas velocidades, cuyo sustrato disipa distinta cantidad de
calor en correspondencia con su velocidad de grabación.
Los discos WORM ("Write Once Read Many") fueron los precursores de los CD-R. La tecnología WORM no está
normalizada: ciertos discos sólo pueden insertarse en unidades de un determinado fabricante. Estos discos
son de 5 1/4", y vienen en "cartuchos" semejantes a los de plástico que protegen los disquetes magnéticos de 3
1/2", para ser insertados en las unidades correspondientes. Además existen discos con datos grabados en
espiral, y otros con pistas concéntricas. Según la norma seguida por los fabricantes, un cartucho de 5 1/4"
puede tener ya sea 640 MB ó 1,2 GB. Discos de 12" usados en redes pueden guardar más de 6 GB.
Por su capa orgánica los CD-R no deben ser expuestos a excesivo calor (por ejemplo dentro de un automóvil o
sol directo) o humedad, pues pueden reducir su vida útil, o ser inutilizables por filtraciones de cyanina.
También se debe cuidar de no escribir con bolígrafo su etiqueta, dado que la presión ejercida puede dañarlos.
Una unidad CD-R puede leer un CD-ROM, y viceversa.
Tanto en el CD-ROM grabado en serie por inyección de material, como en el CD-R grabado en una unidad de
grabación, la lectura de los archivos contenidos es casi directa (random), sin tener que empezar a buscar
desde el comienzo de la espiral, merced a que los sectores grabados en ésta son localizables por su dirección.
Cada sector de un CD-ROM o de un CD-R se identifica por una dirección formada por tres números. Volviendo
al CD antes ejemplificado de 60 minutos y 270.000 sectores, los dos números primeros de una dirección son
los minutos y segundos horarios (mm:ss); cada uno puede variar entre 00 y 59 (para indicar 60 números
distintos). A partir del comienzo de la espiral minutos y segundos van progresando en forma absoluta desde
00:00 hasta 59:59 como indicadores de direcciones de los sucesivos sectores de la misma, y sirven de primer
referencia para localizarlos.
Pero para individualizar cada sector hace falta un tercer número, dado que, por ejemplo, si en un CD x1 lee 75
sectores por segundo, suponiendo que un sector se lea luego de transcurridos 23 min. 40 seg. del comienzo
(00:00) de la espiral, los 74 sectores siguientes en su dirección contendrán los números 23:40, puesto que la
menor medida de tiempo en este sistema es el segundo. A fin de individualizar cada uno de los 75 sectores
con dirección 23:40 se agrega otro número designado número de sector, que va de 0 a 74. Entonces, ese
primer sector que está justo en 23:40 tendrá por dirección 23:40 0; el siguiente 23:40 1; y así hasta el 23:40
74, luego del cual seguirá el de dirección 23:41 0, etc. En esencia, es como dividir el segundo en 75 fracciones,
puesto que en un CD x1 cada sector se lee en 1/75 de segundo.
Minutos y segundos pueden combinarse para formar 60 x 60 = 3.600 combinaciones de números distintos.
Cada una de ellas puede asociarse a un número de sector, que va entre 0 y 74 (o sea se pueden indicar 75
números distintos). Por lo tanto, en total pueden formarse 3.600 x 75 = 270.000 combinaciones (direcciones)
distintas, una para cada sector.
00:00 0 00:00 1 00:00 2 ... 00:00 73 00:00 74; y para el siguiente segundo:
00:01 0 00:01 1 00:01 2 ... 00:01 73 00:01 74; y para el siguiente segundo:
00:02 0 00:00 1 00:02 2 ... 00:02 73 00:02 74; y para el siguiente segundo:
00:59 0 00:59 1 00:59 2 ... 00:59 73 00:59 74; y para el siguiente segundo:
01:00 0 01:00 1 00:00 2 ... 01:00 73 01:00 74; y para el siguiente segundo:
01:01 0 01:01 1 00:01 2 ... 01:01 73 01:01 74; y para el siguiente segundo:
01:02 0 01:02 1 00:02 2 ... 01:02 73 01:02 74; y para el siguiente segundo:
Los últimos 75 sectores, del total de 270.000 de la espiral de 60 min. de duración deben tener por dirección:
59:59 0 59:59 1 59:59 2 ... 59:59 73 59:59 74
De esta forma, el sector 155 contado desde el comienzo de la espiral, tendrá por dirección 0:2 4 Suponiendo
que se conoce la dirección del sector al que se ordena acceder (lo cual implica haber consultado un archivo de
subdirectorio, según se verá), el microprocesador de la unidad lectora dará la orden de traslado rápido del
cabezal (según la recta en que se desplaza) a la porción de la espiral donde se encuentra dicho sector, en
función de los minutos y segundos de su dirección. Luego, el haz láser del cabezal (enfocado en la capa
metálica) traspasará la capa transparente protectora, y leerá direcciones de sectores de dicha porción, para
que se puedan hacer ajustes finos del posicionamiento del cabezal (y de la velocidad de rotación), hasta
encontrar el sector al que se quiere acceder.
El tiempo medio de acceso a un sector de la espiral depende que el CD sea x1, x2, x4, etc. Así tenemos:
CD x 1 (velocidad simple), lee 75 sectores/seg, (como los CD-DA) y transfieren 150 KB/seg.
CD x 2 (velocidad doble): tiempo de acceso 400 mseg; lee 150 sectores / seg y transfiere 300 KB / seg.
CD x 4 (cuádruple velocidad): tiempo de acceso 240 mseg; lee 300 sectores/seg y transfiere 600 KB/seg.
La performance de un reproductor de CD-ROM también depende del tamaño del buffer de su interfaz
(típicamente de 256 KB), y de la calidad de su electrónica.
En esencia, la codificación EFM es un caso particular de la llamada "modulación" PCM (Pulse Code Modulation)
usada para codificar información digital.
El hecho de que un CD de audio digital (CD-DA o CD player) pueda ser escuchado en la lectora de CDROM de
una PC implica que la información está estructurado de manera semejante en ambos. En lo que sigue, se
describirá la trama interna de un CD-DA, para luego mostrar su diferencia con el CD-ROM.
Los formatos de los sectores de los distintos tipos de CD tienen un origen común en el CD-DA. En éste un
sector comprende 98 sub-bloques ("frames") iguales codificados en EFM.
Cada "frame" comienza con 27 bits para sincronismo, y luego siguen 17 bits en EFM (1 byte real, con bits
PQRSTUVW) para control. Después siguen 476 bits en EFM (28 bytes reales) compuestos por 24 bytes de datos
mezclados con 4 bytes adicionales para el código detector-corrector de errores designado CIRC (Cross
Interleaved Reed-SalomoW Code). Luego siguen otros 68 bits EFM (4 bytes) de CIRC.
Los bytes de CIRC sirven para asegurar que sólo puede haber un bit errado no corregido por cada 108 bits =
100 millones de bits (1/108 = 10-8) en un CD-DA, lo cual no es perceptible escuchando música, pues cada
segundo se leen 75 sectores. Si un sector está malo el oído no lo nota, dado que el reproductor de CD esta
programado para repetir en este caso el sector anterior.
En total, un "frame" (cuadro/trama) consta de: 27 + 17 + 476 + 68 = 588 bits (en codificación EFM). De
acuerdo con lo anterior, un sector -por contener 98 "frames" con 24 bytes reales para datos cada uno- puede
almacenar en total: 24 x 98 = 2352 bytes de datos.
Dado que la capacidad máxima de un CD-DA puede ser 680 MB, ello implica que consta de: 680 x 1.048.576
bytes/2352 bytes = 300.000 sectores (1 MB = 1.048.576 bytes).
Conforme a lo descripto, la espiral de un CD esta compuesta por una sucesión continua de "frames", siendo
que cada 98 "frames" consecutivos forman un sector (bloque). No existe separación alguna entre un sector y el
siguiente. Se utiliza la zona de datos del primer "frame" de cada sector para guardar información que
identifica dicho sector. (mm:ss y número de sector).
Otra forma de representar un sector sin detallar "frames" concentra en un solo campo los 2352 bytes de datos
del mismo antes calculados, que en realidad están repartidos en sus 98 "frames". También los 4 bytes de CRC,
que aparecen una vez junto con los datos y otra vez solos en cada uno de los 98 "frames", se concentran en
dos campos contiguos, cada uno agrupando un total de 4 x 98 = 392 bytes Los 8 bits PQRSTUVW del byte de
control de cada "frame", llamado "subcódigo", en un sector totalizarán: 1 x 98 = 98 bytes de control. Los bits
Todos los bits P de los 98 "frames" de un sector, constituyen el "subcanal P" del mismo (que se conoce
totalmente cuando se termina de leer dicho sector), el cual indica si el sector contiene música o datos para
computación. Los datos de un subcanal P a lo largo de un CD (compuesto por los bits P de todos los sectores)
pueden Regar a 4 MB. Del mismo modo, los 98 bits designados Q conforman el "subcanal Q".
En los subcanales o subcódigos P y Q, que entre otras cosas indican si la grabación es de 2 ó 4 canales, el tipo
de pre-énfasis empleado en la grabación musical, si se trata de sectores en blanco entre temas musicales, el
número de tema grabado, y la codificación que sirve para visualizar en el reproductor tiempos en mm:ss.
Con los 6 bits R a W de los 98 sub-bloques se forma un subcanal auxiliar menos utilizado, con información
para sincronización, identificación y otros fines.
Usando los subcanales es factible almacenar, además de la música, imágenes fijas (unas 700) o móviles.
Cada sector consta de 588 x 98 = 57.624 bits. Multiplicando este valor por los 300.000 sectores de un CD,
resulta un total cercano a los 20 mil millones de bits, de los cuales sólo 680 MB son para datos del usuario
Este tipo de CD puede guardar 650 MB en un disco de 74 minutos, y 553 MB en discos de 60 minutos.
Hasta acá el CD-DA. Los CD-ROM y los CD-R presentan la misma Estructura de 98 "frames" por sector.
Pero el error de un bit cada 108, admisible en un CD-DA, no puede ocurrir en un CD-ROM usado en
computación, en especial si contiene archivos de programas. En un CD-ROM conservar la integridad de los
datos guardados es más crítica que en un disco rígido, dado que si en este último se tiene sectores malos,
esto puede subsanarse copiándolos en otros sectores, lo cual no es factible de realizar con los datos de un CD-
ROM.
Por ello, en el formato "modo 1" de un CD-ROM, que es el más universal, además del código CIRC existente en
cada "frame" (igual al visto en un CD-DA), se usan 288 bytes de los 2352 bytes para datos, a fin de realizar una
corrección adicional sobre todo el sector. Esta se lleva a cabo luego que se hicieron las correcciones CIRC en
cada "frame" del sector, mediante sus dos CIRC, como se describió en el pie de página anterior. Estos 288
bytes constan de 4 bytes de código detector errores (EDC), más 8 bytes cm ceros, más 276 bytes de código
corrector. De este modo, sólo es factible un bit errado por cada 10.000.000.000.000 de bits (1/1013 = 10-13),
o más. Un lector de CD-DA no puede interpretar estos 288 bytes (escritos con los datos), por lo que no puede
leer un CD-ROM. A diferencia, un lector de CD-ROM puede leer un CD-DA.
En un CD-ROM, en un CD-R, como en un CD-DA, de los 2352 bytes de datos del sector, deben destinarse al
comienzo, en la zona de datos del primer frame, 12 bytes para sincronismo del sector (que existen además de
los bits de sincronismo de cada "frame" del mismo), y 4 bytes para el encabezamiento ("header"). Este contiene
en 3 bytes los valores de minutos (mm), segundos (ss), y números (de 0 a 74) descriptos, que identifican cada
sector. El cuarto byte indica el "modo".
Por lo tanto, cada sector de un CD-ROM "modo 1" guarda en neto: 2352 - 12 - 4 - 288 = 2048 bytes reales (2
K) de datos.
Puesto que un sector de un CD-DA o CD-ROM, o CD-R presenta 98 "frames" de 24 bytes de datos, y se leen 75
sectores/seg (CD-ROM x1), para esta velocidad de lectura corresponde una velocidad de transferencia de (98 x
24) Bytes/sector x 75 sectores/seg = 176.400 Bytes/seg. (que se duplica, triplica, etc., para 2x, 3x ... ).
También existe el formato CD-ROM X-A (de extended Architecture), para multimedia, que agrega un campo
de 8 bytes ("sub-header"), quedando libres 2324 bytes para datos. Permite reunir secuencias de video
sincronizadas con texto y sonido comprimidos.
Los reproductores de CD actuales pueden leer CD-ROM, CD-R (de varias sesiones), CD-ROM X-A, Photo CD,
Video-CD, CD-I, CD-plus, y CD-DA.
¿Qué es el formato lógico HSG/ISO 9660 para organización interna de un CD-ROM usado en sistemas
operativos para almacenar archivos?
Las siglas HSG hacen mención al High Sierra Group, grupo de fabricantes de hard y soft que se reunió en el
High Sierra Hotel de Nevada en 1985, para establecer normas de compatibilidad entre CDs. Estas con muy
pocas variantes constituyera luego el estándar ISO 9660. De ahí la denominación HSG/ISO 9660. Este estándar
sirve para acceder a archivos en un CD-ROM, a través del DOS u otro sistema operativo de uso en una PC.
Según el mismo, un sistema operativo -para almacenar la información o leerla- "ve" un CD-ROM conformado
por una sucesión de sectores lógicos de 2048 bytes (2KB) como en una cinta magnética, constituidos a su vez
por 4 bloques lógicos de 512 bytes.
Tanto los sectores lógicos como los bloques lógicos se numeran 0,1,2... Estos números identificatorios se
denominan Logical Sector Numbers (LSN), y Logical Blocks Numbers (LBN), respectivamente.
Resulta, pues, que el tamaño de un sector lógico (2 KB) coincide cm el de un sector antes definido, también
llamado sector físico, siendo que en un sector físico entran 4 bloques lógicos de 512 bytes.
El sector lógico 0 (SLN 0) se encuentra luego que pasaron 150 sectores físicos, en el sector físico de dirección
00:02 0, o sea en el sector que está a 2 seg. del comienzo del CD, suponiendo que pasan 75 sectores por
segundo por el punto de incidencia del rayo láser enfocado en la espiral.
Mediante un simple cálculo, con el SLN se puede hallar la dirección del sector físico que le corresponde.
Según se vio, en un disquete o en un disco rígido un archivo puede estar fraccionado: parte en sectores
consecutivos de un cilindro, y parte en sectores consecutivos de otro(s) cilindro(s). Ello depende del espacio
existente cuando fue creado, de su extensión, y del hecho de que si el archivo fue ampliado en distintas
oportunidades, en el lapso transcurrido entre éstas fueron creados o borrados otros archivos.
En un CD la espiral una vez grabada no puede borrarse (sea del tipo CD-ROM grabado por inyección en un
molde patrón, o un CD-R). Cada archivo guardado en el CD consta de varios sectores consecutivos de la
espiral, sin posibilidad de fragmentación, ni de cambios (gran estabilidad). Resulta así sencillo ubicar en un CD
todos los bloques lógicos que constituyen un archivo, pues basta indicar la ubicación del primero de ellos y el
número total de tales bloques.
Por lo tanto, un CD no requiere de una tabla tipo FAT, necesaria para seguir la continuidad de un archivo que
se encuentra fraccionado en distintos cilindros de un disco o disquete.
Conforme al estándar HSG, pueden existir en el área del sistema un "boot sector", y hasta 5 descriptores de
volumen distintos, que informan sobre distintos atributos del CD, siendo obligatoria la existencia del VD
estándar. Esta información debe estar en sectores consecutivos, a partir del SLN 0, al final de los cuales un
sector lógico debe indicar el fin de la secuencia de sectores ocupados en el área del sistema.
Los descriptores de volumen posibilitan la creación de varios directorios en un CD (o para un grupo de CD)
¿Qué son las técnicas magneto-ópticas (MO) y de cambio de fase usadas en discos ópticos borrables?
Los discos borrables magneto-ópticos (M0) presentan una fina capa de material magnetizable y reflectante,
protegida entre dos capas de material plástico transparente. La capa magnetizaba guarda la información en
pistas concéntricas, que se graban y leen a velocidad angular constante (CAV: constant angular velocity) como
ocurre en los discos magnéticos. También como en éstos, mientras el disco gira, el cabezal primero se
posiciona en la pista a la que se quiere acceder, quedando inmóvil sobre ella (al igual que el cabezal de los
discos magnéticos), y luego busca al sector (de 512 ó 1024 bytes) direccionado.
En la escritura un cabezal con un haz láser auxilia con calor puntual la grabación N-S o S-N que llevará a cabo
un campo magnético. Dicho haz, en la lectura de un sector, al ser reflejado por la capa magnetizada servirá
para detectar si el punto donde incidió tiene polarización magnética correspondiente a un uno o cero.
El tiempo de acceso puede ser hoy de 30 mseg. para discos MO de 3 1/2", y velocidades de 3000 r.p.m.
Los discos MO se alojan en los denominados "cartuchos" (“cartridges"), semejantes a los que protegen
disquetes magnéticos. Pueden grabarse y leerse en ambas caras, pero en el presente de a una por vez,
debiéndose extraer el disco para darlo vuelta y reinsertarlo. Existen discos MO de 5 1/4", con 325 ó 650 MB
por cara; y de 3 1/2" con 128 MB por cara.
Dado que no existen aún normas acordadas mundialmente, puede ocurrir que un disco MO de un fabricante
no funcione en una unidad para tales discos de otra marca.
Como se detallará, en la grabación de unos y ceros de un sector, debe generarse un campo magnético de
polaridad adecuada mediante un electroimán, como en los discos magnéticos.
Pero para que tal grabación sea posible, debe acompañar al campo magnético un haz láser puntual de cierta
potencia, perpendicular a la pista, que caliente los puntos de ésta (dominios mgnéticos) que son
magnetizados como ceros o unos. Esto permite una mayor densidad de grabación, especial en el números de
pistas por pulgada (t.p.i).
Para regrabar (o grabar en un disco virgen) información en un sector, una forma de hacerlo es realizando dos
pasos (previamente el cabezal debe acceder al sector a grabar):
1. Un denominado borrado, que en definitiva es una escritura de todos ceros en la porción de la capa
magnetizable a grabar. Consiste en calentar con el láser' los puntos microscópicos magnetizados que guardan
tanto los unos como los ceros existentes en la porción a grabar (lo mismo si se graba por primera vez), al
mismo tiempo que se aplica un campo magnético con el electroimán que actúa desde la cara superior del
disco. El láser puntual calienta (a unos 150 ºC durante menos de una millonésima de segundo) cada punto a
fin de desmagnetizarlo, para que luego quede polarizado magnéticamente S-N como un cero, merced a la
acción del campo magnético del electroimán citado. Aunque dicho campo actúe sobre otros puntos vecinos,
sólo puede ser cambiada la polaridad magnética del punto que es calentado por el láser.
La bobina del electroimán sobre el disco genera el campo rnagnetizador externo -usado sólo para grabar- que
es vertical a la pista accedida.
2. Escritura de unos, para lo cual el disco debe hacer casi una revolución para volver al inicio de la zona del
sector a grabar. En este paso el electroimán invierte la polaridad del campo magnético que genera, y el haz
puntual es activado por el microprocesador, sólo para calentar puntos que deben ser cambiados a unos
(magnetizados como ceros en el paso anterior) conforme a la información que debe ser realmente escrita.
Esto se hace igual que en el paso 1. Lo único que cambia es la dirección de la corriente en el electroimán. En
dichos puntos la dirección de magnetización se invierte en la dirección del campo magnético externo. La
energía calorífico absorbida es disipada merced a la conducción técnica del sustrato del disco.
Tanto en la escritura de unos o ceros la polarización resultante N-S o S-N es perpendicular a la superficie,
como en los discos rígidos actuales, a fin de lograr una mayor densidad de grabación.
En una lectura, el cabezal se posiciona en la pista a leer, y genera un haz de luz láser, de baja potencia
siempre activado, el cual polarizado' es enfocado en esa pista de la superficie metálica, antes magnetizada
según los dos pasos citados. El haz láser al ser reflejado en dicha superficie permite detectar indirectamente la
polaridad magnética (N-S ó S-N) de cada uno de los puntos de la pista, o sea si representa un uno o un cero.
Esto se debe a que el plano de polarización del haz reflejado rota un pequeño ángulo en sentido horario o
antihorario según la polaridad del campo magnético existente en cada punto donde el haz incidió. Tal
diferencia de rotación del haz reflejado se manifiesta en un cambio en la intensidad de luz que detecta un
diodo sensor, ubicado en el cabezal, que convierte este cambio en una señal eléctrica.
En el presente existen discos MO de escritura en una sola pasada (DOW: Direct Overwriter o LIMDOW: Light
Intensity Modulation Direct Overwriter), o sea de sobreescritura directa Una técnica consiste en agregar una
capa MO adicional, paralela a la que actúa como memoria propiamente dicha, para que puntos de ésta
puedan ser puestos a cero por la capa adicional.
00000000 01001000100000
00000001 10000100000000
00000010 10010001000000
00000011 1001000100000
00000100 01000100000000
00000101 00000100010000
00000110 00010000100000
00000111 00100100000000
00001000 01001001000000
00001001 10000000100000
00001010 10010000100000
11100010 10010001000010
Debido a la cantidad de información que manejamos actualmente, los dispositivos de almacenamiento se han
vuelto casi tan importantes como el mismísimo computador.
Aunque actualmente existen dispositivos para almacenar que superan las 650 MB de memoria, aún seguimos
quejándonos por la falta de capacidad para transportar nuestros documentos y para hacer Backups de nuestra
información más importante. Todo esto sucede debido al aumento de software utilitario que nos permite, por
dar un pequeño ejemplo, convertir nuestros Cds en archivos de Mp3.
El espacio en nuestro Disco duro ya no es suficiente para guardar tal cantidad de información; por lo que se
nos es de urgencia conseguir un medo alternativo de almacenamiento para guardar nuestros Cds en Mp3 o
los programas que desacargamos de Internet.
la tecnología óptica de almacenamiento por láser es bastante más reciente. Su primera aplicación comercial
masiva fue el superexitoso CD de música, que data de comienzos de la década de 1.980. Los fundamentos
técnicos que se utilizan son relativamente sencillos de entender: un haz láser va leyendo (o escribiendo)
microscópicos agujeros en la superficie de un disco de material plástico, recubiertos a su vez por una capa
transparente para su protección del polvo.
Realmente, el método es muy similar al usado en los antiguos discos de vinilo, excepto porque la información
está guardada en formato digital (unos y ceros como valles y cumbres en la superficie del CD) en vez de
analógico y por usar un láser como lector. El sistema no ha experimentado variaciones importantes hasta la
aparición del DVD, que tan sólo ha cambiado la longitud de onda del láser, reducido el tamaño de los
agujeros y apretado los surcos para que quepa más información en el mismo espacio.
Disco de vídeo digital, también conocido en la actualidad como disco versátil digital (DVD), un dispositivo de
almacenamiento masivo de datos cuyo aspecto es idéntico al de un disco compacto, aunque contiene hasta
25 veces más información y puede transmitirla al ordenador o computadora unas 20 veces más rápido que un
CD-ROM. Su mayor capacidad de almacenamiento se debe, entre otras cosas, a que puede utilizar ambas
caras del disco y, en algunos casos, hasta dos capas por cada cara, mientras que el CD sólo utiliza una cara y
una capa. Las unidades lectoras de DVD permiten leer la mayoría de los CDs, ya que ambos son discos ópticos;
no obstante, los lectores de CD no permiten leer DVDs.
En un principio se utilizaban para reproducir películas, de ahí su denominación original de disco de vídeo
digital. Hoy, los DVD-Vídeo son sólo un tipo de DVD que almacenan hasta 133 minutos de película por cada
cara, con una calidad de vídeo LaserDisc y que soportan sonido digital Dolby surround; son la base de las
instalaciones de cine en casa que existen desde 1996. Además de éstos, hay formatos específicos para la
computadora que almacenan datos y material interactivo en forma de texto, audio o vídeo, como los DVD-R,
unidades en las que se puede grabar la información una vez y leerla muchas, DVD-RW, en los que la
información se puede grabar y borrar muchas veces, y los DVD-RAM, también de lectura y escritura.
En 1999 aparecieron los DVD-Audio, que emplean un formato de almacenamiento de sonido digital de
segunda generación con el que se pueden recoger zonas del espectro sonoro que eran inaccesibles al CD-
Audio.
Todos los discos DVD tienen la misma forma física y el mismo tamaño, pero difieren en el formato de
almacenamiento de los datos y, en consecuencia, en su capacidad. Así, los DVD-Vídeo de una cara y una capa
almacenan 4,7 GB, y los DVD-ROM de dos caras y dos capas almacenan hasta 17 GB. Del mismo modo, no
todos los DVDs se pueden reproducir en cualquier unidad lectora; por ejemplo, un DVD-ROM no se puede leer
en un DVD-Vídeo, aunque sí a la inversa.
Disco
compacto 650 Mb 1 h 18 min. 15 min. 1
(CD)
DVD doble
cara / una 9,4 Gb 19 h 4 h 30 min. 14
capa
DVD doble
cara / doble 17 Gb 35 h 8h 26
capa
Dispositivos Periféricos.
Jaz (Iomega) - 1 GB ó 2 GB
Las cifras de velocidad del Jaz son absolutamente alucinantes, casi indistinguibles de las de un disco duro
moderno: poco más de 5 MB/s y menos de 15 ms. La razón de esto es fácil de explicar: cada cartucho Jaz es
internamente, a casi todos los efectos, un disco duro al que sólo le falta el elemento lector-grabador, que se
encuentra en la unidad.
Por ello, atesora las ventajas de los discos duros: gran capacidad a bajo precio y velocidad, junto con sus
inconvenientes: información sensible a campos magnéticos, durabilidad limitada en el tiempo, relativa
fragilidad. De cualquier forma, y sin llegar a la extrema resistencia de los discos Zip, podemos calificar este
soporte de duro y fiable, aunque la información nunca estará tan a salvo como si estuviera guardada en un
soporte óptico o magneto-óptico.
Aplicaciones
Almacenamiento masivo de datos que deben guardarse y recuperarse con la mayor velocidad posible, lo cual
lo hace ideal para la edición de vídeo digital (casi una hora en formato MPEG); en general, sirve para lo mismo
que los discos duros, pero con la ventaja de su portabilidad y fácil almacenaje.
Las unidades Zip se caracterizan externamente por ser de un color azul oscuro, al igual que los disquetes
habituales (los hay de todos los colores). Estos discos son dispositivos magnéticos un poco mayores que los
clásicos disquetes de 3,5 pulgadas, aunque mucho más robustos y fiables, con una capacidad sin compresión
de 100 MB una vez formateados.
Su capacidad los hace inapropiados para hacer copias de seguridad del disco duro completo, aunque
perfectos para archivar todos los archivos referentes a un mismo tema o proyecto en un único disco. Su
velocidad de transferencia de datos no resulta comparable a la de un disco duro actual, aunque son decenas
de veces más rápidos que una disquetera tradicional (alrededor de 1 MB/s).
Existen en diversos formatos, tanto internos como externos. Los internos pueden tener interfaz IDE, como la
de un disco duro o CD-ROM, o bien SCSI; ambas son bastante rápidas, la SCSI un poco más, aunque su precio
es también superior.
Las versiones externas aparecen con interfaz SCSI (con un rendimiento idéntico a la versión interna) o bien
conectable al puerto paralelo, sin tener que prescindir de la impresora conectada a éste. El modelo para
puerto paralelo pone el acento en la portabilidad absoluta entre ordenadores (Sólo se necesita que tengan el
puerto Lpt1) aunque su velocidad es la más reducida de las tres versiones. Muy resistente, puede ser el
acompañante ideal de un portátil.
Ha tenido gran aceptación, siendo el estándar en su segmento, pese a no poder prescindir de la disquetera de
3,5" con la que no son en absoluto compatibles, aunque sus ventajas puede que suplan este inconveniente. El
precio de la versión interna ronda los $262.500 (más IVA) y los Discos alrededor de $35.000 (más IVA).
Muchas de las primeras unidades Zip sufrían el denominado "mal del click", que consistía en un defecto en la
unidad lectora-grabadora que, tras hacer unos ruiditos o "clicks", destrozaba el disco introducido;
afortunadamente, este defecto está corregido en las unidades actuales. En todo caso, los discos son bastante
resistentes, pero evidentemente no llegan a durar lo que un CD-ROM.
CD ROM
La instalación de una unidad CD-ROM /CD-RW / DVD, es similar. La diferencia esta en que las unidades
grabadoras y DVD complementan su instalación con su Software propio (el del fabricante de la unidad). Los
pasos para instalarla son:
1. Hay que verificar la condición de SLAVE (esclavo) del CD-ROM. Es el estado por "default" al salir de fábrica,
ideal para ensamblarlo en el PC. Se verifica observando por la parte posterior, la instrucción para posicionar
el jumper (puente) de configuración (ver imagen adjunta).
2. Identificamos el pin1 del conector de señales en el CD-ROM. El pin 1 en el CD rom al igual que en los
discos duros se ubica siempre, en el conector de entrada de señales junto al conector de entrada de
corriente.
4. Insertamos el conector del cable de señales en el CD-ROM. Solo tienes que ubicar en la correa de señales
del disco duro, un conector que esté libre para enchufarlo en el CD-ROM, orientando el pin 1. El pin 1 está
marcado en un borde con color rojo o azul. Tanto el CD-ROM como el disco duro, utilizan el mismo tipo de
cable de señales para comunicarse con la motherboard, y ambos se conectan a la motherboard a través de un
puerto IDE.
7. Instala el Software de la unidad según las instrucciones del fabricante, cuando se trata de unidades CD-R
(grabadoras), CD-RW (reescribibles) y DVD.
1. Ejecuta la lectura de varios CD que estén en perfectas condiciones. (sin rayones). Lee bien todos?, significa
que hay problemas de lectura con los otros CD. Lee bien sólo algunos? pasa al punto 2.
2. Limpia el cabezal con un CD especial para limpieza de CD-ROM. Si la falla persiste, sigue al paso 3.
3. Configúralo como Master y cámbialo de puerto IDE (necesitarás otro cable de señales). Persiste la falla?
pasa al punto 4.
4. Instala la unidad en otro PC, como SLAVE. Persiste la falla?, significa que la unidad tiene un desgaste en el
mecanismo láser (el diodo láser pierde ganancia y el polvillo ambiental aumenta la fricción por deslizamiento
de la unidad) y por lo tanto necesita servicio especializado: hay que abrir la unidad CD-ROM para LIMPIARLA y
LUBRICARLA.
DVD ROM
Atención: cualquier manipulación sobre aparato eléctrico o maquinaria exige que previamente se apague y
desenchufe, así como especial cuidado en el momento inicial de volver a enchufar y encender.
Se recomienda el uso de una pulsera antiestática, así como desenchufar todos los equipos conectados a la
caja del PC (conviene previamente tomar buena nota en una libreta de todas las conexiones).
... continúo
desconectando el ... y el conector de alimentación
... foto de la conexión cable plano IDE: sale ... foto de conexión de de 5 y 12 Voltios: está muy duro,
de audio analógica tirando con cuidado cable plano IDE DMA también hay tirar con cuidado un
desmontada ... un poco de un lado y 33 desmontada ... poco de un lado y luego del otro,
luego del otro ... hasta aflojarlo
Comentarios adicionales:
Este se ha comportado razonablemente bien, con algunos fallos en películas de mucha acción (sobre todo el
sonido), que, dependiendo de lo exigente del criterio, pueden ser tolerables o no. Es probable que PC's de
características inferiores a éste presenten limitaciones mayores.
En mi opinión, la calidad de video en la pantalla del PC es realmente buena, superior a cualquier TV.
Dado el precio de las grabadoras y discos DVDR a fecha de la última revisión de este reportaje, su extensión es
imparable. En este caso, es útil el software -gratuíto, a pesar de su extraordinaria calidad- DVD SHRINK (shrink
significa encoger), que, por ejemplo, usa directamente el módulo de grabación o quemado del Nero y permite
meter cualquier cosa en 4,7 GB.
No obstante, para ver películas en DVD y DIVX en entorno familiar me parece más práctico montarse un cine
en casa, ver nuestro reportaje:
• Configuración.
Otro aspecto que vamos a comentar es el tipo de formatos que será capaz de leer / grabar. Es interesante que
sea capaz d cumplir con todos:
- ISO 9660: Imprescindible. La mayor parte de los demás son modificadores de este formato.
- CD-XA y CD-XA entrelazado: CD's con mezcla de música y datos.
- CD Audio: Para escuchar los clásico Compact Disc de música.
- CD-i: Poco utilizado.
- Vídeo-CD: Para peliculas en dicho formato.
- Photo-CD Multisesión: Cuando llevas a revelar un carrete puedes decir que te lo graben en este formato.
Software
En el caso de las regrabadoras necesitaremos un software de la casa Adaptec, llamado DirectCD, que será el
encargado de poder utilizar nuestra unidad como si de un disco duro se tratara. Normalmente este software
ya nos vendrá con la unidad que compremos. Actualmente se utiliza la versión 2.0.
Software-CD-ROM
AcceleratedCD for Windows NT: Acelera el acceso al CD-ROM usando el disco duro como memoria cache en la
que almacena los datos más solicitados. Utiliza para ello un algoritmo "inteligente".
CD-Quick cache for Windows 95/98: Acelera el acceso al CD-ROM usando el disco duro o incluso la memoria
RAM como cache en la que almacena los datos más solicitados. La cache es "persistente", recordando los datos
de hasta 256 CD-ROM's distintos. Es shareware y caduca a los 30 días.
CheckCD: Programa para medir las prestaciones de nuestra unidad de CD-ROM. Muestra la velocidad de
transferencia, el tiempo de acceso y los sectores defectuosos. Está en un archizo ZIP de 128 Kb.
Nero 5.0: Uno de los mejores programas en su género. Permite grabar dos CD a la vez si contamos con dos
unidades. Permite grabar discos VCD y SVCD con compresión MPEG-2. Soporte para archivos VQF y listas M3U
(las del WinAmp). Esta versión que se puede descargar gratuitamente está limitada a 30 usos.
El programa de instalación es un archivo de 4,8 MB. También es necesario bajarse este parche si queremos
trabajar con la versión en español.
NTI CD-Maker 2000: Bastante completo. Vale la pena probarlo. Permite grabar directamente desde cualquier
fuente de sonido, por ejemplo un disco de vinilo directamente al CD sin necesidad de pasar por el disco duro.
La versión que os podéis descargar es completamente funcional, pero sólo por un plazo de 30 dias.
El archivo a "bajar" es un ejecutable de unos 6,7 MB.
CloneCD 2 : Esta utilidad es única en su género, ya que permite efectuar duplicados de cualquier tipo de CD,
incluso de aquellos que cuentan con algún tipo de protección. El único problema es que son pocas las
regrabadoras que soporta, por lo que es necesario comprobar si nuestra unidad pertenece a esta categoría.
La versión shareware que se puede descargar gratuitamente tiene la limitación de copiar sólo a 2x y no
podemos salvar nuestras preferencias.
El archivo ejecutable a descargar es de unos 1,3 MB. Sólo está disponible en inglés.
CDRWin 3.8A: Otro programa de grabación interesante. Incorpora CUE-SHEET, que es un lenguaje de script,
que mediante sencillos archivos de texto nos permite personalizar la grabación de cada CD. Soporta CD-Text y
la mayoría de formatos. Consultad previamente la lista de dispositivos soportados.
La versión de demostración que podéis descargar está limitada a un uso de 30 días y además sólo podremos
grabar a una velocidad de 1x.
• Resolución de problemas.
Si surgen problemas con la unidad de CD-ROM en Windows NT, siga estos pasos:
− Compruebe que el bus SCSI está terminado correctamente. En un bus SCSI, el último dispositivo SCSI
debe tener un terminador suministrado por el fabricante (si desea más información acerca del
terminador, consulte la documentación del adaptador SCSI).
− Compruebe el Id. de SCSI de la unidad CD-ROM. Normalmente debe ser SCSI ID 2 o superior. Asegúrese
de que la unidad de CD-ROM no esté configurada de modo que utilice el mismo Id. de SCSI que otro
dispositivo. Consulte la documentación de la unidad de CD-ROM si desea obtener información acerca de
cómo establecer o cambiar el Id. de SCSI de la unidad.
− Compruebe que el Id. de SCSI del controlador SCSI es SCSI ID 7.
− Compruebe que no haya otros adaptadores configurados con opciones que estén en conflicto con las del
controlador SCSI.
− Consulte el Visor de sucesos de Windows NT para comprobar si existen mensajes relativos a la unidad de
CD-ROM o el controlador SCSI.
− Si utiliza Windows NT 4.0, abra el Panel de control, haga doble clic en el icono Dispositivos y asegúrese
de que el dispositivo SCSICDRM tiene el modo de inicio Sistema.
− Si utiliza Windows 2000, abra el Administrador de dispositivos y compruebe que se detectan el
controlador SCSI y la unidad de CD-ROM, y que se indica que funcionan correctamente.
− Utilice un controlador de dispositivo diseñado para la unidad de CD-ROM que tiene instalada.
− Si el fabricante de la unidad de CD-ROM IDE no proporciona un controlador específico, instale el
controlador para CD-ROM IDE incluido en Windows NT. Este controlador sólo es compatible con las
unidades CD-ROM IDE compatibles con ATAPI 1.2. Para comprobar el nivel de compatibilidad ATAPI de
la unidad de CD-ROM, póngase en contacto con el fabricante.
− Si existen tres o más dispositivos IDE en el sistema, incluida la unidad de CD-ROM, puede ser necesario
modificar el Registro de Windows NT para que admita más de dos dispositivos IDE. Para obtener más
información, consulte el siguiente artículo en Microsoft Knowledge Base: 103934 : Adding More Than
Two IDE or ESDI Drives in Windows NT
8. Si intenta instalar una unidad CD-ROM con una interfaz patentada que no sea SCSI:
Para obtener información adicional acerca de cómo solucionar problemas de la unidad de CD-ROM en
Windows NT, consulte el siguiente artículo en Microsoft Knowledge Base:
139986 : No se reconoce la unidad de CD-ROM después de instalar Windows NT
ERROR 01 :
Se produce al intentar actualizar alguna de las Bases de Datos y no existir en el disco duro el fichero
CONFIG.BRS de la versión anterior
ERROR 03 :
Se produce al intentar actualizar alguna de las Bases de Datos y encontrarse el fichero CONFIG.BRS
defectuoso.
• Borrar dicho fichero y proceder de nuevo a instalar la Base de Datos con la opción 'I' Instalación.
ERROR 21:
Se produce al intentar instalar o actualizar alguna de las Bases de Datos teniendo protegido contra escritura
alguno de los ficheros pertenecientes a las Bases de Datos de Colex-Data o no hay espacio libre en el disco
duro.
• Compruebe que ninguno de los ficheros correspondientes a las Bases de Datos de Colex-Data están
protegidos contra escritura e intente de nuevo la instalación o actualización. compruebe que el disco
duro posee al menos 7 Mb de memoria libres por cada Base de Datos.
ERROR 22:
Se produce al intentar instalar o actualizar alguna de las Bases de Datos sin ser correctos los valores de la
pantalla de configuración.
• Proceda a intentar instalar de nuevo, comprobando que en el campo "Unidad de Lector Optico" el
valor indicado corresponde con la unidad en el que se encuentra realmente el disco CD-ROM que se
está instalando.
ERROR 26 :
Se produce en el proceso de instalación o actualización y tras equivocarse más tres veces al introducir los
parámetros de configuración.
• Proceda a intentar instalar de nuevo, seleccionando los valores de configuración correctos sin
equivocaciones.
ERROR 27:
Se produce al intentar instalar alguna de las Bases de Datos y no existir en el ordenador el fichero
AUTOEXEC.BAT
Este fichero es indispensable para el funcionamiento de su ordenador, por lo que compruebe en primer lugar
la existencia del mismo. En su defecto, compruebe si existe alguna copia de este fichero. (las copias suelen
tener la extensión BAK, OLD, CLX, etc.). Si tampoco hay ninguna copia consulte con su distribuidor de
informática habitual.
ERROR 60 :
Se produce al intentar instalar alguna de las aplicaciones que requiere disquete de instalación y no indicar
correctamente la unidad correspondiente a la disquetera donde se encuentra el disquete (A o B).
Proceda a intentar instalar de nuevo, asegurándose que selecciona la unidad correcta en la que está situado el
disquete de instalación.
Dispositivo de almacenamiento, en ordenadores o computadoras, todo aparato que se utilice para grabar los
datos de la computadora de forma permanente o temporal. Una unidad de disco, junto con los discos que
graba, es un dispositivo de almacenamiento. A veces se dice que una computadora tiene dispositivos de
almacenamiento primarios (o principales) y secundarios (o auxiliares). Cuando se hace esta distinción, el
dispositivo de almacenamiento primario es la memoria de acceso aleatorio (RAM) de la computadora, un
dispositivo de almacenamiento permanente pero cuyo contenido es temporal. El almacenamiento secundario
incluye los dispositivos de almacenamiento más permanentes, como unidades de disco y de cinta.
Disco compacto o CD, sistema de almacenamiento masivo de información. Está formado por una base de
plástico recubierta de un material que refleja la luz, habitualmente aluminio. La grabación de los datos se
realiza creando agujeros microscópicos que dispersan la luz (pits) alternándolos con zonas que la reflejan
(lands). Para leer esta información que contienen se utilizan unidades específicas dotadas de un rayo láser y
un fotodiodo. Su capacidad de almacenamiento es de 640 MB de información (equivalente a unos 74
minutos de sonido grabado, aunque también hay discos de 80 minutos).
Los principales estándares utilizados para almacenar la información en este tipo de discos son el CD-ROM,
CD-R o WORM, CD-DA
El alumno:
− Reflexionará que tipos de dispositivos han sido pilar en el proceso de globalización ya que han
permitido entre otras cosas el traslado e intercambio de información.
http://www.mundopc.net/hardware/
http://www.pchardware.org/actualiz.php
http://www.coloredhome.com/bricolaje_pc.htm
http://www.servicioalpc.com/soluciones.htm
http://www.conozcasuhardware.com/actualiz/index.htm
http://www.mailxmail.com/curso/informatica/armadopc
http://www.computacion-aplicada.com/registro/formulario.php
http://www.linkses.com/articulos/articulo.asp?id=95
http://www.galiciacity.com/hardware.html
http://www.wikilearning.com/introduccion-wkccp-5094-1.htm
http://www.pasarlascanutas.com/montaje_de_un_pc/montaje_de_un_pc0008.htm
http://www.abcdatos.com/tutoriales/hardware/genericos.html
• Tipos de BIOS.
Seguramente no es la primera vez que oís la palabra BIOS. Son las siglas de Basic Input/Output System:
Sistema Básico de Entrada/Salida. Esta definición es algo engañosa porque parece que que la BIOS sólo se
encarga de gestionar los sistemas I/O, pero es bastante más que eso, podríamos decir que es el sistema
operativo del hardware del ordenador. Sin la BIOS no hay ordenador, sin ella no podría ponerse en marcha.
Controla el proceso de arranque del sistema operativo y está presente para realizar las funciones y accesos al
más bajo nivel.
Físicamente es un chip de memoria en el que se almacena un código que el ordenador utiliza al conectarse la
corriente. El código marca los pasos para que el hardware se inicie y compruebe los componentes.
El chip que almacena el código de la BIOS se encuentra en nuestra placa base, puede estar soldado a ella o
puede estar en un zócalo por lo que se puede sustituir. Hay tres tipos de BIOS y su diferencia está en el
método que se utiliza para grabarla:
1. ROM ---> Sólo se puede grabar en el momento que se fabrica el chip. La información que contiene no
se puede alterar.
2. EPROM ---> Estos chips se pueden grabar con luz ultravioleta. En la parte superior del chip se puede
apreciar una especie de ventanilla transparente, que suele estar tapada con una pegatina. Estas BIOS
se encuentra principalmente en 286 y 386.
3. Flash BIOS ---> Son los más utilizados en la actualidad. Estos chips se pueden grabar mediante
impulsos eléctricos por lo que el propietario del ordenador la puede actualizar con un programa.
Otro componente que está ligado directamente a la BIOS es la CMOS: Complementary Metal Oxide
Semiconductor. Es una pequeña porción de RAM, que almacena los valores y ajustes de la BIOS: la hora, la
fecha y los parámetros de los dispositivos de nuestro ordenador. La CMOS, al ser memoria RAM, tiene que
estar continuamente enganchada a la corriente eléctrica para no perder la información. Cuando nosotros
apagamos el ordenador entra en funcionamiento una pila de litio situada en la placa base. Esta pila no es
recargable y tiene una vida aproximada de cinco o seis años.
Entre otros, la BIOS contiene el programa de configuración: los menús y pantallas que aparecen cuando
accedemos a los parámetros del sistema, es decir , al pulsar una secuencia de teclas cuando la máquina
arranca. El interface que utilizan estos programas actualmente es mucho más amigable que hace unos años.
Ahora te hacen sugerencias, te dicen dónde hay que pulsar, detectan automáticamente los componentes...
Anteriormente para instalar cualquier dispositivos necesitaríamos ser muy experto para utilizar menos de 30
intentos!!!
§2 Tipos de BIOS
Normalmente este software viene grabado en un chip de memoria no volátil de solo lectura ROM (Read Only
Memory), situado en la placa base, de ahí el nombre ROM BIOS. Esto garantiza que no se perderá al apagar el
Sistema y que no dependerá para su actuación de la existencia o buen funcionamiento de ningún disco, por lo
que estará siempre disponible (esto es importante porque, como veremos a continuación, posibilita el
arranque inicial del equipo sin necesitar de ningún recurso externo).
Desde los primeros días de vida del PC, el ROM-BIOS dio problemas en los equipos existentes, dado que los
avances técnicos eran constantes, lo que suponía aumentar las capacidades de disco y de los dispositivos
En la actualidad se utiliza un tipo de memoria no volátil "flash" (Flash BIOS) que puede ser regrabada sin
utilizar ningún dispositivo de borrado o grabación especial, lo que permite actualizarla muy cómodamente.
Por lo general solo es necesario "bajarse" de Internet la versión adecuada (normalmente del sitio del fabricante
de la placa base) y seguir las instrucciones que acompañan al programa.
Debido a que el BIOS es usado constantemente en el funcionamiento normal del PC, y que la memoria RAM es
de acceso más rápido que la ROM, muchos fabricantes disponen que el contenido de la ROM BIOS sea
copiado a memoria RAM como parte del proceso de arranque inicial. Esto se conoce como "Shadowing" y
tiene el efecto de acelerar el rendimiento del sistema. La versión de la BIOS cargada en RAM se denomina
shadow BIOS. Naturalmente esto exige un realineamiento de los vectores de interrupción de forma que
apunten a las nuevas posiciones en RAM.
Los BIOS mas modernos son los denominados PnP BIOS o PnP-aware BIOS, lo que significa que están previstos
para manejar el estándar PnP "Plug and Play" de Microsoft (enchufar y usar). Una tecnología que permite a
un equipo identificar cualquier dispositivo hardware que se conecte y signarle los recursos necesarios sin que
existan conflictos con el resto. Antes de esta tecnología la adición de nuevos dispositivos constituía un
auténtico quebradero de cabeza, dada la escasez de recursos que previeron los diseñadores del PC (por
ejemplo los consabidos conflictos de interrupciones IRQ's [1] y de direcciones de puertos).
Nota: En los primeros sistemas era un chip DIP ("Dual In-line package") cuya designación empezaba por
"27" seguido de dos o tres números indicativos de los Kilobits de capacidad. Por ejemplo, 2764 es una
ROM de 8 KB.
• Instalación.
Si tienes una placa con una FLASH BIOS, la puedes actualizar por otra mas moderna que incluirá nuevas
características y soporte para algunas nuevas funciones. Debes sopesar cuidadosamente si merecen la pena el
riesgo y si realmente vas a sacar partido a las funciones de la nueva BIOS. En el 98 % de los casos, no merece
la pena el riesgo que vas a correr, pero si crees que puedes mejorar tu equipo de esta manera, o necesitas
alguna de las nuevas opciones, adelante.
El método a seguir es muy sencillo: es tan fácil que solo tienes que tener el programa de actualización y una
imagen de la nueva ROM en un disquette. Ejecutas el programa y listo. (Recuerda hacer una copia de la ROM
actual) Eso si: ES IMPRESCINDIBLE que la versión de la BIOS que vas a instalar sea soportada por tu placa. Si tu
placa es clónica, lo mejor es olvidarse del tema; si tu placa es de marca, localiza a su fabricante y busca una
actualización para tu placa.
No uses la de otra muy parecida, aunque te hayan dicho que funcionará. Hazlo sólo si indica claramente el
nombre y número de versión de tu placa. Si no lo ves claro, si te queda alguna duda, sencillamente no lo
hagas, te ahorrarás un buen disgusto.
Una vez hecho esto, tienes que reiniciar el ordenador para que los cambios surtan efecto. Si todo ha ido bien
el ordenador arrancará sin problemas, pero si va mal... Bueno, lo primero recupérate del ataque cardiaco. Te
recomiendo que te tomes una tila y que te relajes (lo digo por experiencia) para pensar con claridad. Si la
pantalla se queda negra, si no suena el pitido del altavoz, si no pasa nada es que todo ha ido mal.
Lo primero es que esta opción no está contrastada en absoluto. Algunas placas lo tienen previsto y
contemplan la posibilidad de que con el disquete de la ROM insertado en la disquetera ( un disquete
formateado a 1.44, y solo el fichero de la imagen de la ROM), y pulsando una serie de teclas cuando
enciendes el ordenador la BIOS se "autoprograme" con la imagen contenida en ese fichero. Algunas de las
teclas necesarias para esto son: Supr, Ins, Esc, Ctrl+Ins, Ctrl+Supr, Ctrl+Esc, etc, etc... Recuerda mantenerlas
pulsadas antes de encender el ordenador. Todo esto es muy relativo y puede variar de una placa a otra.
Y por ultimo, solo te queda preguntar en tiendas de informática, si por casualidad tienen alguna placa
estropeada (del mismo tipo de la tuya), que les quiten la BIOS y que la prueben en tu placa. Con suerte
(mucha suerte) conseguirás que por lo menos arranque la placa.
Por cierto: si se te ocurre coger otro ordenador, arrancarlo, sacarle la BIOS en caliente (es decir, con el
ordenador encendido), pinchar la tuya e intentar reprogramarla con tu imagen de la rom original, olvídate. Es
muy probable que estropees ese ordenador. Además, no te dejará reprogramar tu BIOS.
Recuerda lo más importante: si tienes alguna duda de lo que vas a hacer, simplemente no lo hagas.
1.- Lo primero de todo es asegurarnos de que necesitamos actualizar la BIOS. Mucha gente actualiza la
BIOS para intentar solucionar problemas que nada tienen que ver con ella, sino con el sistema operativo o los
drivers, por ejemplo; y puesto que se trata de algo ligeramente arriesgado, conviene estar seguro de que es
necesario.
Ya vimos qué clase de cosas podremos resolver: falta de soporte de algún microprocesador,
incompatibilidades con algún hardware concreto, problemas de arranque... y también algunas cuestiones de
inestabilidad del equipo (los "cuelgues" del sistema), pero tenga en cuenta que la mayor parte de las temidas
pantallas azules de Windows no tienen nada que ver con la BIOS. Por si acaso, revise todo y compruebe que
tiene instalados los últimos drivers (de vídeo, del chipset...).
Versión (en algunos casos será importante saber si es la versión o revisión 1.0, la 1.1, la 2.0b...)
Para ello, lo mejor es consultar el manual de la placa base, o directamente abrir el equipo (teniendo en cuenta
que esto podría anular su garantía y tomando las precauciones descritas en Fundamentos de la Actualización)
y buscar en la placa un serigrafiado y/o etiquetas (muchas veces pegadas a las ranuras PCI o ISA) con estos
datos.
Si no encuentra ningún indicio, puede observar la primera pantalla que aparece al arrancar el equipo (ésa
en la que se muestra la memoria del sistema, se detectan los discos duros y pone algo como "Press XXX to
enter Setup"). Allí debería aparecer el nombre del fabricante de la BIOS (Award, AMI, Phoenix...) y el de la
placa base, o al menos una larga cadena de cifras y números del estilo de la siguiente:
4.- Ah, una precaución adicional: algunas BIOS tienen una protección para impedir su borrado por virus;
consulte el manual de la placa base o busque algo como "BIOS-ROM Flash Protect" y configúrelo como
"Flashable" o "Disabled".
• Configuración.
El BIOS (Basic Input Output System – Sistema Básico de Entrada Salida) es un programa que se encuentra
grabado en un chip de la placa base, concretamente en una memoria de tipo ROM (Read-Only Memory). Este
programa es el que se encarga de comprobar el hardware instalado en el sistema, ejecutar un test inicial de
arranque, inicializar circuitos, manipular periféricos y dispositivos a bajo nivel y cargar el sistema de arranque
que permite iniciar el sistema operativo. En resumen, es lo que permite que el ordenador arranque
correctamente en primera instancia.
Inicialmente era muy complicado modificar la información del BIOS en el ROM, pero hoy en día la mayoria de
los BIOS están almacenados en una memoria flash capaz de ser reescrita, esto es lo que permite que se pueda
actualizar. El BIOS se apoya en otra memoria, llamada CMOS porque se construye con esa tecnología, en ella
carga y almacena los valores que necesita y que son susceptibles de ser modificados (cantidad de memoria
instalada, numero de discos duros, fecha y hora, etc). A pesar de que apaguemos el ordenador, los valores de
la memoria de BIOS se mantienen intactos, ¿cómo es posible?, pues gracias a una pila que la alimenta. Puesto
que el consumo es muy bajo y se recarga al encender el ordenador, la pila puede durar varios años.
Cuando hay problemas con la pila, los valores de dicha memoria tienden a perderse, y es cuando pueden
surgir problemas en el arranque del tipo: pérdida de fecha y hora, necesidad de reconfigurar dispositivos en
cada arranque, y otros. En caso de problemas sustituir la pila es trivial, basta con comprar una de iguales
características, retirar la vieja y colocar la nueva en su lugar.
Para acceder al programa de configuración del BIOS, generalmente llamado CMOS Setup, tendremos que
hacerlo pulsando un botón durante el inicio del arranque del ordenador. Generalmente suele ser la tecla
“Supr” aunque esto varía según los tipos de placa y en portátiles. Otras teclas empleadas son: “F1”, “Esc”, o
incluso una combinación, para saberlo con exactitud bastará con una consulta al manual de su placa base o
bien prestando atención a la primera pantalla del arranque, ya que suele figurar en la parte inferior un
mensaje similar a este:
Aunque tengan nombres diferentes, existen algunos apartados comunes a todos los tipos de BIOS. Una
clasificación puede ser:
Bajo el 1er punto se puede encontrar la configuración de la fecha y hora, los discos duros conectados (IDE) y
la memoria detectada, entre otras cosas.
En el punto 2 existen muchos parámetros modificables, suelen aparecer: caché, secuencia de arranque (Boot
sequence), intercambio de disqueteras, etc.
En el punto 3 podemos encontrar parámetros relativos a las características del chipset, memoria RAM, buses y
controladores.
Bajo el punto 4 hemos reunido una serie de opciones que suelen estar distribuidas, gracias a ellas podemos
insertar una contraseña de acceso al programa del BIOS, modificar parámetros relativos a los periféricos
integrados, control de la administración de energía, control de la frecuencia y el voltaje, etc. Y finalmente en
el punto 5 reunimos las opciones que nos permiten guardar los cambios efectuados, descartarlos, cargar
valores por defecto, etc.
En la parte inferior de la interfaz del programa podremos ver el inventario de teclas necesarias para navegar
entre las opciones y modificarlas, es importante leerlo y tenerlo en cuenta.
Existen una serie de parámetros que son susceptibles de ser modificados en algún momento, de hecho en la
mayoría de foros de soporte técnico se plantean esas dudas. Vamos a explicar cuáles son y usarlos como
ejemplo:
1. Secuencia de Arranque: Esto le indica al BIOS a qué unidad ha de ir para buscar el arranque del
sistema operativo. La secuencia indica el orden de izq. a der. en que se buscará en las unidades.
Antiguamente el orden solía marcar “A C SCSI/otros” lo cual indicaba que primero que debía mirar en
la unidad A (disquetera) y posteriormente en C (disco duro principal), gracias a esto se podia arrancar
el ordenador con un disco de arranque antes que el sistema operativo. Hoy en día esto ha cambiado
en muchos casos, cuando se necesita arrancar desde un CD (instalación de sistemas operativos
(Windows XP, Linux) hay que modificar la secuencia de arranque (a menos que el sistema sea tan
nuevo que ya venga de fábrica) para que inicialmente apunte a la unidad lectora de CD. Supongamos
que la unidad tiene la letra D, el orden podría ser “D A C” o “D C A”, por ejemplo.La opción suele
encontrarse en BIOS Features >> Boot Sequence para las BIOS Award. En algunos casos en vez de
integrarse en una sola opción, esto se realiza en varias, suelen referirse al orden de arranque de
dispositivos y se llaman: First Boot Device, Second Boot Device, Third Boot Device y Boot Other
Device. Basta especificar en cada una cuál es el dispositivo que arrancará en ese orden (First =
primero, Second = segundo, Third = tercero, Other = otro).
Actualizar el BIOS
Es probable que nos veamos en la situación de tener que actualizar el firmware del BIOS. Esto puede ser
debido a errores detectados de fabricación, queramos instalar un procesador nuevo o algún dispositivo
reciente, o simplemente añadir funcionalidades de las nuevas versiones del BIOS. Para realizar esto se suele
emplear un programa en Windows y un fichero con la información, todo esto se debe descargar desde la web
del fabricante de la placa base o BIOS, teniendo en cuenta que hay que saber con total exactitud el modelo de
placa base que tenemos y el tipo de BIOS. Además, hay que aclarar que dicha operación tiene un alto riesgo
Notas Finales
El manual de la placa base es fundamental, siempre debemos acudir a él cuando tengamos dudas
manipulando el BIOS. Dicho manual es un referente de vital importancia.
El BIOS es un programa delicado y siempre que lo manipulemos debemos hacerlo con precaución y
conocimiento. Si tenemos dudas es mejor no tocar nada y consultar a un profesional.
Para saber qué modelo de placa y BIOS tenemos se puede usar una gran variedad de programas, recomiendo
en particular el CPUZ de CPUID.org el cual muestra los valores del procesador, placa base y memoria
fundamentalmente. Esto nos será útil si necesitamos los datos para una posible actualización de firmware
• Resolución de problemas.
Enviar el equipo al fabricante de nuestro PC para desbloquear passwords y volver a dejar el PC operativo, en
ocasiones puede suponer un coste muy elevado o incluso ni siquiera está cubierto por la garantía.
Nota:
Este artículo está explicado para personas técnicas o con experiencia en sistemas informáticos y hardware.
Comprobaciones previas.
Ponerse en contacto con el personal técnico que nos ha vendido el equipo con el fin de intentar conseguir
métodos más fiables en la recuperación o desbloqueo del password en cuestión.
En el caso de que sea imposible establecer el contacto tenemos varias opciones que podemos seguir para
intentar recuperar la funcionalidad de nuestro equipo.
Recuerda que la mayoría de los passwords o contraseñas de las BIOS del PC no protegen los discos duros, de
modo que si lo que intentas es recuperar los datos que estaban ahí contenidos, será suficiente con instalar ese
disco duro en un PC igual al que estaba instalado o configurarlo en algún sistema externo como disco esclavo.
Podemos nombrar una excepción en portátiles o laptops, especialmente en los IBM Thinkpads y otros, los
cuales bloquean al disco duro si está habilitada la contraseña de supervisor. En ese caso, aún cuando
deshabilitemos dicha contraseña los discos seguirán permaneciendo inaccesibles.
Nota: Algunos problemas de instalación pueden evitarse o al menos aliviarse actualizando el firmware de
varios tipos de componentes de hardware; esto es especialmente cierto en el caso de las placas base. El
firmware de las placas base se llama también BIOS y la mayoría de las placas base y de los fabricantes de
computadoras tienen un sitio web, en el que pueden encontrarse actualizaciones e información sobre cómo
usarlas.
La mayoría de los fabricantes recomienda que no se actualice la BIOS de la placa base a menos que tenga una
buena razón, por ejemplo una actualización crítica. El proceso de actualización puede ir mal, lo que pueden
significar daños en el chip de la BIOS.
Competencias Tecnológica
Identificará el alumno como los medios de información como el Internet, periódico, boletines , revistas entre
otros nos permiten realizar un mercadeo para establecer el costo competitivo de un producto en el mercado,
esto con la finalidad de que se tomen decisiones oportunas en las empresas.
Comparar herramientas de hardware y software para la actualización del BIOS, obteniendo ventajas y
desventajas.
BIOS, en informática, acrónimo de Basic Input/Output System (sistema básico de entrada/salida), un conjunto
de rutinas que trabajan estrechamente con el hardware de un ordenador o computadora para soportar la
transferencia de información entre los elementos del sistema, como la memoria, los discos, el monitor, el
reloj del sistema y las tarjetas de expansión. En los IBM y compatibles originales, el BIOS (también se le
denomina en muchas ocasiones la BIOS), o ROM BIOS, estaba incorporado en un chip de memoria de sólo
lectura (ROM) integrado en la placa base de la máquina. Aunque es fundamental para el funcionamiento, el
BIOS es normalmente invisible a los usuarios de los equipos.
Al encender la computadora, el BIOS hace una comprobación del sistema, por ejemplo para verificar la
disponibilidad de discos duros instalados o el acceso a memoria. Los sistemas actuales constan de un BIOS
programable, que puede ser actualizado mediante un software específico. En estos casos se dispone de una
batería que mantiene la información de cada sistema concreto, mientras el ordenador o computadora
permanece desconectado de la red. Muchas de las opciones del BIOS pueden ser definidas mediante un
sistema de menús al que puede accederse, normalmente, mediante la pulsación de alguna tecla antes del
arranque del sistema operativo. Así, por ejemplo, se podrán fijar factores de trabajo del hardware, tales
como el modo de caché del procesador, la secuencia de arranque desde disquete, disco duro y unidad de
CD-ROM, la frecuencia de refresco de memoria y otros.
Práctica número:
Nombre de la práctica:
Propósito de la práctica:
Escenario:
Duración:
Si No No
Desarrollo
Aplica
Observaciones:
PSA:
Es la parte de la computadora donde se cargan los programas ó se mantienen guardados ciertos datos por
cierto tiempo. Puede esta compuesta por un solo chip o varios chips montados en una placa electrónica.
EL PROCESADOR
Es el motor del equipo y de él dependen en un tanto por ciento bastante alto las prestaciones finales del
equipo. Pero para tener un equipo rápido, debemos tener una óptima combinación de componentes entre
placa base, procesador, tarjeta gráfica, cantidad y tipo de memoria RAM y disco duro.
LA TARJETA MADRE
Placa base, en informática, la placa principal que contiene los componentes fundamentales de un sistema.
Esta placa contiene el microprocesador o chip, la memoria principal, la circuitería y el controlador y conector
de bus.
Además, en la placa base se alojan los conectores de tarjetas de expansión (zócalos de expansión), que
pueden ser de diversos tipos, como ISA, PCI, SCSI y AGP, entre otros. En ellos se pueden insertar tarjetas de
expansión, como las de red, vídeo, audio u otras.
Aunque no se les considere explícitamente elementos esenciales de una placa base, también es bastante
habitual que en ella se alojen componentes adicionales como chips y conectores para entrada y salida de
vídeo y de sonido, conectores USB, puertos COM, LPT e IrDA y conectores PS/2 para ratón y teclado, entre los
más importantes.
TARJETA DE RED
Tarjeta de red, tarjeta de circuitos integrados que se inserta en uno de los zócalos de expansión de la placa
base y cuya función es conectar el ordenador o computadora con la estructura física y lógica de la red
informática a la que pertenece. De esta manera, todos los ordenadores de la red podrán intercambiar
información conforme a los protocolos establecidos en la misma.
Existen distintos tipos de especificaciones de red, definidos según estándares del IEEE; para cada uno de ellos
se emplean distintos tipos de tarjetas y distintos modos de conexión entre ordenadores, lo que tiene
consecuencias en la velocidad de transmisión de la información que propician. Una de las tarjetas de red más
empleadas es la de tipo Ethernet, que en sus distintas variantes, puede permitir transmisiones desde algunos
miles de bits por segundo hasta un gigabit por segundo.
La conexión física entre las tarjetas de red es el otro elemento que influye en su capacidad de transmisión;
para esta conexión se pueden emplear materiales tan distintos como el cable de cobre (fino o grueso) o la
fibra óptica. También existen conexiones inalámbricas, mediante emisiones de infrarrojo o radiofrecuencia,
que permiten transferir datos a 720 kbps (kilobits por segundo) en un rango de distancias entre 10 y 100
metros.
DISCO DURO
En el mundo del PC hay dos grandes estándares, IDE y SCSI, aunque el primero está mucho más extendido que
el segundo, la tecnología SCSI está presente en otras muchas plataformas, como los Mac , sistemas Unix,
AS/400, etc...
Los discos ópticos presentan una capa interna protegida, donde se guardan los bits mediante distintas
tecnologías, siendo que en todas ellas dichos bits se leen merced a un rayo láser incidente. Este, al ser
reflejado, permite detectar variaciones microscópicas de propiedades óptico-reflectivas ocurridas como
consecuencia de la grabación realizada en la escritura. Un sistema óptico con lentes encamina el haz
luminoso, y lo enfoca como un punto en la capa del disco que almacena los datos.
MODEM
BIOS
Seguramente no es la primera vez que oís la palabra BIOS. Son las siglas de Basic Input/Output System:
Sistema Básico de Entrada/Salida. Esta definición es algo engañosa porque parece que que la BIOS sólo se
encarga de gestionar los sistemas I/O, pero es bastante más que eso, podríamos decir que es el sistema
operativo del hardware del ordenador. Sin la BIOS no hay ordenador, sin ella no podría ponerse en marcha.
Controla el proceso de arranque del sistema operativo y está presente para realizar las funciones y accesos al
más bajo nivel.
Físicamente es un chip de memoria en el que se almacena un código que el ordenador utiliza al conectarse la
corriente. El código marca los pasos para que el hardware se inicie y compruebe los componentes.
4. ROM ---> Sólo se puede grabar en el momento que se fabrica el chip. La información que contiene no
se puede alterar.
5. EPROM ---> Estos chips se pueden grabar con luz ultravioleta. En la parte superior del chip se puede
apreciar una especie de ventanilla transparente, que suele estar tapada con una pegatina. Estas BIOS
se encuentra principalmente en 286 y 386.
6. Flash BIOS ---> Son los más utilizados en la actualidad. Estos chips se pueden grabar mediante
impulsos eléctricos por lo que el propietario del ordenador la puede actualizar con un programa.
1. .
Procesador: Hoy en día para poder ejecutar todo el software que se encuentra disponible y el que está a la
vuelta de la esquina es aconsejable pensar en CPU's tipo Pentium II. De todas maneras si no nos llega para
tanto nos puede servir, por ejemplo un AMD K6 a 233 o incluso a 266.
Si nuestro presupuesto es muy escaso, puedes optar por una velocidad más baja (por ejemplo 166) y pasarte
por nuestra página de Overclocking.
Placa base: Normalmente actualizamos la placa base para poder montar un procesador más potente que la
actual no soporta. En el caso de ordenadores no "clónicos" en el que es casi imposible cambiarla, se puede
optar por procesadores tipo "Overdrive" de Intel o de otras marcas, o bién por uno de mayor velocidad que el
actual pero de la misma "familia".
Memória: Este parámetro es muy importante si utilizamos S.O. y programas de última (o de penúltima)
generación, sobretodo si trabajas con varios programas a la vez, con archivos de datos muy grandes, o con
programas de tipo CAD, Diseño gráfico, etc...
En un entorno típico de Windows 95, y programas no muy exigentes puede ser suficiente con 16 Mb, pero si
nos vamos ya a las últimas versiones de éste con Internet Explorer 4.0 y shell integrado necesitaremos un
mínimo de 32 Mb, si no queremos notar como se ralentiza todo..
2.
− un destornillador de punta de estrella (también llamados Philips) de tamaño medio o grande, para los
tornillos de la carcasa y los que sujetan las tarjetas de expansión;
− destornilladores planos en varios tamaños, desde medio hasta alguno pequeño de no más de 2 a 3
mm de ancho (de los llamados "de relojería");
− pinzas para manejar los "jumpers" y llegar a lugares de difícil acceso;
− material de escritura (bloc, bolígrafo).
− un tester o multímetro, preferiblemente digital, para comprobar los voltajes y amperajes de la fuente
de alimentación y demás periféricos;
− pelacables y/o cuchilla (cutter);
− soldador de electrónica (sólo para expertos en su uso);
− alicates o tenazas (aunque no sea deseable, a veces no queda más remedio que usarlos...);
− cualquier otra cosa que se le ocurra: llave inglesa, cables eléctricos con pinzas, clips (sí, de los de
oficina), pegamento extra rápido, chapas de metal... ¡Nunca se sabe qué va a ser útil!
3.
− Explore el disco duro para saber si tienen errores y solucionar los sectores alterados
− Desfragmente el disco duro
− Elimine las entradas de registro inválidas y los accesos directos dañados
4.
RAM,
ROM
MEMORIA VIRTUAL.
5.
- Procesador.
- Memoria RAM
- Factor de la forma (formato).
− Precompensación de escritura (WritePrecomp): un parámetro muy técnico, usado sobre todo en los
discos antiguos. En los modernos suele ser cero.
− Zona de aparcado de las cabezas (LandZone): otro tecnicismo, que modernamente suele ser cero o
bien 65535 (que en realidad significa cero).
− Modo de funcionamiento (Mode): para discos pequeños, de menos de 528 MB, el modo Normal. Para
discos de más de 528 MB (cualquiera moderno tiene 4 ó 5 veces esa capacidad), el modo LBA o bien
el Large, menos usado y sólo recomendado si no funcionara el LBA. En muchos casos se permite la
autodetección (opción Auto).
7. para eliminar las cargas electrostáticas. Se puede tocar una tubería de agua o un cuerpo metálico
aterrizado a tierra ( como el gabinete de un PC o una estructura metálica grande como una puerta, una
reja, etc.).
Se puede utilizar una pulsera antiestática que se conecta al gabinete del equipo mientras se le suministra
servicio.
8.
− En primer lugar, tocar durante unos segundos con las mano el chasis del PC (debemos tocar la parte
que no está pintada como puede ser la parte trasera). Con esto conseguiremos igualar el potencial de
nuestro cuerpo con el chasis del PC que vamos a manipular.
− En segundo lugar, tocaremos el dispositivo ESD y, sin sacarlo de la bolsa lo pondremos en contacto
con el chasis para igualar también el potencial de los componentes con el entorno de trabajo. Al ser la
bolsa conductora, se realizará de una forma instantánea en todos los componentes.
9. Las computadoras actuales se protegen muy bien gracias a los excelentes componentes de su fuente y los
reguladores de voltaje modernos. Pero el circuito con polo a tierra se vuelve imprescindible cuando la
instalación es de tipo comercial (como la de una empresa o institución de enseñanza). En tales casos en
donde los altibajos del fluido eléctrico son constantes se requiere además crear una INSTALACION
ELECTRICA INDEPENDIENTE, con su apropiada conexión a tierra.
10.
a) Gabinete y fuente de poder, incluyendo cables de conexión ala tarjeta principal y a los dispositivos de
memoria auxiliar.
b)Tarjeta principal (tarjeta madre)
c) Procesador
11.
− Una mesa amplia con la superficie total limpia.
− Suficiente luz para poder ensamblar las partes pequeñas sin problemas.
− Las herramientas apropiadas.
− Una pulsera antiestática.
− Todos los componentes del sistema
12.
a. Destornillador ranurado o "Phillips", cabeza #1.
b. Destornillador de paleta 1/8".
c. Destornillador de tuercas 3/8".
d. Algunas máquinas tienen tornillos que requieren de un destornillador en forma de estrella, conocido
como torx.
e. Alicates o tenacillas de nariz larga. Son útiles para ajustar caballetes de conexión ("jumpers") en una
tarjeta del sistema o en un dispositivo (e.g., unidad de CD-ROM, disco dure, entre otros).
f. Removedor (extractor o tirador) de chips.
g. Un foco ("flashlight") para iluminar la caja de la computadora.
h. Aire comprimido. Se emplea para eliminar el polvo y la siciedad dentro de la caja de la computadora.
i. Envases para colocar los tornillos y partes de la computadora (e.g., vasos de papel pequeños, envases
pequeños vacíos para comida de infantes, envase dividido para guardar materiales de coser, entre
otros).
j. Plataformas grandes de ratón ("mouse pads") o toallas de mano para colocar la tarjeta del sistema o
tarjeta madre ("mainboard" o "motherboard").
k. Un bolígrafo y papel para tomar notas.
l. Una cámara digital para tomar fotos de las configuraciones de la máquina. Se puede también hacer un
"croquis" en un papel. Y Un martillo.
13. .
SIMM (SINGLE IN-LINE MEMORY MODULE): También conocido como Memoria EDO (Extended Data Out). Es
un modulo de memoria integrado simple de 30 pines para modelos x286 de PC a 72 pines para modelos x486-
686 y algunos Pentium I y II. Trabajan a un bus de 66 Mhz y por lo general deben estar conectados en pares
(Si van en Pentium). Esto se debe a que los buses de datos de las Pentium tienen un ancho de 64 Bits y los
primero 80-486 - 686 (No todos) tienen un bus de datos de 32 Bits. Estas memorias trabajan a 60ns,70ns u
80ns, siendo las más rápidas las de 60 ns .
DIMM (DUAL IN-LINE MEMORY MODULE): Tambien es conocido como SDRAM (Sequential-Dynamic Random
Access Memory). Es un modulo de memoria integrado Dual Secuencial-Dinámica que posee 168 pines y
trabajan a buses de 66 Mhz,100 Mhz,133 Mhz,400 Mhz y 800 Mhz. Pueden ser de 3.3 Volts para algunos PC-
100 y PC-133 y 5 Volts para algunos PC-66. Trabajan a 7,8,10 ó 12 ns siendo las de 7 ns las más rápidas.
RIMM O RANBUS: Debido al avance tecnológico del Microprocesador AMD K7, el cual puede llegar a
funcionar con velocidades de bus FSB de 200MHz, una serie de fabricantes han preparado un nuevo tipo de
memoria denominado módulo RIMM o RAMBUS, el cual utiliza los flancos de subida y bajada del reloj del
Microprocesador, consiguiendo la comunicación a 200MHz.
14. El término "memoria" significa la cantidad de RAM instalada en la computadora, mientras que
"almacenamiento" hace referencia a la capacidad del disco duro.
15. . Paridad, se denomina así al procedimiento de detección de errores, por el cual el número de unos (1) de
cada grupo de bits debe ser siempre el mismo, bien par o impar, para que se realice una transmisión
correcta. Si la paridad se comprueba en función de los caracteres, el método se denomina comprobación
de redundancia vertical, o VRC (acrónimo de Vertical Redundancy Checking). Si se comprueba en función
de los bloques, el método se denomina comprobación de la redundancia horizontal o LRC (acrónimo de
Longitudinal Redundancy Checking). La paridad se utiliza para comprobar datos transferidos dentro de un
ordenador o computadora o entre computadoras.
16. .
GENERACIÓN PRIMERA: AMD 8088, INTEL 8088, INTEL 8086, NEC V20
GENERACIÓN SEGUNDA: AMD 286, INTEL 286
GENERACIÓN TERCERA: INTEL 386DX, INTEL 386SX, INTEL386SL, AMD 386DX, AMD 386SX
GENERACIÓN CUARTA: CYRIX 486 DLC, INTEL 486 DX, INTEL 486 SX, INTEL 486DX2 ORIGINAL, INTEL 486DX2
E. STAR, INTEL 486DX2 W. BACK, INTEL 486DX2 ODRIVE, INTEL 486DX4 ORIGINAL, INTEL 486DX4 ODRIVE,
AMD 486 DX, AMD 486 DX2, AMD 486 DX4, AMD 5X86
17.
− Microprocesadores CISC Interpretan y ejecutan un gran número de instrucciones. Son más lentos.
− Microprocesadores RISC Interpretan y ejecutan sólo unas pocas instrucciones. Son mucho más rápidos
que los microprocesadores CISC.
− Todos los microprocesadores utilizandos en la fabricación de ordenadores personales, son de
tecnología CISC.
18.
− Unidad de decodificación. Interpreta la instrucción a realizar.
− Unidad de ejecución. Ejecuta las instrucciones.
− Unidad aritmético-lógica (ALU). Realiza las operaciones matemáticas.
20.
− EL CHIPSET
− EL FABRICANTE
− PROCESADORES QUE SOPORTA LA PLACA BASE
− RANURAS DE EXPANSIÓN ISA-PCI-AGP
− ZOCALOS O BANCOS DE MEMORIA
21. .
22. .
Tarjetas PCI para PC
Tarjeta PCMCIA para Portátiles
Tarjeta Para Fibra Óptica
23. TCP/IP son las siglas en inglés de Protocolo de control de transmisión/Protocolo Internet
24. .
− El ordenador está correctamente configurado (repasa los pasos anteriores)
− La tarjeta de red está conectada al concentrador mediante el correspondiente cable de red.
− La tarjeta de red suele tener una luz verde que parparea cuando se intercambian datos. Si está
apagada, puede que el cable o la tarjeta estén averiados. Prueba con otro cable o con otra entrada del
concentrador.
− Si al encender el ordenador cerraste la pantalla de contraseña, deberás reiniciarlo, o lo que es más
rápido, cerrar la sesión, desde el menú "inicio" (antes guarda los datos pendientes)
26. .
1. TAPA DEL DISCO DURO
2. MOTOR DE GIRO DEL DISCO MAGNÉTICO
3. DISCO MAGNÉTICO
4. CABEZAS LECTORAS/GRABADORAS
27. .
FDISK,es un programa que se distribuye con MS-DOS y cualquier versión de Windows 95, 98 ME , 2000.
Existen dos versiones de FDISK, la que podríamos llamar 16 bit y la nueva versión, la 32 bit. La versión antigua
no soporta discos duros mayores de 2 GB de capacidad mientras que la segunda soporta sin problemas
cualquier disco duro
28. .
Disco compacto
650 Mb
(CD)
29. .
En un CD-ROM la espiral que codifica la información grabada es moldeada (en máquinas que fabrican en serie
miles de CD iguales) en un molde de níquel, en el cual a temperatura se inyecta plástico.
A dicha espiral así moldeada se le deposita una fina capa de aluminio, y es protegida por una capa
transparente superior. Más en detalle, con el disco visto desde abajo, la superficie grabada presenta una
sucesión de hoyos ("pits") separados por espacios planos ("lands"), que forman una pista en espiral.
De este modo, un CD-ROM es grabado por el fabricante -en serie con otros iguales- pudiendo posteriormente
ser sólo leído por el usuario en su unidad lectora de CD-ROM. En ésta un haz láser puntual sigue la pista en
espiral metalizada que contiene la información, y al ser reflejado por dicha pista permite detectar la longitud
de los "pits" y “lands" que codifican la información almacenada.
30. .
1. Ejecuta la lectura de varios CD que estén en perfectas condiciones. (sin rayones). Lee bien todos?, significa
que hay problemas de lectura con los otros CD. Lee bien sólo algunos? pasa al punto 2.
2. Limpia el cabezal con un CD especial para limpieza de CD-ROM. Si la falla persiste, sigue al paso 3.
3. Configúralo como Master y cámbialo de puerto IDE (necesitarás otro cable de señales). Persiste la falla?
pasa al punto 4.
4. Instala la unidad en otro PC, como SLAVE. Persiste la falla?, significa que la unidad tiene un desgaste en el
mecanismo láser (el diodo láser pierde ganancia y el polvillo ambiental aumenta la fricción por deslizamiento
de la unidad) y por lo tanto necesita servicio especializado: hay que abrir la unidad CD-ROM para LIMPIARLA y
LUBRICARLA.
31.
Internos:
ISA:
PCI
AMR:
Externos
Módems PC-Card
Módems software, HSP o Winmódems:
Módems completos
33. .
Se mide en bits por segundo, no en byte por segundo como piensa mucha gente.
Así mismo, no se debe confundir esta velocidad nominal (la que se supone que podría alcanzar el módem,
por ejemplo 33.600 bps) con la velocidad de negociado, que es aquella que se nos indica al comienzo de
una conexión a Internet; esta última es aquella que en principio, y en ese momento, ha identificado el módem
del otro lado de la línea como válida, y tiene poco que ver con el rendimiento que obtendremos
34. .
El BIOS (Basic Input Output System – Sistema Básico de Entrada Salida) es un programa que se encuentra
grabado en un chip de la placa base, concretamente en una memoria de tipo ROM (Read-Only Memory). Este
programa es el que se encarga de comprobar el hardware instalado en el sistema, ejecutar un test inicial de
arranque, inicializar circuitos, manipular periféricos y dispositivos a bajo nivel y cargar el sistema de arranque
que permite iniciar el sistema operativo. En resumen, es lo que permite que el ordenador arranque
correctamente en primera instancia
35. .
1.- ROM ---> Sólo se puede grabar en el momento que se fabrica el chip. La información que contiene no se
puede alterar.
2.- EPROM ---> Estos chips se pueden grabar con luz ultravioleta. En la parte superior del chip se puede
apreciar una especie de ventanilla transparente, que suele estar tapada con una pegatina. Estas BIOS se
encuentra principalmente en 286 y 386.
3.- Flash BIOS ---> Son los más utilizados en la actualidad. Estos chips se pueden grabar mediante impulsos
eléctricos por lo que el propietario del ordenador la puede actualizar con un programa.
36. .
Para acceder al programa de configuración del BIOS, generalmente llamado CMOS Setup, tendremos que
hacerlo pulsando un botón durante el inicio del arranque del ordenador. Generalmente suele ser la tecla
“Supr” aunque esto varía según los tipos de placa y en portátiles. Otras teclas empleadas son: “F1”, “Esc”, o
incluso una combinación, para saberlo con exactitud bastará con una consulta al manual de su placa base o
bien prestando atención a la primera pantalla del arranque, ya que suele figurar en la parte inferior un
mensaje similar a este:
Competencia laboral Aptitud de un individuo para desempeñar una misma función productiva en
diferentes contextos y con base en los requerimientos de calidad esperados por el
sector productivo. Esta aptitud se logra con la adquisición y desarrollo de
conocimientos, habilidades y capacidades que son expresados en el saber, el hacer y
el saber-hacer.
Criterio de desempeño Parte constitutiva de una Norma Técnica de Competencia Laboral que se refiere al
conjunto de atributos que deberán presentar tanto los resultados obtenidos, como
el desempeño mismo de un elemento de competencia; es decir, el cómo y el qué se
espera del desempeño. Los criterios de desempeño se asocian a los elementos de
competencia. Son una descripción de los requisitos de calidad para el resultado
obtenido en el desempeño laboral; permiten establecer si se alcanza o no el
resultado descrito en el elemento de competencia.
Evidencia por Hacen referencia a los objetos que pueden usarse como prueba de que la persona
producto realizó lo establecido en la Norma Técnica de Competencia Laboral. Las evidencias
por producto son pruebas reales, observables y tangibles de las consecuencias del
desempeño.
Formación Proceso por medio del cual se construye un desarrollo individual referido a un grupo
ocupacional común de competencias para el desempeño relevante de diversas ocupaciones en el
medio laboral.
Módulo ocupacional Unidad autónoma integrada por unidades de aprendizaje con la finalidad de
combinar diversos propósitos y experiencias de aprendizaje en una secuencia
integral de manera que cada una de ellas se complementa hasta lograr el dominio y
desarrollo de una función productiva.
Norma Técnica de Documento en el que se registran las especificaciones con base en las
Competencia Laboral cuales se espera sea desempeñada una función productiva. Cada Norma Técnica de
Competencia Laboral esta constituida por unidades y elementos de competencia,
criterios de desempeño, campo de aplicación y evidencias de desempeño y
conocimiento.
Competencias Laborales Se definen como la aptitud del individuo para desempeñar una misma
función productiva en diferentes contextos y con base en los requerimientos
de calidad esperados por el sector productivo. Esta aptitud se logra con la
adquisición y desarrollo de conocimientos, habilidades y capacidades que son
expresadas en el saber, el saber hacer, el saber ser y el saber estar.
Competencias básicas Son las que identifican el saber y el saber hacer en los contextos científico
teórico, tecnológico, analítico y lógico.
Competencias Analíticas Estas hacen referencia a los procesos cognitivos internos necesarios para
simbolizar, representar ideas, imágenes, conceptos u otras abstracciones.
Dotan al alumno de habilidades para inferir, predecir e interpretar resultados.
Competencias Científico – Son las que le confieren a los alumnos habilidades para la conceptualización
Teóricas de principios, leyes y teorías, para la comprensión y aplicación a procesos
productivos; y propician la transferencia del conocimiento.
Competencias clave Son las que identifican el saber, el saber hacer, el saber ser y el saber hacer;
en los contextos de información, ambiental, de calidad, emprendedor y
para la vida.
Competencias de Calidad Se refieren a la aplicación de conceptos y herramientas de las teorías de calidad total y de
aseguramiento de la calidad, y su relación con el ser humano.
Matriz de competencias Describe las competencias laborales, básicas y claves que se contextualizan
como parte de la metodología que refuerza el aprendizaje, lo integra y lo
hace significativo.
Matriz de contextualización Presenta de manera concentrada, las estrategias sugeridas a realizar a lo largo
del módulo para la contextualización de las competencias básicas y claves con
lo cual, al desarrollarse el proceso de aprendizaje, se promueve que el sujeto
establezca una relación activa del conocimiento sobre el objeto desde
situaciones científicas, tecnológicas, laborales, culturales, políticas, sociales y
económicas.
Módulos autocontenidos Están diseñados para atender la formación vocacional genérica en un área
transversales disciplinaria que agrupa varias carreras.
Módulos autocontenidos Están diseñados para atender la formación vocacional y disciplinaria en una
específicos carrera específica.
Módulos autocontenidos Están diseñados con la finalidad de atender las necesidades regionales de la
optativos formación vocacional. A través de ellos también es posible que el alumno
tenga la posibilidad de cursar un módulo de otra especialidad que le sea
compatible y acreditarlo como un módulo optativo.
Unidades de aprendizaje Especifican los contenidos a enseñar, proponen estrategias tanto para la
enseñanza como para el aprendizaje y la contextualización, así como los
recursos necesarios para apoyar el proceso de enseñanza-aprendizaje y
finalmente el tiempo requerido para su desarrollo.
Acceso Directo: Icono especial que representa a una carpeta o un archivo y que abre o ejecuta
ésta de una forma cómoda y rápida.
Acceso telefónico a redes: Aplicación que permite utilizar una línea telefónica y un módem para conectarse
a otro equipo.
Active Desktop: Escritorio activo de Windows 98 que permite tener contenido activo en el
Escritorio y poner como fondo o papel tapiz una página Web, un vídeo, un
sonido, etc.
Actualizar: Volver a cargar o mostrar el contenido de una página Web o una ventana.
ADC: Circuito para convertir la señal analógica en digital, es decir, para digitalizar.
ADSL (Asymmetric Digital Sistema asimétrico de transmisión de datos sobre líneas telefónicas
Subscriber Line - Línea convencionales.
Digital Asimétrica de
Abonado):
AIX: Versión del sistema operativo UNIX diseñada por IBM para estaciones de trabajo
y grandes sistemas.
Ancho de banda: Máxima cantidad de información simultánea que se puede transferir por una
línea telefónica.
API (Aplication Program Conjunto de rutinas del sistema que se pueden usar en un programa para la
Interface - Interfaz de gestión de entrada-salida de ficheros, etc.
Aplicación del Programa):
Applets: Programas desarrollados con Java para mejorar la presentación de las páginas
Web que realizan animaciones, juegos e interacción con el usuario.
Archivo: Documento generado con una aplicación que se almacena en una unidad.
Arrastrar: Dícese del movimiento generado por una selección al hacer clic sobre ella y, sin
soltar el botón del ratón, mover ésta hacia otro lugar.
ASCII (American Standard Estándar reconocido que engloba un número de caracteres útiles.
Code of Information
Interchange):
Asistente: Herramienta que nos guía y ayuda a través de varios pasos a realizar una tarea
para mayor comodidad y sencillez.
Athlon: Nombre del último procesador de AMD que puede funcionar a velocidades que
oscilan desde los 500 a 700 MHz
Autopistas: Redes de comunicación global, como Internet, que constituyen los nuevos
canales de la información y de la cultura.
Barra de canales: Opción del Escritorio que proporciona una lista de los canales disponibles en su
equipo.
Barra de direcciones: Forma rectangular que aparece en la parte superior de las ventanas y la cual nos
informa en todo momento de la Path (trayectoria) donde nos encontramos
posicionados dentro de una unidad. En Internet es el lugar donde hay que
teclear la dirección de la página Web a la que deseamos acceder para que el
ordenador la cargue y la muestre en pantalla.
Barra de herramientas: Conjunto de botones que representan las opciones de menú más comunes o las
utilizadas con más frecuencia.
Barra de tareas: Forma rectangular gris que aparece nada más cargar Windows 98 en la parte
inferior del Escritorio y la cual se divide en zona de control, el botón Inicio,
alguna barra de herramientas y la zona de carga de carpetas y aplicaciones.
Barra del explorador: Panel que se abre en la parte izquierda de las ventanas.
Base de datos: Sistema de almacenamiento de datos muy flexible que permite organizar la
información de forma muy eficiente.
Batch: Fichero de proceso por lotes, es un archivo que encadena comandos que son
realizados por el PC cuando se le invoca.
Baudio: Unidad de medida. Número de cambios de estado de una señal por segundo.
Beta: Versión anterior a la Alfa y que puede ser la versión definitiva que se
comercializará en un determinado tiempo.
Binario: Código básico de la informática que reduce todo tipo de información a cadenas
de ceros y unos, que rigen las instrucciones y respuestas del microprocesador.
BIOS: Información básica grabada en un chip imborrable que hace que un ordenador
pueda funcionar y arrancar.
Bit (binary digit): Unidad básica de información representada por ceros y unos que se van
sucediendo para conformar los distintos significados.
BMP (Bitmap): Formato de fichero gráfico por excelencia de los ordenadores PC, inventado por
Microsoft, que tiene mucha calidad y se lee rápidamente. En contra, no se
puede comprimir de ninguna manera y, generalmente, no es reconocido por
Bookmark: Marca, anotación de una dirección Web oURL que queda archivada para su
posterior uso.
Botón Inicio: Botón que se encuentra a la izquierda de la barra de tareas del escritorio y
mediante el cual ejecutamos cualquier tarea (iniciar programas, abrir
documentos, obtener ayuda, buscar archivos o carpetas, configurar el sistema o
las impresoras...
Botón secundario: Botón derecho del ratón. Muestra un menú emergente o contextual.
Bump mapping: Técnica por la cual se consigue dotar a las texturas de un relieve simulado.
Bus: Especie de carretera por donde circulan los datos dentro del ordenador
comunicando a los diferentes componentes de la placa base, que dependiendo
de su tamaño harán que un ordenador tenga mayores o menores prestaciones,
así como una mayor o menor capacidad de transferencia del ordenador.
Buscador: Servidor de Internet que organiza los ficheros por grupos temáticos y que
permite la localización de páginas Web mediante unas palabras clave que
introduce el usuario, sin necesidad de conocer las direcciones de las citadas
páginas.
Bus Serie Universal (USB): Estándar de hardware para la conexión de dispositivos externos, permite la
instalación Plug and Play, de forma que puede agregar nuevos dispositivos al
equipo sin tener que agregar ni tarjetas adaptadoras ni apagarlo.
Caché: Carpeta o memoria intermedia que almacena temporalmente los archivos del
equipo.
CD-R: Disco compacto sobre el que se puede escribir una sola vez.
CD-RW: Disco compacto regrabable, que se puede escribir, borrar y reescribir encima.
CD-Vídeo: Disco compacto que contiene imagen de vídeo, películas o clips musicales.
CGI (Common Gateway Programa que reside y se ejecuta en el servidor y que envía su salida al
Interfaces): navegador de Internet del usuario, como, por ejemplo, un formulario de envío.
Chatear: Función que permite conversar en tiempo real y dentro de Internet entre
personas situadas en distintos puntos del planeta mediante la utilización del
teclado.
Cheat code: Trucos para pasar los distintos niveles o pantallas de los videojuegos.
Chroma-key: Método de composición de vídeo que consiste en filmar actores sobre un fondo
de cierto color y luego sustituir ese color por otra imagen.
Ciberjuegos: Juegos a los que se puede acceder por Internet y que pueden ser compartidos
por los cibernautas.
Cibernética: Ciencia que estudia el diseño de máquinas automáticas o robots con objeto de
dotarles de inteligencia humana.
CISC (Complex Instruction Procesador u ordenador cuyo juego de instrucciones es complejo o amplio.
Set Computer):
Compresor: Programa que comprime ficheros, por muy grandes que éstos sean, genera un
solo archivo con ellos, además de dividir la nformación y permitir guardarla en
varios disketes.
Concept PC: Concepto que engloba la iniciativa Easy PC y las guías de implementación.
Controlador (driver): Pequeño programa que sirve para reconocer y controlar un dispositivo de
hardware específico.
Cookies: Mecanismos que permiten a los gestores de cada página web grabar las
entradas y salidas de los usuarios que acceden a su servidor. Es como si
dejáramos nuestra tarjeta de visita.
Correo electrónico: Mensajes, documentos, archivos que se envían personas a través de Internet o
de una red.
CPU (Unidad Central de Carcasa donde van montados los principales componentes del ordenador.
Proceso): Puede ser de sobremesa, minitorre, semitorre y torre.
Cuadro de diálogo: Ventana mediante la que debemos proporcionar información a una aplicación.
Cursor: Señalizador que se controla mediante el ratón o teclado y mediante el cual nos
movemos por Windows y las aplicaciones.
DAC: Circuito que decodifica las señales digitales y las convierte en analógicas, es
decir, las reproduce.
Desfragmentación: Proceso que consiste en escribir en clúster o pistas contiguas en una unidad la
información existente en éstos, ya que se han podido fragmentar (estar
desperdigadas en distintas áreas del soporte donde se guardó). La
fragmentación ralentiza la velocidad del disco y hace sufrir a la aguja.
Digital8: Soporte creado por Sony en el cual se graba digitalmente en formato DV sobre
cintas Hi8.
Digitalizar: Convertir al lenguaje del ordenador (en bits) cualquier tipo de información
gráfica, de audio o vídeo.
Dirección IP: Cadena numérica que identifica a una máquina en una red IP.
Direct3D: Funciones gráficas de Microsoft que dan soporte a las tarjetas aceleradoras.
Disco óptico: Disco que usa la tecnología láser para el registro y lectura de la información.
Doble clic: Pulsar dos veces seguidas rápidamente el botón izquierdo del ratón. Si hacemos
doble clic sobre una carpeta abrimos ésta mostrándonos su contenido en una
ventana. Si el doble clic es sobre un acceso directo se ejecuta el programa que
representa éste.
Dolby Digital (AC3): Nuevo formato de Dolby Sorround basado en cinco canales de audio, empleado
en cine y en DVD.
Dominio público: Aquellos programas de libre uso y que no suponen desembolso alguno para el
usuario.
DVD (Disco Versátil Digital): Disco compacto de alta capacidad de almacenamiento. Soporte digital de hasta
8 pistas de audio que permite almacenar películas de larga duración.
Easy PC: Iniciativa liderada por Intel y Microsoft para desarrollar equipos fáciles de
instalar, de mantener y usar.
Emulación: Cualidad que permite a algunas máquinas funcionar como otras, de forma que
se produce la compatibilidad entre ellas.
Encriptar: Mezclar los datos para protegerlos como medida de seguridad, es decir,
convertir texto normal a texto cifrado, que es ininteligible hasta que no se
desencripta.
Escritorio: Pantalla inicial o espacio de trabajo que aparece al cargar Windows 98, sobre el
cual vamos a realizar todo nuestro trabajo.
Explorador (Navegador): Aplicación mediante la cual podemos visualizar páginas Web de Internet (en
inglés browser). Los más conocidos son Internet Explorer y Netscape Navigator.
Explorador de Windows: Utilidad para ver el contenido de nuestro equipo, unidades de red y que está
basado en una estructura jerárquica.
Extensión (también Podríamos denominarlo como el apellido de un fichero, el cual aparece tras el
llamada Tipo): nombre de un archivo, después del punto y que consta de 1 a 3 letras y su
cometido es definir qué programa ha generado el archivo.
Favoritos: Carpeta donde guardamos los vínculos o direcciones de las páginas que nos
gustan de Internet.
FIF (Fractal Image Format): Formato de fichero gráfico que ahorra espacio y conserva la máxima calidad.
FireWire: Conocido como cable de fuego o IEEE 1394, es la vía de conexión de periféricos
de alta velocidad para vídeo, almacenamiento o backup.
FlexATX: Nuevo modelo de placa base más compacta y avanzada que las ATX.
Frames (marcos): Areas rectangulares que subdividen las ventanas de algunas páginas Web, cada
una de las cuales contiene un documento de hipertexto independiente de los
demás.
Full duplex: Protocolo de transmisión que permite enviar y recibir al mismo tiempo.
Gateway (Puerta de Dispositivo que permite conectar entre sí dos redes normalmente de distinto
acceso): protocolo o bien un servidor a una red.
GIF (Graphic Interchange Formato de fichero gráfico muy utilizado en Internet, ya que ocupa muy poco
Format): espacio y, con un programa especial, podemos ensamblar varias imágenes y
crear un fichero animado. En contraposición, tiene una capacidad de 256
colores máximo.
G-Lite: Versión recortada del protocolo de comunicación ADSL, recién aprobada por la
Grupos de trabajo: Conjunto de equipos conectados en red y que comparten los mismos recursos.
Hacker: Informáticos que utilizan sus grandes conocimientos para traspasar cualquier
barrera informática.
Heurística: Tipos de búsqueda inteligente que utilizan los antivirus para detectar los
cambios de forma de los virus.
Hibernación: Uno de los cinco estados de energía del nuevo PC por el cual el ordenador,
aparentemente apagado, retorna al mismo punto donde se interrumpió.
Hicolor: Modo en el que se emplean 16 bits para mostrar cada color, lo que produce
65.536 colores distintos.
Hipertexto o Hiperenlace: Documento que contiene texto o imágenes que actúan como enlaces con otros
textos o páginas cuando se pulsa sobre ellos.
Hipervínculo: Marca que nos permite el salto a otro lugar del documento o a otra ubicación
que se puede encontrar en cualquier parte del mundo.
Hoax (falsos virus): Mensajes que se propagan por Internet en forma de e-mail y que hacen alusión
a determinados virus, los cuales recomiendan difundir las advertencias de éstos
a múltiples usuarios para provocar una cadena de miles de mensajes.
Hoja de cálculo: Aplicación en forma tabular, compuesta por columnas, filas y celdas que
permiten realizar cálculos complejos, trabajar con fórmulas, funciones, analizar
datos, dar formato y hacer complicados gráficos procedentes de los datos
introducidos.
Home Page: Página primaria o introductoria a Internet. También llamada página de inicio.
Host: Anfitrión, es cualquier ordenador que tiene un número IP y que puede tanto
enviar como recibir información por una red.
Icono: Imagen que representa un archivo, una unidad, una carpeta u otro elemento.
Importar: Transferir o enviar ficheros a otro programa distinto del que los generó.
Interfaz: Aspecto que presentan los programas tras su ejecución mediante el cual
ejercemos la comunicación con éstos
Internet: Red de redes mundial. Telaraña o entramado mundial. También llamada World
Wide Web (WWW), conjunto de redes que permiten la comunicación de
millones de usuarios de todo el mundo.
Intranet: Red privada dentro de una organización que utiliza los protocolos propios de
Internet.
Intro (Enter o Retorno de Tecla que al pulsarla confirma o ejecuta una orden. En tratamientos de textos
carro): sirve para generar párrafos.
IRC (Internet Relay Chat): Servicio de Internet basado en la comunicación en tiempo real y mediante
teclado entre personas.
IRQ: Cada una de las líneas de interrupción del ordenador, mensaje con el que el
periférico avisa a éste que ha terminado la tarea que estaba realizando y le
indica que está listo para recibir nuevas instrucciones.
Java: Lenguaje de programación creado por Sun Microsystem para proporcionar más
velocidad y facilidad de uso a Internet, es independiente de la plataforma
utilizada y está disponible para cualquier navegador de la WWW que admita
JPEG (Joined Graphics Es el formato de fichero gráfico más utilizado y difundido en Internet, ya que es
Expert Group): un formato que alcanza un gran nivel de compresión (reduce las imágenes a la
décima parte o más), pero a costa de una enorme pérdida de calidad al utilizar
un método de compresión destructiva que estropea mucho los detalles, por lo
que si modificamos el fichero dos o tres veces queda inservible.
Jumper: Enlace o puente que se activa dentro de una placa base o tarjeta mediante una
palanca diminuta.
Kernel: Núcleo básico del sistema operativo, a partir del cual se establecen las distintas
capas para su integración con el hardware, para la entrada y salida de datos,
etc.
KHz: Medida para determinar la cantidad de muestras por segundo que se tiene de
un sonido y su calidad. Un KiloHertzio equivale a 1.000 Hertzios (o muestras)
Kilobyte (Kb): Medida que equivale a 1.000 bytes, aproximadamente mil caracteres.
Láser: Sistema basado en la emisión de un haz de luz muy preciso y potente, con
diversas aplicaciones: lectores y grabadoras de CD-ROM, impresoras láser,
sistemas de almacenamiento óptico, dispositivos de control, etc.
LBA: Modo especial de direccionamiento del disco duro con el que se puede acceder
a particiones de más de 528 Mbytes.
LCD (Liquid Cristal Display): Pantallas de cristal líquido que generalmente utilizan los ordenadores portátiles.
Lectura sin conexión Proceso para poder ver páginas Web sin estar conectado a Internet. Se cargan al
(conexión Off Line): disco duro y se puede tener acceso a ellas más tarde.
Link: Cada uno de los enlaces de un módulo con las librerías que utiliza. En Internet,
conexión de un documento con otro mediante un clic sobre un texto marcado o
un icono o imagen.
Maestro: Disco que funciona como principal en aquellos ordenadores que utilizan más de
un disco duro (los restantes se les denomina esclavos).
Mainframe: Nombre con que se designan a los grandes ordenadores que funcionan en
sistemas centralizados.
Mapa de bits: Tipo de archivo gráfico (compuesto por puntos) de imágenes para PC.
Marcos (frames): Areas rectangulares que subdividen las ventanas de algunas páginas Web, cada
una de las cuales contiene un documento de hipertexto independiente de los
demás.
Máscara: En los programas de dibujo, fijación de una zona de la imagen para trabajar
sobre ella y para que sus modificaciones no alteren el resto del dibujo.
Matricial: Tecnología de impresión que utiliza un sistema mecánico de impacto sobre una
cinta con tinta, con un proceso similar al de las máquinas de escribir.
Maximizar: Dícese de la acción llevada a cabo, mediante la pulsación sobre el botón del
mismo nombre en una ventana, la cual hace que ésta llene toda la pantalla del
monitor.
Mbone: Tecnología que permite aprovechar mejor el audio y vídeo a través de Internet.
Megabyte (Mb): Medida que equivale a 1.000 Kb, aproximadamente un millón de caracteres.
Megahertzio (MHz): Un millón de hertzios. Unidad de frecuencia con que se mide la velocidad de los
microprocesadores.
Memoria virtual: Archivo del disco duro (conocido como fichero de intercambio) que el sistema
operativo utiliza como si de memoria RAM se tratase, aunque bastante más
lenta.
Mendocino: Nombre clave de Celeron, pero con memoria caché externa, algo más rápida.
Menú contextual o Lista de comandos que aparece al hacer clic con el botón derecho del ratón
emergente: sobre un objeto.
Microprocesador: Unidad de proceso y corazón del ordenador. Podríamos decir que es el jefe del
ordenador, el cual procesa y distribuye el trabajo a los demás componentes del
ordenador
Minimizar: Dícese de la acción llevada a cabo, mediante la pulsación sobre el botón del
mismo nombre en una ventana, la cual hace que ésta se esconda en la barra de
tareas y deje el espacio del escritorio listo para otro uso.
Mirroring: Duplicar los datos de un disco a otro, de las páginas de Internet o de un back-
up.
MOD, S3M, XM, IT: Formatos de ficheros de canciones basadas en instrumentos y sonidos propios,
distintos del estándar MIDI.
Módem Dispositivo que transmite datos desde un equipo a otro a través de la línea
(modulador/demodulador): telefónica.
MS-DOS (Microsoft Disk Sistema operativo que nació con el PC, creado por Microsoft, y que contribuyó a
Operating System): la expansión de la informática en el ámbito doméstico.
MOV: Formato de vídeo digital desarrollado por Apple, con más calidad que el
formato AVI.
Multiprocesador: Ordenadores que contienen dos o más procesadores y que tratan una fuente de
datos común.
Multitarea: Dícese de aquellos sistemas operativos que pueden ejecutar varias tareas al
mismo tiempo.
Neo-luditas: Quienes por razones morales o intelectuales se oponen a las nuevas tecnologías.
Newsgroups (grupos de Servicio denominado simplemente noticias o news, son grupos de personas que
noticias): tienen intereses comunes en un determinado tema y que se intercambian
mensajes entre sí, opinan, discuten, debaten, exponen o, simplemente, hacen
amigos.
No-virus: Ficheros (demos, bromas---) que no son virus, pero que el antivirus los detecta
como tales.
NTSC: Formato de TV estándar en EE. UU. y Japón, con una resolución de 768x486 a
30 fps.
OCR (Reconocimiento Software que permite reconocer los caracteres y convertirlos a texto
Óptico de Caracteres): informático.
Off-line: Proceso para poder ver páginas Web sin estar conectado a Internet. Se cargan al
disco duro y se puede tener acceso a ellas más tarde.
On-line (en línea): Conexiones a la red donde las respuestas del sistema se generan de forma casi
inmediata.
OnNow: Sistema de administración de energía del ordenador que ayuda a ahorrar ésta, a
prevenir el desgaste de la unidad y reducir el ruido.
Página principal (Home Página primaria o introductoria a Internet. También llamada página de inicio.
Page):
Página Web: Documento realizado en HTML y que es parte de un sitio Web.
Panel de control: Grupo de herramientas que se utilizan para cambiar la configuración de nuestro
Partición: Subdivisión que se realiza en el disco duro con el fin de obtener un mayor
aprovechamiento de éste.
PCI: Bus local de 32 bits cuyas ranuras conectan tarjetas que requieren
transferencias rápidas.
Pirata: El que copia software ilegalmente y lo comercializa sin ningún tipo de licencia.
Plug-ins: Aplicaciones que permiten interpretar y visualizar distintos tipos de ficheros que
contienen elementos multimedia y que funcionan sincronizadamente con el
navegador.
Plug & Play: Tecnología que nos permite añadir un periférico o hardware al ordenador y
reconocerlo inmediatamente para trabajar (conectar y listo).
Plug & Play en caliente: Conectar un periférico y listo, sin necesidad de reiniciar el ordenador.
PNG (Portable Network Especificación diseñada para una mejor carga y calidad de los gráficos en
Graphics): Internet, cuya característica principal es que no reduce el número de colores de
una imagen, lo que evita pérdida de calidad.
Portales: Páginas que se utilizan como punto de partida y que se estructuran por
contenidos, índices y temas, además de ser potentes bases de datos o
buscadores de información por Internet, es decir, localizadores de otras páginas
de las cuales no conocemos su dirección, pero que las encontramos al teclear en
éstos unas palabras clave.
Programa: Grupo de instrucciones que sirven para realizar determinadas tareas. También
llamadas aplicaciones.
Programa residente: Programa que permanece vivo en la memoria RAM del sistema y se activa para
interceptar un virus entrante.
Proveedor de contenidos: Empresa que utiliza Internet para proporcionarle información como noticias,
partes meteorológicos, informes, entretenimiento.
Proveedor de Servicios Organización que proporciona acceso a Internet mediante una tarifa y que nos
Internet (ISP): ofrece una serie de servicios.
Proxy: Servidor que realiza la conexión a Internet y que sirve de puerta de entrada a los
ordenadores cliente.
Puerto paralelo: Conector del ordenador que sirve para comunicarse con otros periféricos, como
la impresora.
Puntero: Flecha que aparece por la pantalla y que se controla mediante el movimiento
del ratón para poder realizar multitud de operaciones.
Quote: Término que designa a los fragmentos de texto o anotaciones del correo
electrónico que sirven de recordatorio al destinatario cuando se le responde un
mensaje.
RAM (Random Access Memoria de Acceso Aleatorio que mantiene vivos los datos hasta que se
Memory): desconecta el ordenador.
RDSI: Red Digital de Servicios Integrados. Permite tener dos canales a la vez y
velocidades de transmisión de hasta 128K por segundo.
Remarcado: Procesador "forzado" a trabajar a una frecuencia mayor que la que admite.
RISC (Reduced Instruction Tipo de procesador que incorpora un juego de instrucciones reducido.
Set Computer):
Robótica: Ciencia que se dedica al diseño y creación de robots o máquinas que realizan
actividades peligrosas, pesadas o repetitivas.
ROM (Read Only Memory): Memoria de sólo lectura. Controla las rutinas fundamentales para el
funcionamiento de un ordenador y que no pueden ser borradas por el usuario
ni aunque se desconecte la máquina.
Ruta de acceso (Path - Forma para llegar hasta un lugar o una ubicación determinada, partiendo de
Camino o Trayectoria): una unidad específica, por carpetas y nombre de archivo.
Rutina: Conjunto de instrucciones que realizan una función muy concreta dentro de un
programa o en un dispositivo hardware.
SCSI (Small Computer Interfaz de hardware para la instalación en el ordenador de periféricos como
System Interface): escáneres, módems, discos duros, que requieren de una transmisión rápida y
continuada.
Servicio en línea: Servicio Internet que proporciona una amplia gama de contenido a sus
suscriptores, incluyendo el acceso a Internet.
Servidor: Equipo que controla el acceso de los usuarios a una red y les da servicio e
información.
Síntesis WaveTable: También conocida como tabla de ondas, es un sistema para reproducir música
MIDI basado en almacenar en memoria muestras de instrumentos reales.
Sistema: Conjunto formado por el hardware y software que componen la parte esencial
del ordenador.
Sistema de archivos: Estructura general en la que asigna nombres, almacena y organiza los archivos
el sistema operativo.
Slot: Ranura de expansión, cada abertura que tiene la placa base en las que se
insertan las tarjetas de expansión y que contribuyen a mejorar el rendimiento y
las prestaciones de un ordenador.
S!MT!!OE!!!: Significa que el usuario ha perdido el control.
Spamming: Bombardeo de los buzones con correo basura o no deseado por parte de los
spammer.
Suite: Grupo de programas que cubren las principales aplicaciones de oficina, como el
procesador de textos, la hoja de cálculo, la base de datos, la agenda personal o
el programa de gráficos y presentaciones, el cual se vende en un único paquete.
Antiguamente se les conocía como paquetes integrados.
Surround: Efecto de sonido envolvente que sitúa el sonido alrededor del espectador y no
frente a él.
S-Vídeo: Formato de vídeo por el cual las imágenes se transmiten con su información de
color (crominancia) y de iluminación (luminancia) separadas.
Tabla de asignación de Método utilizado por los sistemas operativos para hacer un seguimiento de
archivos (FAT): dónde están almacenados los archivos en un disco duro.
Tarjeta de red: Hardware que se inserta en un equipo para conectarlo a una red.
Telemática: Ciencia que estudia los métodos, técnicas y servicios de la fusión entre las
telecomunicaciones y la informática.
Telnet: Servicio que permite la conexión remota con cualquier ordenador de la red
situado en cualquier parte del mundo como si de una terminal más se tratase.
Terminal: Dispositivo que forma parte de una red controlada por una unidad central
TFT: Tecnología de pantalla de matriz activa que se utiliza en los equipos portátiles.
TGA (Targa): Formato de fichero gráfico profesional que graba imágenes con profundidades
hasta 32 bits. Desfavorablemente, ocupa mucho espacio en disco y no guarda
ciertos detalles, como la resolución de impresión.
THX: Sistema de sonido surround creado por LucasFilm para recrear audio
espectacular en cine y en casa.
TIFF: Formato de fichero gráfico creado por Adobe Systems con una gran calidad de
imagen. Está considerado como la piedra filosofal de los gráficos por
ordenador, ya que todo lo que se graba en este formato queda perfectamente
conservado de por vida, manteniendo todos los detalles. Lo único en su contra
es que ocupa bastante espacio en disco.
Token Ring: Protocolo para redes de IBM que consiste en un anillo donde una especie de
relevo se encarga de "pasar turno" entre las máquinas que desean transmitir la
información.
Tóner: Depósito de tinta que utilizan las impresoras láser, fax y fotocopiadoras para
imprimir.
TPV (Terminal Punto de Híbrido de ordenador y cajero automático que se encuentra en muchos
Venta): establecimientos comerciales y que funciona como un terminal de pago
conectado al ordenador central.
Trackball: Especie de ratón que dirige el cursor mediante el movimiento de una bolita
situada en la parte superior y que se mueve con la mano.
Trial: Paquete de prueba que los fabricantes ceden a sus clientes durante un corto
período de prueba.
Truecolor: Modo de 32 bits para mostrar cada color, traducido en más de 16 millones de
colores.
Unidad: Dispositivo físico de almacenamiento de los datos. Por lo general se les nombra
mediante una etiqueta o nombre (A:, C:, D:).
Unidad Central de Proceso Carcasa donde van montados los principales componentes del ordenador.
(CPU):
UPS: Unidad de alimentación ininterrumpida, también conocida como SAI, que sirve
para proteger nuestros datos en caso de que se vaya la luz.
USB (Universal Serial Bus): Conector de dispositivos externos que hace de vía de ampliación de los nuevos
ordenadores.
Usenet: Conjunto de grupos de noticias que se encuentran accesibles por todo Internet.
Usuario remoto: Persona que se conecta a una red mediante un módem y Acceso telefónico a
redes.
Ventana: Forma rectangular que aparece en la pantalla y representa a una carpeta, una
aplicación, un elemento.
Vídeo CD: Disco compacto que contiene una película grabada en vídeo digital (formato
MPEG-1).
Vídeo Compuesto: Formato de vídeo en el que en una misma señal se transmite tanto la
luminancia como la crominancia, con la consiguiente ligera pérdida de nitidez.
Vínculo: Texto o imagen donde al hacer clic sobre ella nos lleva a una ubicación distinta
dentro del documento o a una página Web en Internet.
VRLM (Virtual Reality Formato de descripción de entornos en tres dimensiones que permite dibujar
Modeling Language): dichos entornos y navegar por ellos con el ratón. Con este lenguaje podemos
entrar en "mundos virtuales", recorrerlos e interactuar con los objetos
contenidos en éstos.
WAV, RAW, VOC: Formatos de ficheros que contienen audio digital tanto de música como de
sonido.
Web: World Wide Web, Internet. Zona gráfica compuesta por millones de páginas
Web y a la cual accedemos por medio de un navegador.
Yahoo: Portal más popular de Internet que permite la búsqueda de páginas Web por
criterios o contenidos.
ZIF (Zero Insertion Force): Zócalo del microprocesador en el que no es necesario ejercer ninguna presión
para pinchar el micro, sino que basta con levantar una palanca.
2. Mueller, Scott. Manual de Actualización y Reparación de PCs, España, Prentice Hall, Pearson Education
1998.
3. Dario Ángel González, Curso práctico de computación: Aprendiendo PC, fácil, rápido y bien (en
español/Spanish), MP Ediciones, España, 1999.
5. Mueller, Scott, Manual Actualización Reparación PCS. 12ª Edición, España, Prentice Hall.
Páginas de Internet: