Está en la página 1de 506

Manual para la formación de

Soporte Técnico en TIC


Introducción Técnica a los sistemas
informáticos y de comunicaciones

PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información.
PDF generated at: Mon, 06 Sep 2010 18:11:18 UTC
Contenidos
Artículos
Introducción a Sistemas Informáticos 1
Informática 1
Computadora personal 4
Hardware 10
Periférico 21
Entrada/salida 23
Controlador de dispositivo 25
Software 27
Bus (informática) 46
Bus de direcciones 50
Bus de control 51
Firmware 51
BIOS 56
Memoria ROM 58
Sistema operativo 58
Microsoft Windows 66
Windows XP 76
Windows Vista 84
Windows 7 92
Unix 100
GNU/Linux 107
Mac OS 114
Mac OS X 117

Ensamblaje de PC 136
Placa base 136
CPU 141
Procesador 141
Memoria de acceso aleatorio 142
Fuente eléctrica 151
Tarjeta de sonido 157
Tarjeta gráfica 163
Caja de computadora 173
Disco duro 177
CD-ROM 187
DVD 191
Disquete 198

Mantenimiento y Reparación de PC 203


Mantenimiento 203
Optimización (cómputo) 204
Optimización de software 205
Instalación de software 205
Registro de Windows 207
Sistema de archivos 209
Tabla de Asignación de Archivos 213
NTFS 222
ext3 225
Formato de disco 231
CCleaner 232
TuneUp Utilities 235
Desfragmentador de disco de Windows 239

Sistema de Cableado Estructurado 242


Cableado estructurado 242
Backbone 245
Encaminamiento 247
Punto neutro 251
Topología de red 253
Red de computadoras 255
Red en bus 263
Red en estrella 264
Red en árbol 265
Red en malla 266
Red en anillo 268
Token Ring 269
TIA-568B 270
Cable de par trenzado 274
RJ-45 278

Introducción a redes LAN y WLAN 284


Red de área local 284
Tarjeta de red 288
Conexión por línea conmutada 290
Módem 291
Sistema binario 299
Bit 310
Byte 314
Modelo OSI 319
Familia de protocolos de Internet 325
Ethernet 327
Concentrador 334
Puente de red 337
Brouter 338
Enrutador 338
Conmutador (dispositivo de red) 342
Router ADSL 345
Dirección IP 348
Máscara de red 353
Gateway (informática) 357
Domain Name System 358
Dynamic Host Configuration Protocol 363
Wi-Fi 370
WLAN 375
Comunicación inalámbrica 378
Punto de acceso inalámbrico 380
Red inalámbrica 381

Redes WAN y Seguridad Informática 384


Red de área amplia 384
Línea de abonado digital 389
Asymmetric Digital Subscriber Line 391
Asynchronous Transfer Mode 394
Red punto a punto 398
Point-to-Point Protocol 400
PPPoA 403
PPPoE 403
Frame Relay 404
Red privada virtual 407
VLAN 410
Seguridad informática 412
Seguridad de la información 421
Autenticación 431
Autorización 437
Criptografía 438
Esteganografía 442
Ingeniería social (seguridad informática) 451
Antivirus 453
Programa espía 459
Cortafuegos (informática) 462
Seguridad en Internet 467
Phishing 470
Correo electrónico 477

Referencias
Fuentes y contribuyentes del artículo 487
Fuentes de imagen, Licencias y contribuyentes 496

Licencias de artículos
Licencia 501
1

Introducción a Sistemas Informáticos

Informática
La Informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la
información, utilizando sistemas computacionales, generalmente implementados como dispositivos electrónicos.
También está definida como el procesamiento automático de la información.
Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:
• Entrada: captación de la información.
• Proceso: tratamiento de la información.
• Salida: transmisión de resultados.
En los inicios del procesado de información, con la informática sólo se facilitaban los trabajos repetitivos y
monótonos del área administrativa. La automatización de esos procesos trajo como consecuencia directa una
disminución de los costes y un incremento en la productividad.
En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías
para el desarrollo de software, la arquitectura de computadores, las redes de computadores, la inteligencia artificial y
ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este
conjunto de disciplinas.
Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo:
gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria,
robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Una de
la aplicaciones más importantes de la informática es proveer información en forma oportuna y veraz, lo cual, por
ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de
procesos críticos.
Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un
enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos
más complejos.
Entre las funciones principales de la informática se cuentan las siguientes:
• Creación de nuevas especificaciones de trabajo.
• Desarrollo e implementación de sistemas informáticos.
• Sistematización de procesos.
• Optimización de los métodos y sistemas informáticos existentes.
Informática 2

Etimología
El vocablo informática proviene del francés informatique, acuñado por el ingeniero Philippe Dreyfus para su
empresa «Société d'Informatique Appliquée» en 1962. Pronto adaptaciones locales del término aparecieron en
italiano, español, rumano, portugués y holandés, entre otras lenguas, refiriéndose a la aplicación de las computadoras
para almacenar y procesar la información.
Es un acrónimo de las palabras information y automatique (información automática). En lo que hoy día conocemos
como informática confluyen muchas de las técnicas, procesos y máquinas (ordenadores) que el hombre ha
desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento y de
comunicación.
En el Diccionario de la Real Academia Española se define informática como:[1]
Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por
medio de ordenadores.
Conceptualmente, se puede entender como aquella disciplina encargada del estudio de métodos, procesos, técnicas,
desarrollos y su utilización en ordenadores (computadoras), con el fin de almacenar, procesar y transmitir
información y datos en formato digital.
En 1957 Karl Steinbuch acuñó la palabra alemana Informatik en la publicación de un documento denominado
Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información). En
ruso, Alexander Ivanovich Mikhailov fue el primero en utilizar informatika con el significado de «estudio,
organización, y la diseminación de la información científica», que sigue siendo su significado en dicha
lengua.[cita requerida]
En inglés, la palabra Informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962,
cuando Bauer cofundó la empresa denominada «Informatics General, Inc.». Dicha empresa registró el nombre y
persiguió a las universidades que lo utilizaron, forzándolas a utilizar la alternativa computer science. La Association
for Computing Machinery, la mayor organización de informáticos del mundo, se dirigió a Informatics General Inc.
para poder utilizar la palabra informatics en lugar de computer machinery, pero al empresa se negó. Informatics
General Inc. cesó sus actividades en 1985, pero para esa época el nombre de computer science estaba plenamente
arraigado. Actualmente los angloparlantes utilizan el término computer science, traducido a veces como «Ciencias de
la computación», para designar tanto el estudio científico como el aplicado; mientras que designan como information
technology (IT) o data processing, traducido a veces como «tecnologías de la información», al conjunto de
tecnologías que permiten el tratamiento automatizado de información.
Informática 3

Historia

Computador Z3
El computador Z3, creado por Konrad Zuse, fue la primera máquina
programable y completamente automática, características usadas para
definir a un computador. Estaba construido con 2200 relés
electromecánicos, pesaba 1000 kg, para hacer una suma se demoraba
0,7 segundos y una multiplicación o división, 3 segundos. Tenía una
frecuencia de reloj de 5 Hz y una longitud de palabra de 22 bits. Los
cálculos eran realizados con aritmética de coma flotante puramente
binaria. La máquina fue completada en 1941 y el 12 de mayo de ese
mismo año fue presentada a una audiencia de científicos en Berlín. El
Z3 original fue destruido en 1944, durante un bombardeo de los aliados
a Berlín. Posteriormente, una réplica completamente funcional fue
construida durante los años 60 por la compañía del creador Zuse KG, y
está en exposición permanente en el Deutsches Museum. En 1998 Raúl
Rojas demostró que el Z3 es Turing completo.[2] [3]

Konrad Zuse (1992).


Véase también
• Portal:Informática. Contenido relacionado con Informática.
• Computadora
• Historia de la computación
• Historia del hardware de computador
• Hardware
• Software
• Anexo:Jerga informática
• Diferencias lingüísticas entre España y Latinoamérica
• Clonación de computadoras y programas
• Interacción del hombre con la computadora
• Campos relacionados: Ingeniería en Computación | Ciencias de la computación | Ciencias de la información |
Ingeniería de software | Redes Informáticas
• Ingeniería informática

Enlaces externos
• Wikiquote alberga frases célebres de o sobre Informática. Wikiquote
• Glosario de informática inglés-español bajo licencia GNU FDL [4]
• Glosario de informática Inglés-Español, Proyecto ORCA [5].
• Glosario de informática GNOME-ES [6].
• Glosario de informática [7].
Informática 4

Referencias
[1] Definición de informática (http:/ / buscon. rae. es/ draeI/ SrvltGUIBusUsual?TIPO_HTML=2& TIPO_BUS=3& LEMA=informática) en el
DRAE
[2] Rojas, Raúl (1998). «How to make Zuse's Z3 a universal computer» (en inglés). IEEE Annals of the History of Computing 20 (3):  pp. 51–54.
doi: 10.1109/85.707574 (http:/ / dx. doi. org/ 10. 1109/ 85. 707574).
[3] Rojas, Raúl. « How to make Zuse's Z3 a universal computerHow to Make Zuse's Z3 a Universal Computer (http:/ / www. zib. de/ zuse/ Inhalt/
Kommentare/ Html/ 0684/ universal2. html)» (en inglés). Zuse Institute Berlin (http:/ / www. zib. de/ ). Consultado el 23 de junio de 2009.
[4] http:/ / quark. fe. up. pt/ orca/ index. es. html
[5] http:/ / es. tldp. org/ ORCA/ glosario. html
[6] http:/ / www. linuxlots. com/ ~barreiro/ spanish/ gnome-es/
[7] http:/ / es. l10n. kde. org/ glosario. php

Computadora personal
Una computadora personal u ordenador personal, también conocida
como PC (sigla en inglés de personal computer), es una
microcomputadora diseñada en principio para ser usada por una sola
persona a la vez. (En el habla habitual, las siglas PC se refieren más
específicamente a la computadora compatible IBM PC.) Una
computadora personal es generalmente de tamaño medio y es usado por
un solo usuario (aunque hay sistemas operativos que permiten varios
usuarios simultáneamente, lo que es conocido como multiusuario).

Una computadora personal suele estar equipada para cumplir tareas


comunes de la informática moderna, es decir permite navegar por
Internet, escribir textos y realizar otros trabajos de oficina además de
Ilustración de un moderno ordenador de
escuchar música, ver videos, jugar, estudiar, etc.
sobremesa
En cuanto a su movilidad podemos distinguir entre computadora de
escritorio y computadora portátil. Dentro del conjunto de las computadoras portátiles están las llamadas
computadoras portátiles de escritorio.

Historia
El primer registro que se conoce del término
"computadora personal" apareció en la revista New
Scientist en 1964, en una serie de artículos llamados
«El mundo en 1984». En un artículo titulado The
Banishment of Paper Work, Arthur L. Samuel, del
Centro de Investigación Watson de IBM escribió:
«Hasta que no sea viable obtener una educación en
casa, a través de nuestra propia computadora personal,
la naturaleza humana no habrá cambiado».

La primera generación que comenzó a fabricarse en los


años setenta (véase computadora doméstica), era
mucho menos polifacética y potente que las Una PC de IBM.

computadoras de las empresas de aquel entonces, y en


Computadora personal 5

general eran utilizadas por los aficionados a la informática para jugar. Fue el lanzamiento de la hoja de cálculo
VisiCalc, en principio para Apple II y después para el IBM PC, la verdadera aplicación que logró convertir a la
microcomputadora en una herramienta de trabajo. El bajo costo de las computadoras personales le hizo adquirir una
gran popularidad tanto para las familias como para los trabajadores en los años ochenta.
En los noventa el poder de las computadoras personales aumentó de manera radical, borrando la frontera desfasada
que había entre las computadoras personales y las computadoras de varios usuarios como las computadoras
centrales. Hoy las computadoras de gama alta se distinguen de las computadoras personales por su mayor fiabilidad
o su mayor habilidad para realizar multitareas y no por la potencia de la CPU.
La mayoría de las computadoras personales utilizan una arquitectura de soporte físico compatible con el PC de IBM,
usando procesadores compatibles con x86 realizados por Intel, AMD o Cyrix.
A pesar de la enorme popularidad de la computadora personal, varias microcomputadoras incompatibles con IBM
(también llamados de manera general computadoras personales) son todavía populares para determinados usos
específicos. La principal alternativa, hasta hace poco, era la computadora con procesador PowerPC, con el sistema
operativo Mac OS X de Apple Computer (aunque otros sistemas operativos pueden correr sobre esta arquitectura),
que se usa sobre todo para diseño gráfico y usos relacionados, sirviendo también perfectamente para un usuario
doméstico. Hay que decir que a partir de 2006 las computadoras de Apple usan microprocesadores de Intel y ya no
se fabrican PowerPC. Pese a ello siguen siendo incompatibles (los compatibles utilizan BIOS y los Mac EFI).
La computadora personal es en una palabra consumidor-amistosa para la segunda generación de computadoras de
escritorio, que se incorporaron en el mercado a 1977 y llegaron a ser de uso común durante los años 80. También se
conocen como computadoras personales.
La computadora personal llegó a ser de fácil adquisición para el público en general debido a la producción en masa
del microprocesador basado en el chip de silicio y como el nombre indica, pensada para ser utilizada en el hogar
antes que en negocios/contextos industriales. También fueron diseñadas para ser inmediatamente útiles a los clientes
no técnicos, en contraste con las microcomputadoras de la primera generación que vinieron como kits y requirieron a
menudo habilidades en electrónica. El uso del término “computadora personal” murió en gran parte hacia finales de
la década (en los EE.UU.) o en los años 90 tempranos (en Europa). Esto se debió a la aparición de la computadora
personal compatible de la PC de IBM, y a la preferencia consiguiente por el término “PC” antes que “la computadora
personal”.

Computadoras personales notables


La lista de abajo muestra las computadoras personales más
populares e históricamente más significativas de los últimos años
70 y de los años 80. Incluye su año inicial del lanzamiento así
también como su región/país de origen. Los lanzamientos más
significativos en los EE.UU. fueron: Apple II (1977), IBM PC
(1981), el Commodore 64 (1982), y el Apple Macintosh (1984).
Una plétora de computadoras personales surgió durante este
período, pero no pudieron tener un impacto significativo en el
mercado de los EE.UU. o la historia de la computación doméstica Una de las primeras computadoras personales, la Apple
II.
y como tales no se mencionan (esto incluye las máquinas no
vendidas/conocidas en los EE.UU.). Diversos modelos en una
línea de computadoras compatibles se enumeran en su totalidad, por ejemplo las familias II y TRS-80 de Apple.

(Para una descripción más completa de las computadoras personales, es decir, no solamente de las más notables
dadas abajo, ver la lista de las computadoras personales.)
• Junio de 1977: Apple II (Norteamérica) (gráficos a color, ocho ranuras de expansión)
Computadora personal 6

• Agosto de 1977: Tandy Radio Shack TRS-80 (N.) (Primera computadora personal de menos de US$600)
• Diciembre de 1977: Commodore PET (N.) (Primera computadora completa: teclado/pantalla/cinta)
• 1979: Atari 400/800 (N.) (Primera computadora con un chipset específico y chip de video programable)
• 1979: TI-99/4 (primera computadora personal con un procesador de 16 bits)

Los años 80
• 1980: Commodore VIC-20 (por debajo de US$300; primera computadora en el mundo en pasar la marca de un
millón de unidades vendidas)
• 1980: Computadora a color TRS-80 (Motorola 6809, trabajos múltiples opcionales OS-9)
• 1980: Osborne Computer Company lanza el Osborne 1 (primera computadora "portátil")
• Junio de 1981: Texas Instruments TI-99/4A - basada en el menos exitoso TI-99/4, segunda computadora personal
con una CPU de 16 bit, primera en agregar gráficos "sprite"
• Agosto de 1981: PC de IBM - versión original de la plataforma de hardware compatible de la PC de IBM. El
modelo original fue denominado IBM 5150. Fue creado por un equipo de 12 ingenieros y los diseñadores bajo la
dirección de Estridge de la división de los sistemas de la entrada de IBM en Boca Ratón, Florida
• 1981: Sinclair ZX81 (Europa) - el kit costaba £49,95; £69,95 pre-construido. Fue lanzado como Timex Sinclair
1000 en los EE.UU. en 1982
• 1981: BBC micro (Europa) - computadora educativa del Primer Ministro del Reino Unido por una década;
BASIC avanzado con el ensamblador integrado del código automático 6502; diseñado con una miríada de puertos
de entrada-salida
• 1982: Kaypro lanza la computadora Kaypro II
• Abril de 1982: Sinclair ZX Spectrum (Europa) - la computadora personal británica más vendida; creó la industria
británica del software
• Agosto de 1982: Commodore 64 - El modelo de computadora más vendido de todos los tiempos: ~ 17 millones
vendidos
• 1983: Coleco Adam
• 1983: MSX (Japón) - diseño de referencia de ASCII y Microsoft, fabricado por varias compañías: ~ 5 millones
vendidos)
• 1983: Laser 200 - computadora de VTech de nivel de entrada dirigida siendo el más barato en mercado).
• Enero de 1984: Apple Macintosh (N.) - Primer ratón comercialmente acertado conducido, hogar/computadora
personal completamente GUI-basados; primer 16/32-bit
• 1984: Amstrad/Schneider CPC y PCW se extiende (Europa) - estándar británico antes de la PC de IBM; Ventas
alemanas al lado de C64 y el Macintosh, de Apple
• 1985: ST de Atari (N.) - Primero con el interfaz incorporado de MIDI; también ESPOLÓN 1MB por menos de
US$1000
• Julio de 1985: Commodore Amiga (N.) (chipset de encargo para los gráficos y el sonido; OS de los trabajos
múltiple)
• 1987: Acer Archimedes (Europa) (basada en el microprocesador Acer-en desarrollo de gran alcance del BRAZO
de 32 bit; la mayoría de la computadora personal de gran alcance en su clase en su principio)

Videoconsolas notables
Lo siguiente es una lista de las videoconsolas más populares o más importantes que tuvieron que competir con los
computadores personales (PC). Aunque los videojuegos no eran el principal fin de los PC, muchas computadoras
tuvieron que competir en dicho mercado contra las videoconsolas, ya que éstas les restaban cuota de mercado. En
esta lista se muestran únicamente aquellas videoconsolas que supusieron alguna novedad técnica o tuvieron
importancia desde el punto de vista de la popularidad.
Computadora personal 7

• Magnavox Odyssey (1972) (primera consola, sin el sonido y sin color, todo-análoga)
• Canal F (1976) (primera consola con microprocesador, primera con sonido y a color, y primera consola de
Fairchild en utilizar cartuchos). Primera consola exitosa de Atari 2600 (también conocida como Atari VCS)
(1977)
• Magnavox Odyssey2 (1978) (también conocida como Philips Videopac G7000) (primera con teclado QWERTY)
• Milton Bradley Microvision (1979) (Primera consola con cartuchos separables de la consola donde iba cargado el
juego; pantalla monocromática de LCD)
• Mattel Intellivision (1980) (Dirigida a competir con la Atari 2600, pionera en los 16 bits aunque sus gráficos
seguían siendo similares a los de la Atari 2600. Fue la primera consola en incorporar un cable-módem para poder
descargarse juegos de la compañía de cable contratada, pero no era capaz de conectarse a Internet, puesto que
Internet en aquella época aún no existía como tal).
• Vectrex (1982) (Videoconsola con la pantalla incorporada, y cuyos gráficos se representaban con vectores en vez
de una matriz de bits)
• Atari 5200 (1982) (Primera videoconsola basada en una computadora personal)
• Colecovision (1982) (La videoconsola más popular de la segunda generación, tenía 8 bits; Primera con gráficos
de calidad Arcade)
• Nintendo Entertainment System (NES) (1985) de Nintendo (La videconsola más popular de la tercera generación,
tenía 8 bits)
• Sega Master System (1986) (Vendió más que la NES en algunas partes de Europa y Brasil; A partir de esta
consola las consolas empezaron a resultar realmente populares, debido a su más bajo precio)
• Sega Mega Drive/Génesis (1988/1989) (primera consola de 16 bit exitosa)
• Game Boy (1989) de Nintendo (Primera videoconsola portátil, tuvo muchísimo éxito y se editaron cientos de
juegos para ella)
• Atari Lynx (1989) (Primeros consola portátil con gráficos a color, tenía un LCD retroiluminado, no obstante fue
un rotundo fracaso comercial).
• Super NES (1991) (La consola gozo de una gran popularidad en los principales mercados).
• Nintendo 64
• Play Station
• Game Cube
• PS2 (2000) (Fue la primera consola en incluir lector de DVD, lo que hizo subir notablemente el precio de la
máquina en un principio; aunque posteriórmente, gracias a sus continuas bajadas de precio y a su gran catálogo de
juegos consiguió ser una de las consolas más populares en la historia de los videojuegos)
• Xbox
• Wii (2006)
• PS3 (2006) (Su arquitectura es semejante a la de una computadora, gracias a su procesador central de 8 núcleos.
Aparte de ser un sistema videojuegos, puede ser utilizada para actividades informáticas, mediante la instalación
del sistema operativo Linux).
• Xbox 360(2005)(segunda consola de sobremesa lanzada por microsoft. Destaca por su potente procesador de 3
núcleos, sus juegos en línea, y por ser un gran centro multimedia de juegos, además de una fuerte apuesta por la
venta del contenido para la consola a través de Internet).
Computadora personal 8

Software

El texto que sigue es una traducción defectuosa o incompleta.


[1]
Si deseas colaborar con Wikipedia, busca el artículo original y personal mejora o finaliza esta traducción .
Puedes dar aviso al autor principal del artículo pegando el siguiente código en su página de discusión: {{subst:Aviso
maltraducido|Computadora personal}} ~~~~

Un Software es un término general que se utiliza para describir una colección de programas informáticos,
procedimientos y documentación que realizar algunas tareas en el sistema de un equipo. el término incluye software
de aplicación, como los procesadores de texto que realizan tareas productivas para los usuarios, software de sistema,
como los sistemas operativos, que la interfaz con el hardware para proporcionar los servicios necesarios para el
software de aplicación, y middleware que controlan y coordinan sistemas distribuidos.
Las aplicaciones de software para procesamiento de textos, navegación por Internet, fax, correo electrónico,
reproducción multimedia, juego de equipo y programación informática son comunes. El usuario de un moderno
equipo de personal puede poseer conocimientos significativos de los programas operativos de medio ambiente y la
aplicación, pero no es necesariamente interesados en programación ni siquiera pueden escribir programas para el
equipo. Por lo tanto, la mayoría del software escrita principalmente para ordenadores personales tiende a ser
diseñado con facilidad de uso. Sin embargo, la industria del software continuamente proporcionan una amplia gama
de nuevos productos para su uso en computadoras personales, dirigidos tanto el experto y el usuario no-experto.

Sistema operativo
Un sistema operativo (SO) administra los recursos de equipo y proporciona a los programadores con una interfaz que
se utiliza para acceder a esos recursos. Un sistema operativo procesa los datos del sistema y la entrada del usuario y
responde mediante la asignación y administración de tareas y los recursos del sistema interno como un servicio a los
usuarios y programas del sistema. Un sistema operativo realiza tareas básicas como la memoria de control y
asignación, dar prioridad a las solicitudes de sistema, control de entrada y dispositivos, facilitar la creación de redes
de equipo y la administración de archivos de salida.
Sistemas operativos de escritorio contemporáneos común son Microsoft Windows (90.65 % de participación en el
mercado), Mac OS X (7 %), (0,95 %) de Linux, Solaris y FreeBSD. Windows, Mac y Linux todos tienen servidor y
variantes personales. Con la excepción de Microsoft Windows, los diseños de cada uno de los sistemas operativos
antes mencionados fueron inspirados por, o directamente heredados, el sistema operativo UNIX. UNIX fue
desarrollado en los laboratorios Bell a finales del decenio de 1960 y propicia el desarrollo de numerosos sistemas
operativos libres como propietarios.

Microsoft Windows
Microsoft Windows es el nombre de marca colectivo de varios sistemas operativo de Microsoft. Microsoft introdujo
por primera vez un entorno operativo denominado Windows en noviembre de 1985 como un complemento para
MS-DOS en respuesta al creciente interés en las interfaces gráficas de usuario (GUI). la versión más reciente de
cliente de Windows es Windows 7 y Windows Server 2008 R2, que estaba disponible para la venta el 22 de octubre
de 2009

GNU/Linux
GNU/Linux es una familia de sistemas operativos tipo UNIX. Linux es uno de los ejemplos más prominentes de
software libre y el desarrollo de código abierto: normalmente todo el código fuente puede ser libremente modificado,
utilizado, y redistribuido por cualquier persona. el nombre "Linux" proviene del núcleo de Linux, comenzado en
1991 por Linus Torvalds. Las utilidades y las bibliotecas del sistema generalmente vienen desde el sistema operativo
GNU, anunciado en 1983 por Richard Stallman. La contribución de GNU es la base para el nombre alternativo de
Computadora personal 9

GNU/Linux.

Mac OS X
Mac OS X es una línea de sistemas operativos de gráficas desarrollado, comercializados y vendidos por Apple Inc..
Mac OS X es el sucesor de la original Mac OS, que había sido el sistema operativo principal de Apple desde 1984. A
diferencia de sus predecesores, Mac OS X es un sistema operativo basado en UNIX. La versión más reciente de Mac
OS X es Mac OS X 10,6 "Snow Leopard", y la actual versión del servidor es Mac OS X Server 10.6.

Véase también
• Computadora, minicomputadora y supercomputadora
• Estación de trabajo
• IBM PC
• Historia de la informática
• Historia del hardware de computador
• Compatible IBM PC

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Computadora personal. Commons
• Artículo sobre el futuro de los PC [2]
• Reparación de ordenadores [3]

Referencias
[1] http:/ / en. wikipedia. org/ wiki/ :Computadora
[2] http:/ / www. redcientifica. com/ doc/ doc200205050002. html
[3] http:/ / www. solutein. com
Hardware 10

Hardware
Hardware (pronunciación AFI:
/ˈhɑːdˌwɛə/ ó /ˈhɑɹdˌwɛɚ/)
corresponde a todas las partes físicas y
tangibles[1] de una computadora: sus
componentes eléctricos, electrónicos,
electromecánicos y mecánicos;[2] sus
cables, gabinetes o cajas, periféricos de
todo tipo y cualquier otro elemento
físico involucrado; contrariamente al
soporte lógico e intangible que es
llamado software. El término es propio
del idioma inglés (literalmente
traducido: partes blandas o suaves), su
traducción al español no tiene un
significado acorde, por tal motivo se la
ha adoptado tal cual es y suena; la Real
Academia Española lo define como
«Conjunto de los componentes que
integran la parte material de una
computadora».[3] El término, aunque
es lo más común, no necesariamente se
aplica a una computadora tal como se Hardware típico de una computadora personal.
la conoce, así por ejemplo, un robot 1. Monitor
también posee hardware (y 2. Placa base
[4] [5] 3. CPU
software).
4. Memoria RAM
5. Tarjeta de expansión
La historia del hardware del 6. Fuente de alimentación
computador se puede clasificar en 7. Disco óptico
cuatro generaciones, cada una 8. Disco duro
9. Teclado
caracterizada por un cambio
10. Mouse
tecnológico de importancia. Este
hardware se puede clasificar en:
básico, el estrictamente necesario para el funcionamiento normal del equipo, y el complementario, el que realiza
funciones específicas.

Un sistema informático se compone de una unidad central de procesamiento (CPU), encargada de procesar los datos,
uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de
salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados.

Historia
La clasificación evolutiva del hardware del computador electrónico, está dividida en generaciones, donde cada una
supone un cambio tecnológico muy notable. El origen de las primeras es sencillo de establecer, ya que en ellas el
hardware fue sufriendo cambios radicales. [6] Los componentes esenciales que constituyen la electrónica del
computador fueron totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron
Hardware 11

trascendentales. En las últimas décadas es más difícil establecer las nuevas generaciones, ya que los cambios han
sido graduales y existe cierta continuidad en las tecnologías usadas. En principio, se pueden distinguir:
• 1ª Generación (1945-1956): Electrónica implementada con tubos de vacío. Fueron las primeras máquinas que
desplazaron los componentes electromecánicos (relés).
• 2ª Generación (1957-1963): Electrónica desarrollada con transistores. La lógica discreta era muy parecida a la
anterior, pero la implementación resultó mucho más pequeña, reduciendo, entre otros factores, el tamaño de un
computador en notable escala.
• 3ª Generación (1964-hoy): Electrónica basada en circuitos Integrados . Esta tecnología permitió integrar cientos
de transistores y otros componentes electrónicos en un único circuito integrado conformando una pastilla de
silicio. Las computadoras redujeron así considerablemente su costo y tamaño, incrementándose su capacidad,
velocidad y fiabilidad, hasta producir máquinas como las que existen en la actualidad.
• 4ª Generación (futuro): Probablemente se originará cuando los circuitos de silicio, integrados a alta escala, sean
reemplazados por un nuevo tipo de tecnología. [7]
La aparición del microprocesador marca un hito de relevancia, y para muchos autores constituye el inicio de la cuarta
generación.[8] A diferencia de los cambios tecnológicos anteriores, su invención no supuso la desaparición radical de
los computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado en 1971,
todavía a comienzo de los 80's había computadores, como el PDP-11/44,[9] con lógica carente de microprocesador
que continuaban exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido muy gradual.
Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta generación es la aparición de los
circuitos integrados VLSI (Very Large Scale Integration), a principios de los ochenta. Al igual que el
microprocesador no supuso el cambio inmediato y la rápida desaparición de los computadores basados en circuitos
integrados en más bajas escalas de integración. Muchos equipos implementados con tecnologías VLSI y MSI
(Medium Scale Integration) aun coexistían exitosamente hasta bien entrados los 90.

Tipos de hardware
Una de las formas de clasificar el Hardware es
en dos categorías: por un lado, el "básico", que
abarca el conjunto de componentes
indispensables necesarios para otorgar la
funcionalidad mínima a una computadora, y por
otro lado, el "Hardware complementario", que,
como su nombre lo indica, es el utilizado para
realizar funciones específicas (más allá de las
básicas), no estrictamente necesarias para el
funcionamiento de la computadora.

Así es que: Un medio de entrada de datos, la


unidad de procesamiento (C.P.U.), la memoria
RAM, un medio de salida de datos y un medio
de almacenamiento constituyen el "hardware
básico". Microcontrolador Motorola 68HC11 y chips de soporte que podrían constituir
el hardware de un equipo electrónico industrial.
Los medios de entrada y salida de datos
estrictamente indispensables dependen de la
aplicación: desde un punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor
para entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una computadora
(por ejemplo controlando un proceso) en la que no sea necesario teclado ni monitor, bien puede ingresar información
Hardware 12

y sacar sus datos procesados, por ejemplo, a través de una placa de adquisición/salida de datos.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas y
almacenadas en su memoria, ellas consisten básicamente en operaciones aritmético-lógicas y de entrada/salida.[10] Se
reciben las entradas (datos), se las procesa y almacena (procesamiento), y finalmente se producen las salidas
(resultados del procesamiento). Por ende todo sistema informático tiene, al menos, componentes y dispositivos
hardware dedicados a alguna de las funciones antedichas;[11] a saber:
1. Procesamiento: Unidad Central de Proceso o CPU
2. Almacenamiento: Memorias
3. Entrada: Periféricos de Entrada (E)
4. Salida: Periféricos de salida (S)
5. Entrada/Salida: Periféricos mixtos (E/S)
Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio para permitir el ingreso
de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la información y
datos de salida (escritura); la memoria otorga la capacidad de almacenamiento, temporal o permanente
(almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la información ingresada
(transformación).[12]
Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida, el ejemplo más típico es
el disco rígido (ya que en él se lee y se graba información y datos).

Unidad central de procesamiento


La CPU, siglas en inglés de Unidad Central de
Procesamiento, es la componente fundamental
del computador, encargada de interpretar y
ejecutar instrucciones y de procesar datos.[13] En
los computadores modernos, la función de la
CPU la realiza uno o más microprocesadores. Se
conoce como microprocesador a un CPU que es
manufacturado como un único circuito
integrado.

Un servidor de red o una máquina de cálculo de


alto rendimiento (supercomputación), puede
tener varios, incluso miles de microprocesadores Microprocesador de 64 bits doble núcleo, el AMD Athlon 64 X2 3600.
trabajando simultáneamente o en paralelo
(multiprocesamiento); en este caso, todo ese conjunto conforma la CPU de la máquina.
Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no sólo están presentes en las
computadoras personales (PC), sino también en otros tipos de dispositivos que incorporan una cierta capacidad de
proceso o "inteligencia electrónica"; como pueden ser: controladores de procesos industriales , televisores,
automóviles, calculadores, aviones, teléfonos móviles, electrodomésticos, juguetes y muchos más.
Hardware 13

El microprocesador se monta en la llamada placa


madre, sobre el un zócalo conocido como zócalo
de CPU, que permite además las conexiones
eléctricas entre los circuitos de la placa y el
procesador. Sobre el procesador y ajustado a la
tarjeta madre se fija un disipador de calor, que
por lo general es de aluminio, en algunos casos
de cobre; éste es indispensable en los
microprocesadores que consumen bastante
energía, la cual, en gran parte, es emitida en
forma de calor: En algunos casos pueden
consumir tanta energía como una lámpara
incandescente (de 40 a 130 vatios).

Adicionalmente, sobre el disipador se acopla un


ventilador, que está destinado a forzar la
circulación de aire para extraer más rápidamente
Placa base formato µATX.
el calor emitido por el disipador.
Complementariamente, para evitar daños por
efectos térmicos, también se suelen instalar sensores de temperatura del microprocesador y sensores de revoluciones
del ventilador.
La gran mayoría de los circuitos electrónicos e integrados que componen el hardware del computador van montados
en la placa madre.
La placa madre, también conocida como placa base o con el anglicismo board,[14] es un gran circuito impreso sobre
el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos integrados, etc. Es el
soporte fundamental que aloja y comunica a todos los demás componentes por medio de: Procesador, módulos de
memoria RAM, tarjetas gráficas, tarjetas de expansión, periféricos de entrada y salida. Para comunicar esos
componentes, la placa base posee una serie de buses con los cuales se trasmiten los datos dentro y hacia afuera del
sistema.
La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye también la mayoría
de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se realizaban con tarjetas de
expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas adicionales específicas, tales como
capturadoras de vídeo, tarjetas de adquisición de datos, etc.
Hardware 14

Memoria RAM
Del inglés Random Access Memory,
literalmente significa "memoria de acceso
aleatorio". El término tiene relación con la
característica de presentar iguales tiempos de
acceso a cualquiera de sus posiciones (ya sea
para lectura o para escritura). Esta particularidad
también se conoce como "acceso directo".

La RAM es la memoria utilizada en una


computadora para el almacenamiento transitorio
y de trabajo (no masivo). En la RAM se
almacena temporalmente la información, datos y
programas que la Unidad de Procesamiento
(CPU) lee, procesa y ejecuta. La memoria RAM
Modulos de memoria RAM instalados.
es conocida como Memoria principal de la
computadora, también como "Central o de
Trabajo"; [15] a diferencia de las llamadas memorias auxiliares y de almacenamiento masivo (como discos duros,
cintas magnéticas u otras memorias).

Las memorias RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su contenido al
interrumpir su alimentación eléctrica.
Las más comunes y utilizadas como memoria central son "dinámicas" (DRAM), lo cual significa que tienden a
perder sus datos almacenados en breve tiempo (por descarga, aún estando con alimentación eléctrica), por ello
necesitan un circuito electrónico específico que se encarga de proveerle el llamado "refresco" (de energía) para
mantener su información.
La memoria RAM de un computador se provee de fábrica e instala en lo que se conoce como “módulos”. Ellos
albergan varios circuitos integrados de memoria DRAM que, conjuntamente, conforman toda la memoria principal.

Memoria RAM dinámica


Es la presentación más común en computadores modernos (computador personal, servidor); son tarjetas de circuito
impreso que tienen soldados circuitos integrados de memoria por una o ambas caras, además de otros elementos,
tales como resistencias y capacitores. Esta tarjeta posee una serie de contactos metálicos (con un recubrimiento de
oro) que permite hacer la conexión eléctrica con el bus de memoria del controlador de memoria en la placa base.
Los integrados son de tipo DRAM, memoria denominada "dinámica", en la cual las celdas de memoria son muy
sencillas (un transistor y un condensador), permitiendo la fabricación de memorias con gran capacidad (algunos
cientos de Megabytes) a un costo relativamente bajo. Las posiciones de memoria o celdas, están organizadas en
matrices y almacenan cada una un bit. Para acceder a ellas se han ideado varios métodos y protocolos cada uno
mejorado con el objetivo de acceder a las celdas requeridas de la manera más veloz posible.
Hardware 15

Entre las tecnologías recientes para integrados de


memoria DRAM usados en los módulos RAM se
encuentran:
• SDR SDRAM Memoria con un ciclo sencillo
de acceso por ciclo de reloj. Actualmente en
desuso, fue popular en los equipos basados en
el Pentium III y los primeros Pentium 4.
• DDR SDRAM Memoria con un ciclo doble y
acceso anticipado a dos posiciones de
memoria consecutivas. Fue popular en Memorias RAM con tecnologías usadas en la actualidad.
equipos basados en los procesadores Pentium
4 y Athlon 64.
• DDR2 SDRAM Memoria con un ciclo doble y acceso anticipado a cuatro posiciones de memoria consecutivas.
Es la memoria más usada actualmente.
• DDR3 SDRAM Memoria con un ciclo doble y acceso anticipado a ocho posiciones de memoria consecutivas. Es
un tipo de memoria en auge, pero por su costo sólo es utilizada en equipos de gama alta.
Los estándares JEDEC, establecen las características eléctricas y las físicas de los módulos, incluyendo las
dimensiones del circuito impreso.
Los estándares usados actualmente son:
• DIMM Con presentaciones de 168 pines (usadas con SDR y otras tecnologías antiguas), 184 pines (usadas con
DDR y el obsoleto SIMM) y 240 (para las tecnologías de memoria DDR2 y DDR3).
• SO-DIMM Para computadores portátiles, es una miniaturización de la versión DIMM en cada tecnología. Existen
de 144 pines (usadas con SDR), 200 pines (usadas con DDR y DDR2) y 240 pines (para DDR3).

Memorias RAM especiales


Hay memorias RAM con características que las hacen particulares, y que normalmente no se utilizan como memoria
central de la computadora; entre ellas se puede mencionar:
• SRAM: Siglas de Static Random Access Memory. Es un tipo de memoria más rápida que la DRAM (Dynamic
RAM). El término "estática" se deriva del hecho que no necesita el refresco de sus datos. La RAM estática no
necesita circuito de refresco, pero ocupa más espacio y utiliza más energía que la DRAM. Este tipo de memoria,
debido a su alta velocidad, es usada como memoria caché.
• NVRAM: Siglas de Non-Volatile Random Access Memory. Memoria RAM no volátil (mantiene la información
en ausencia de alimentación eléctrica). Hoy en día, la mayoría de memorias NVRAM son memorias flash, muy
usadas para teléfonos móviles y reproductores portátiles de MP3.
• VRAM: Siglas de Video Random Access Memory. Es un tipo de memoria RAM que se utiliza en las tarjetas
gráficas del computador. La característica particular de esta clase de memoria es que es accesible de forma
simultánea por dos dispositivos. Así, es posible que la CPU grabe información en ella, al tiempo que se leen los
datos que serán visualizados en el Monitor de computadora.
De las anteriores a su vez, hay otros subtipos más.
Hardware 16

Periféricos
Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse con el exterior,
esto es, tanto ingresar como exteriorizar información y datos.[11] Los periféricos son los que permiten realizar las
operaciones conocidas como de entrada/salida (E/S).[12]
Aunque son estrictamente considerados “accesorios” o no esenciales, muchos de ellos son fundamentales para el
funcionamiento adecuado de la computadora moderna; por ejemplo, el teclado, el disco duro y el monitor son
elementos actualmente imprescindibles; pero no lo son un scanner o un plotter. Para ilustrar este punto: en los años
80, muchas de las primeras computadoras personales no utilizaban disco duro ni mouse (o ratón), tenían sólo una o
dos disqueteras, el teclado y el monitor como únicos periféricos.

Dispositivos de entrada de información (E)

De esta categoría son aquellos que permiten el ingreso de


información, en general desde alguna fuente externa o por parte
del usuario. Los dispositivos de entrada proveen el medio
fundamental para transferir hacia la computadora (más
propiamente al procesador) información desde alguna fuente, sea
local o remota. También permiten cumplir la esencial tarea de leer
y cargar en memoria el sistema operativo y las aplicaciones o
programas informáticos, los que a su vez ponen operativa la Teclado para PC inalámbrico.
computadora y hacen posible realizar las más diversas tareas.[12]

Entre los periféricos de entrada se puede mencionar: [11] teclado,


mouse o ratón, escáner, micrófono, cámara web , lectores ópticos
de código de barras, Joystick, lectora de CD o DVD (sólo
lectoras), placas de adquisición/conversión de datos, etc.
Pueden considerarse como imprescindibles para el
funcionamiento, al teclado, mouse y algún tipo de lectora de
discos; ya que tan sólo con ellos el hardware puede ponerse
operativo para un usuario. Los otros son bastante accesorios,
aunque en la actualidad pueden resultar de tanta necesidad que son
Ratón (Mouse) común alámbrico.
considerados parte esencial de todo el sistema.

Dispositivos de salida de información (S)

Son aquellos que permiten emitir o dar salida a la información


resultante de las operaciones realizadas por la CPU
(procesamiento).
Los dispositivos de salida aportan el medio fundamental para
exteriorizar y comunicar la información y datos procesados; ya sea
al usuario o bien a otra fuente externa, local o remota.[12]
Los dispositivos más comunes de este grupo son los monitores
clásicos (no de pantalla táctil), las impresoras, y los altavoces. [11]
Impresora de inyección de tinta.
Entre los periféricos de salida puede considerarse como
imprescindible para el funcionamiento del sistema al monitor.
Otros, aunque accesorios, son sumamente necesarios para un usuario que opere un computador moderno.
Hardware 17

Dispositivos mixtos (E/S de información)

Son aquellos dispositivos que pueden operar de


ambas formas: tanto de entrada como de
salida.[12] Típicamente, se puede mencionar
como periféricos mixtos o de Entrada/Salida a:
discos rígidos, disquetes, unidades de cinta
magnética, lecto-grabadoras de CD/DVD, discos
ZIP, etc. También entran en este rango, con sutil
diferencia, otras unidades, tales como: Memoria
flash, tarjetas de red, módems, placas de
captura/salida de vídeo, etc. [11]

Si bien se puede clasificar al pendrive (lápiz de


memoria), memoria flash o memoria USB en la
categoría de memorias, normalmente se los
Piezas de un Disco rígido.
utiliza como dispositivos de almacenamiento
masivo; siendo todos de categoría
Entrada/Salida.[16]

Los dispositivos de almacenamiento masivo[11] también son conocidos como "Memorias Secundarias o Auxiliares".
Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya que es el de mayor importancia en la actualidad, en él
se aloja el sistema operativo, todas las aplicaciones, utilitarios, etc. que utiliza el usuario; además de tener la
suficiente capacidad para albergar información y datos en grandes volúmenes por tiempo prácticamente indefinido.
Los servidores Web, de correo electrónico y de redes con bases de datos, utilizan discos rígidos de grandes
capacidades y con una tecnología que les permite trabajar a altas velocidades.
La pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que además de mostrar
información y datos (salida) puede actuar como un dispositivo de entrada, reemplazando, por ejemplo, a algunas
funciones del ratón o del teclado.

Dispositivos de Almacenamiento de Información


Dentro de los dispositivos de almacenamiento, el disco duro ocupa un lugar importante en la actualidad, en él se
almacenan permanentemente el sistema operativo, las aplicaciones y los archivos generados por el usuario. Hoy en
día existen varias tecnologías disponibles en discos rígidos: aIDE, SATA, SCSI y SAS.

Dispositivos de procesamiento de información


La CPU, siglas en inglés de Unidad Central de Procesamiento, es el componente fundamental de una computadora,
encargada de interpretar, ejecutar instrucciones y de procesar datos. En las computadoras modernas, la función de la
CPU la realiza uno o más microprocesadores.
Las unidades centrales de proceso (CPU) no sólo están presentes en las computadoras personales (PC), sino también
en otros tipos de dispositivos que incorporan una cierta capacidad de proceso o "inteligencia electrónica"; como
pueden ser: controladores de procesos industriales, televisores, automóviles, calculadores, aviones, teléfonos
móviles, electrodomésticos y juguetes, entre otros. En la actualidad los fabricantes más importantes en
microprocesadores son Intel y AMD.
Hardware 18

Hardware gráfico
El hardware gráfico lo constituyen básicamente
las tarjetas de video. Actualmente poseen su
propia memoria y unidad de procesamiento, esta
última llamada unidad de procesamiento gráfico
(o GPU, siglas en inglés de Graphics Processing
Unit). El objetivo básico de la GPU es realizar
exclusivamente procesamiento gráfico, [17]
liberando al procesador principal (CPU) de esa
costosa tarea (en tiempo) para que pueda así
efectuar otras funciones más eficientemente.
Antes de esas tarjetas de video con aceleradores,
era el procesador principal el encargado de
construir la imagen mientras la sección de video
(sea tarjeta o de la placa base) era simplemente GPU de Nvidia GeForce.

un traductor de las señales binarias a las señales


requeridas por el monitor; y buena parte de la memoria principal (RAM) de la computadora también era utilizada
para estos fines.

La Ley de Moore establece que cada 18 a 24 meses la cantidad de transistores que puede contener un circuito
integrado se logra duplicar; en el caso de los GPU esta tendencia es bastante más notable, duplicando o aún más de
lo indicado en la ley de Moore.[18]
Desde la década de 1990, la evolución en el procesamiento gráfico ha tenido un crecimiento vertiginoso; las actuales
animaciones por computadoras y videojuegos eran impensables veinte años atrás.

Véase también

Historia
• Historia de la computación
• Historia del hardware

Arquitecturas y Tecnologías
• Arquitectura de computadores
• microprocesador
• Placa base
• Supercomputadora
• Computadora central
• Minicomputadora
• Microcomputadora
• Estación de trabajo
• Computadora de escritorio
• Computadora personal
• Computadora doméstica
• Computadora portátil
• Microcontroladores
• Robótica
Hardware 19

• Domótica
• DSP
• VLSI: tecnología de integración a gran escala en Circuitos Integrados (chips).

Tipos
• Hardware libre
• Lista de hardware básico

Dispositivos, accesorios, periféricos


• Fax-Módem
• Tarjeta gráfica
• Tarjeta de red
• Hub
• Switch
• Router
• Tarjeta Comunicación inalámbrica
• Tarjeta Bluetooth
• Controladores de puertos (serie, paralelo, infrarrojo, etc.)
• Hub USB
• Impresoras
• Monitores
• Teclados
• Plotter

Bibliografía
• Martín-Pozuelo, José María Martín (2001). Hardware microinformático : viaje a las profundidades del PC.
México, D.F.: Alfaomega. pp. 431 p. : il.. ISBN 970-15-0599-9.
• Sánchez Serantes, Verónica (2001). La PC por dentro : todo sobre hardware y guía práctica para comprar su
computadora. México, D.F.: MP. pp. 142p. : il.. ISBN 968-5347-21-2.
• Dembowski, Klaus (2000). Hardware : información sobre la totalidad del hardware, de rápido acceso.
Barcelona: Marcombo. pp. 956 p. : il.. ISBN 84-267-1263-0.
• Hennessy, John L.; Patterson, David A. (1995). Organización y diseño de computadores : la interfaz
hardware/software. traducción al español por Juan Manuel Sánchez, revisión técnica Antonio Vaquero. (2a. ed.
edición). Madrid - Buenos Aires: McGraw-Hill. pp. 756 p. : il.. ISBN 84-481-1829-4.
• Stokes, John M. (December 2006) (en inglés). Introduction to Microprocessors and Computer Architecture. No
Starch Press. pp. 320p.. ISBN 9781593271046.
Hardware 20

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Hardware. Commons
• Wikcionario tiene definiciones para hardware.Wikcionario
• Wikcionario en inglés tiene definiciones para hardware.Wikcionario
• Cientos de artículos sobre el hardware (en inglés) [19]
• Artículo sobre el hardware de un PC [20]
• Hardware gráfico - JEITICS 2005 - Primeras Jornadas de Educación en Informática y TICS en Argentina [21]
• IEEE Computational Intelligence Society [22]
• Concepto de computadora [23]
• Historia de las Computadoras [24]
• Historia del disco duro [25]
• Primer disco duro de la historia [26]

Referencias
[1] Que se puede tocar
[2] « MasterMagazine (http:/ / www. mastermagazine. info/ termino/ 4384. php)». Portal de tecnología.
[3] « Definición de Hardware por la RAE (http:/ / buscon. rae. es/ draeI/ SrvltConsulta?TIPO_BUS=3& LEMA=hardware)». Diccionario de la
lengua española.
[4] « Computation of Customized Symbolic robot models on peripheral array processors (http:/ / ieeexplore. ieee. org/ stamp/ stamp.
jsp?arnumber=00100140)». IEEE Xplore.
[5] « Robotics and Automation Society (http:/ / www. ieee-ras. org)». The IEEE Robotics and Automation Society.
[6] « Origen de las generaciones (http:/ / www. columbia. edu/ acis/ history/ generations. html)». Universidad de Columbia.
[7] « Diario de Ciencia y Tecnología (http:/ / www. laflecha. net/ canales/ ciencia/ 200407281)».
[8] « ¿ Cuáles son las Generaciones de la Computadora ? (http:/ / www. cavsi. com/ preguntasrespuestas/
cuales-son-las-generaciones-de-la-computadora/ )».
[9] Jörg Hoppes. « My PDP-11/44 (http:/ / www. j-hoppe. de/ PDP-11/ My_PDP-11_44/ my_pdp-11_44. html)» (en inglés).
[10] « Esquemas del funcionamiento de la computadora - Figuras, Cap. 1 (http:/ / atc. ugr. es/ intro_info_mcgraw/ libro/ figuras/ c1_fig_tabl.
pdf)». Prieto y otros - 3ra Ed., McGraw-Hill, (c)2003.
[11] « Introducción a la Informática (http:/ / atc. ugr. es/ intro_info_mcgraw/ )». Prieto, Lloris, Torres - 3ra Ed., McGraw-Hill, (c)2003.
[12] Hardware : información sobre la totalidad del hardware, de rápido acceso / Klaus Dembowski. -- Barcelona : Marcombo, 2000(c). -- 956 p.
: il.. -- ISBN 84-267-1263-0
[13] « The Microprocessor Today (http:/ / cva. stanford. edu/ classes/ cs99s/ papers/ slater-micro96-the-microprocessor-today. pdf)». Michael
Slater, Stanford University - Micro IEEE.
[14] « Definición de Motherboard (http:/ / www. alegsa. com. ar/ Dic/ motherboard. php)». Diccionario informático.
[15] « Memoria pincipal del computador (http:/ / www. monografias. com/ trabajos37/ memoria-principal/ memoria-principal. shtml)».
Monografias.com.
[16] « Periféricos de computadores - Memorias Flash USB (http:/ / atc. ugr. es/ intro_info_mcgraw/ libro/ actualizaciones/ c08_parche_flash.
pdf)». Periféricos - "Introducción a la Informática", A.Prieto (c) McGraw-Hill Interamericana.
[17] « Computer Graphics and Aplications (http:/ / ieeexplore. ieee. org/ xpl/ RecentIssue. jsp?punumber=38)». IEEE Xplore.
[18] « Procesadores gráficos como supercomputadores de consumo (http:/ / weblogs. madrimasd. org/ supercomputacion_de_consumo/ archive/
2008/ 10/ 16/ 103763. aspx)». Supercomputación de consumo.
[19] http:/ / www. dmoz. org/ Computers/ Hardware/
[20] http:/ / www. montes. upm. es/ servicios/ Informatica/ hardware. pdf
[21] http:/ / cs. uns. edu. ar/ jeitics2005/ Trabajos/ pdf/ 41. pdf
[22] http:/ / www. ieee-cis. org/ pubs/ tnn/
[23] http:/ / www. mastermagazine. info/ termino/ 4384. php
[24] http:/ / www. radioexilio. com. ar/ estaciondetransito/ ?cat=15
[25] http:/ / www. virtuaside. com/ docs/ historia-hds. php
[26] http:/ / www. abadiadigital. com/ noticia1894. html
Periférico 21

Periférico
Se ha sugerido que periférico de entrada sea fusionado en este artículo o sección.
(Discusión).
Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales en WP:TAB/F.

En informática, se denominan periféricos a los aparatos o dispositivos auxiliares e independientes conectados a la


unidad central de procesamiento de una computadora.
Se consideran periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con
el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de
la memoria principal.[cita requerida]
Se entenderá por periférico al conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora,
formado por la CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al
proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el
subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación:
• el bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,
• el bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura,
escritura o modificación) y
• el bus de datos, por donde circulan los datos.
A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”, muchos de ellos
son elementos fundamentales para un sistema informático. El teclado y el monitor, imprescindibles en cualquier
computadora personal de hoy en día (no lo fueron en los primeros computadores), son posiblemente los periféricos
más comunes, y es posible que mucha gente no los considere como tal debido a que generalmente se toman como
parte necesaria de una computadora. El mouse es posiblemente el ejemplo más claro de este aspecto. Hace menos de
20 años no todos las computadora personales incluían este dispositivo. El sistema operativo MS-DOS, el más común
en esa época, tenía una interfaz de línea de comandos para la que no era necesaria el empleo de un mouse, todo se
hacía mediante comandos de texto. Fue con la popularización de Finder, sistema operativo de la Macintosh de Apple
y la posterior aparición de Windows cuando el mouse comenzó a ser un elemento imprescindible en cualquier hogar
dotado de una computadora personal. Actualmente existen sistemas operativos con interfaz de texto que pueden
prescindir del mouse como, por ejemplo, algunos sistemas básicos de UNIX y GNU/Linux.

Tipos de periféricos
Los periféricos pueden clasificarse en 5 categorías principales:
• Periféricos de entrada: captan y envían los datos al dispositivo que los procesará.
• Periféricos de salida: son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La
mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma
se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos de
este tipo de periféricos es información para el usuario.
• Periféricos de entrada/salida (E/S) sirven básicamente para la comunicación de la computadora con el
medio externo
• Periféricos de almacenamiento: son los dispositivos que almacenan datos e información por bastante tiempo. La
memoria RAM no puede ser considerada un periférico de almacenamiento, ya que su memoria es volátil y
temporal.
• Periféricos de comunicación: son los periféricos que se encargan de comunicarse con otras máquinas o
computadoras, ya sea para trabajar en conjunto, o para enviar y recibir información.
Periférico 22

Periféricos de entrada
Son los que permiten introducir datos externos a la computadora para
su posterior tratamiento por parte de la CPU. Estos datos pueden
provenir de distintas fuentes, siendo la principal un ser humano. Los
periféricos de entrada más habituales son:
• Teclado
• Micrófono
• Escáner
• Mouse
• Escáner de código de barras
Mouse.
• Cámara web

• Lápiz óptico

Periféricos de salida
Son los que reciben información que es procesada por la CPU y la reproducen para que sea perceptible para el
usuario. Algunos ejemplos son:
• Monitor
• Impresora
• Fax
• Tarjeta de sonido
• Altavoz

Periféricos de almacenamiento
Se encargan de guardar los datos de los que hace uso la CPU para que
ésta pueda hacer uso de ellos una vez que han sido eliminados de la
memoria principal, ya que ésta se borra cada vez que se apaga la
computadora. Pueden ser internos, como un disco duro, o extraíbles,
como un CD. Los más comunes son:
• Disco duro
• Disquete
• Unidad de CD
• Unidad de DVD
• Unidad de Blu-ray Disc
• Memoria flash
• Cinta magnética
• Tarjeta perforada
• Memoria portátil
• Otros dispositivos de almacenamiento: Interior de un disco duro.
• Zip (Iomega): Caben 100 Mb y utiliza tecnología magnética.

• EZFlyer (SyQuest): Caben 230 Mb y tiene una velocidad de lectura muy alta
• SuperDisk LS-120: Caben 200 Mb y utilizan tecnología magneto-óptica.
• Magneto-ópticos de 3,5: Caben de 128 Mb a 640 Mb
• Jaz (Iomega): Es como el Zip y caben de 1 GB a 2 GB.
Periférico 23

Periféricos de comunicación
Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro
periférico externo a la computadora. Entre ellos se encuentran los siguientes:
• Fax-Módem
• Tarjeta de red
• Concentrador
• Switch
• Enrutador
• Tarjeta inalámbrica
• Tarjeta Bluetooth
• Controlador ambos exista un tercer elemento que actúe como traductor de señales. Este traductor es un circuito
electrónico denominado interfaz.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Periférico. Commons
• Periféricos [1]

Referencias
[1] http:/ / www. network-press. org/ ?perifericos_concepto

Entrada/salida
En computación, entrada/salida, también
abreviado E/S o I/O (del original en inglés
input/output), es la colección de interfaces
que usan las distintas unidades funcionales
(subsistemas) de un sistema de
procesamiento de información para
comunicarse unas con otras, o las señales
(información) enviadas a través de esas
interfaces. Las entradas son las señales
recibidas por la unidad, mientras que las
salidas son las señales enviadas por ésta. El
término puede ser usado para describir una
acción; "realizar una entrada/salida" se
refiere a ejecutar una operación de entrada o
de salida. Los dispositivos de E/S los usa Dispositivos de entrada de un ordenador.
una persona u otro sistema para comunicarse
con una computadora. De hecho, a los teclados y ratones se los considera dispositivos de entrada de una
computadora, mientras que los monitores e impresoras son vistos como dispositivos de salida de una computadora.
Los dispositivos típicos para la comunicación entre computadoras realizan las dos operaciones, tanto entrada como
salida, y entre otros se encuentran los módems y tarjetas de red.

Es importante notar que la designación de un dispositivo, sea de entrada o de salida, cambia al cambiar la perspectiva
desde el que se lo ve. Los teclados y ratones toman como entrada el movimiento físico que el usuario produce como
Entrada/salida 24

salida y lo convierten a una señal eléctrica que la computadora pueda entender. La salida de estos dispositivos son
una entrada para la computadora. De manera análoga, los monitores e impresoras toman como entrada las señales
que la computadora produce como salida. Luego, convierten esas señales en representaciones inteligibles que puedan
ser interpretadas por el usuario. La interpretación será, por ejemplo, por medio de la vista, que funciona como
entrada.
En arquitectura de computadoras, a la combinación de una unidad central de procesamiento (CPU) y memoria
principal (aquélla que la CPU puede escribir o leer directamente mediante instrucciones individuales) se la considera
el corazón de la computadora y cualquier movimiento de información desde o hacia ese conjunto se lo considera
entrada/salida. La CPU y su circuitería complementaria proveen métodos de entrada/salida que se usan en
programación de bajo nivel para la implementación de controladores de dispositivos.
Los sistemas operativos y lenguajes de programación de más alto nivel brindan conceptos y primitivas de
entrada/salida distintos y más abstractos. Por ejemplo, un sistema operativo brinda aplicativos que manejan el
concepto de archivos. El lenguaje de programación C define funciones que les permiten a sus programas realizar E/S
a través de streams, es decir, les permiten leer datos desde y escribir datos hacia sus programas.
Una alternativa para las funciones primitivas especiales es la mónada de E/S, que permite que los programas
describan su E/S y que las acciones se lleven a cabo fuera del programa. Esto resulta interesante, pues las funciones
de E/S introducirían un efecto colateral para cualquier lenguaje de programación, pero ahora una programación
puramente funcional resultaría práctica.

Dispositivos de entrada y salida


• Entrada:
• Teclado
• Ratón
• Joystick
• Lápiz óptico
• Micrófono
• Webcam
• Escáner
• Escáner de código de barras
• Salida:
• Monitor
• Altavoz
• Auriculares
• Impresora
• Plotter
• Proyector
• Entrada/salida:
• Unidades de almacenamiento
• CD
• DVD
• Módem
• Fax
• Memory cards
• USB
• Router
Entrada/salida 25

• Pantalla táctil

Enlaces externos
• Evolución del proceso de entrada/salida [1]
• Tutorial sobre entrada/salida [2]
• Entrada/salida de bajo nivel [3]
• Direct I/O from Win32 [4] (en inglés)
• I/O Meter [5] (en inglés)

Referencias
[1] http:/ / exa. unne. edu. ar/ depar/ areas/ informatica/ SistemasOperativos/ SO5. htm
[2] http:/ / www. sc. ehu. es/ sbweb/ fisica/ cursoJava/ fundamentos/ archivos/ intro. htm
[3] http:/ / www. lugmen. org. ar/ documentacion/ cursos/ linux-api/ lecciones/ 02-io/ material/ linux-api. html
[4] http:/ / www. entechtaiwan. com/ dev/ hw32/ index. shtm
[5] http:/ / www. iometer. org/

Controlador de dispositivo
Un controlador de dispositivo, llamado normalmente controlador (en inglés, device driver) es un programa
informático que permite al sistema operativo interactuar con un periférico, haciendo una abstracción del hardware y
proporcionando una interfaz -posiblemente estandarizada- para usarlo. Se puede esquematizar como un manual de
instrucciones que le indica al sistema operativo, cómo debe controlar y comunicarse con un dispositivo en particular.
Por tanto, es una pieza esencial, sin la cual no se podría usar el hardware.
Existen tantos tipos de controladores como tipos de periféricos, y es común encontrar más de un controlador posible
para el mismo dispositivo, cada uno ofreciendo un nivel distinto de funcionalidades. Por ejemplo, aparte de los
oficiales (normalmente disponibles en la página web del fabricante), se pueden encontrar también los proporcionados
por el sistema operativo, o también versiones no oficiales hechas por terceros.
Debido a que el software de controladores de dispositivos se ejecuta como parte del sistema operativo, con acceso
sin restricciones a todo el equipo, resulta esencial que sólo se permitan los controladores de dispositivos autorizados.
La firma y el almacenamiento provisional de los paquetes de controladores de dispositivos en los equipos cliente,
mediante las técnicas descritas en esta guía, proporcionan las ventajas siguientes:
• Seguridad mejorada. Puesto que los usuarios estándar no pueden instalar controladores de dispositivos que no
estén firmados o que estén firmados por un editor que no es de confianza, los administradores tendrán un control
riguroso respecto a los controladores de dispositivos que pueden usarse en una organización. Podrán impedirse los
controladores de dispositivos desconocidos, así como cualquier controlador de dispositivo que el administrador no
permita expresamente. Mediante el uso de directivas de grupo, un administrador puede proporcionar a todos los
equipos cliente de una organización los certificados de los editores que se consideren de confianza, permitiendo la
instalación de los controladores sin intervención del usuario, para comprobar que se trata de una firma digital de
confianza.
• Reducción de los costes de soporte técnico. Los usuarios sólo podrán instalar los dispositivos que hayan sido
probados y admitidos por la organización. En consecuencia, el sistema permite mantener la seguridad del equipo,
al tiempo que se reducen las solicitudes del departamento de soporte técnico.
• Experiencia de usuario mejorada. Un paquete de controladores firmado por un editor de confianza y almacenado
provisionalmente en el almacén de controladores funciona de modo automático, cuando el usuario conecta el
dispositivo al equipo. No se requiere acción alguna por parte del usuario.
Controlador de dispositivo 26

En esta sección se incluyen las tareas principales para la seguridad de los paquetes de controladores de dispositivos:
Los controladores de dispositivo (device drivers en inglés) son programas añadidos al núcleo del sistema operativo,
concebidos inicialmente para gestionar periféricos y dispositivos especiales. Pueden ser de dos tipos: orientados a
caracteres (tales como los dispositivos NUL, AUX, PRN, del sistema) o bien orientados a bloques, constituyendo las
conocidas unidades de disco. La diferencia fundamental entre ambos tipos de controladores es que los primeros
reciben o envían la información carácter a carácter; en cambio, los controladores de dispositivo de bloques procesan,
como su propio nombre indica, bloques de cierta longitud en bytes (sectores). Los controladores de dispositivo,
aparecidos con el DOS 2.0, permiten añadir nuevos componentes al ordenador sin necesidad de rediseñar el sistema
operativo.
Tradicionalmente han sido programas binarios puros, similares a los COM aunque ensamblados con un ORG 0, a los
que se les colocaba una extensión SYS. Sin embargo, no hay razón para que ello sea así, ya que un controlador de
dispositivo puede estar incluido dentro de un programa EXE, con la condición de que el código del controlador sea
el primer segmento de dicho programa. El EMM386.EXE del MS-DOS 5.0 sorprendió a más de uno en su día, ya
que llamaba la atención observar como se podía cargar con DEVICE: lo cierto es que esto es factible incluso desde
el DOS 2.0 (pese a lo que pueda indicar algún libro), pero ha sido mantenido casi en secreto. Actualmente es
relativamente frecuente encontrar programas de este tipo. La ventaja de un controlador de dispositivo de tipo EXE es
que puede ser ejecutado desde el DOS para modificar sus condiciones de operación, sin complicar su uso por parte
del usuario con otro programa adicional. Además, un controlador de dispositivo EXE puede superar el limite de los
64 Kb, ya que el DOS se encarga de relocalizar las referencias absolutas a segmentos como en cualquier programa
EXE ordinario.

Enlaces externos
• Driver Detective [1]
• Encuentra tus drivers automaticamente [2]

Referencias
[1] http:/ / www. driverdetective. es
[2] http:/ / www. comoformatear. co. cc/ drivers-pc-computador. html
Software 27

Software
Se conoce como software[1] al equipamiento lógico o soporte lógico de una computadora digital; comprende el
conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en
contraposición a los componentes físicos del sistema, llamados hardware.
Tales componentes lógicos incluyen, entre muchos otros, aplicaciones informáticas —como el procesador de textos,
que permite al usuario realizar todas las tareas concernientes a la edición de textos— o el software de sistema —tal
como el sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando
la interacción con los componentes físicos y el resto de las aplicaciones, proporcionando también una interfaz para el
usuario—.

Etimología
Software es una palabra proveniente del inglés (literalmente: partes blandas o suaves), que en español no posee una
traducción adecuada al contexto, por lo cual se la utiliza asiduamente sin traducir y así fue admitida por la Real
Academia Española (RAE).[2] Aunque no es estrictamente lo mismo, suele sustituirse por expresiones tales como
programas (informáticos) o aplicaciones (informáticas).[3]
Software es lo que se denomina producto en Ingeniería de Software.[4]

Definición de software
Probablemente la definición más formal de software sea la siguiente:
Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman
parte de las operaciones de un sistema de computación.
Extraído del estándar 729 del IEEE[5]
Considerando esta definición, el concepto de software va más allá de los programas de cómputo en sus distintos
estados: código fuente, binario o ejecutable; también su documentación, datos a procesar e información de usuario
forman parte del software: es decir, abarca todo lo intangible, todo lo "no físico" relacionado.
El término «software» fue usado por primera vez en este sentido por John W. Tukey en 1957. En las ciencias de la
computación y la ingeniería de software, el software es toda la información procesada por los sistemas informáticos:
programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la memoria de un dispositivo
para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que
forma la base de la mayor parte del software moderno fue propuesta por primera vez por Alan Turing en su ensayo
de 1936, "Los números computables", con una aplicación al problema de decisión.

Clasificación del software


Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al
software en tres grandes tipos:
• Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles de la
computadora en particular que se use, aislándolo especialmente del procesamiento referido a las características
internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El
software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y
utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:
• Sistemas operativos
• Controladores de dispositivos
Software 28

• Herramientas de diagnóstico
• Herramientas de Corrección y Optimización
• Servidores
• Utilidades
• Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas
informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluye entre
otros:
• Editores de texto
• Compiladores
• Intérpretes
• Enlazadores
• Depuradores
• Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno
visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar,
depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).
• Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en
cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios.
Incluye entre otros:
• Aplicaciones para Control de sistemas y automatización industrial
• Aplicaciones ofimáticas
• Software educativo
• Software empresarial
• Bases de datos
• Telecomunicaciones (p.ej. internet y toda su estructura lógica)
• Videojuegos
• Software médico
• Software de Cálculo Numérico y simbólico.
• Software de Diseño Asistido (CAD)
• Software de Control Numérico (CAM)

Proceso de creación del software


Se define como Proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención
de un producto, en este caso particular, para lograr la obtención de un producto software que resuelva un problema.
El proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y
criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión,
numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa
(por ejemplo, la resolución de una ecuación de segundo orden), éste puede ser realizado por un solo programador
(incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de
código) o costo: de Pequeño, Mediano y Gran porte. Existen varias metodologías para estimarlo, una de las más
populares es el sistema COCOMO que provee métodos y un software (programa) que calcula y provee una
estimación de todos los costos de producción en un "proyecto software" (relación horas/hombre, costo monetario,
cantidad de líneas fuente de acuerdo a lenguaje usado, etc.).
Considerando los de gran porte, es necesario realizar tantas y tan complejas tareas, tanto técnicas, de gerenciamiento,
fuerte gestión y análisis diversos (entre otras) que toda una ingeniería hace falta para su estudio y realización: es la
Ingeniería de Software.
Software 29

En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avezado analista-programador
solitario) pueden realizar la tarea. Aunque, siempre en casos de mediano y gran porte (y a veces también en algunos
de pequeño porte, según su complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del
software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de acuerdo a la metodología o
Proceso de Desarrollo escogido y utilizado por el equipo de desarrollo o por el analista-programador solitario (si
fuere el caso).
Los "procesos de desarrollo de software" poseen reglas preestablecidas, y deben ser aplicados en la creación del
software de mediano y gran porte, ya que en caso contrario lo más seguro es que el proyecto o no logre concluir o
termine sin cumplir los objetivos previstos, y con variedad de fallos inaceptables (fracasan, en pocas palabras). Entre
tales "procesos" los hay ágiles o livianos (ejemplo XP), pesados y lentos (ejemplo RUP) y variantes intermedias; y
normalmente se aplican de acuerdo al tipo, porte y tipología del software a desarrollar, a criterio del líder (si lo hay)
del equipo de desarrollo. Algunos de esos procesos son Extreme Programming (XP), Rational Unified Process
(RUP), Feature Driven Development (FDD), etc.
Cualquiera sea el "proceso" utilizado y aplicado al desarrollo del software (RUP, FDD, etc), y casi
independientemente de él, siempre se debe aplicar un "Modelo de Ciclo de Vida".[6]
Se estima que, del total de proyectos software grandes emprendidos, un 28% fracasan, un 46% caen en severas
modificaciones que lo retrasan y un 26% son totalmente exitosos. [4]
Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal causa de fallos y fracasos es la falta de
aplicación de una buena metodología o proceso de desarrollo. Entre otras, una fuerte tendencia, desde hace pocas
décadas, es mejorar las metodologías o procesos de desarrollo, o crear nuevas y concientizar a los profesionales en su
utilización adecuada. Normalmente los especialistas en el estudio y desarrollo de estas áreas (metodologías) y afines
(tales como modelos y hasta la gestión misma de los proyectos) son los Ingenieros en Software, es su orientación.
Los especialistas en cualquier otra área de desarrollo informático (analista, programador, Lic. en Informática,
Ingeniero en Informática, Ingeniero de Sistemas, etc.) normalmente aplican sus conocimientos especializados pero
utilizando modelos, paradigmas y procesos ya elaborados.
Es común para el desarrollo de software de mediano porte que los equipos humanos involucrados apliquen sus
propias metodologías, normalmente un híbrido de los procesos anteriores y a veces con criterios propios.
El proceso de desarrollo puede involucrar numerosas y variadas tareas[6] , desde lo administrativo, pasando por lo
técnico y hasta la gestión y el gerenciamiento. Pero casi rigurosamente siempre se cumplen ciertas etapas mínimas;
las que se pueden resumir como sigue:
• Captura, Elicitación[7] , Especificación y Análisis de requisitos (ERS)
• Diseño
• Codificación
• Pruebas (unitarias y de integración)
• Instalación y paso a Producción
• Mantenimiento
En las anteriores etapas pueden variar ligeramente sus nombres, o ser más globales, o contrariamente, ser más
refinadas; por ejemplo indicar como una única fase (a los fines documentales e interpretativos) de "Análisis y
Diseño"; o indicar como "Implementación" lo que está dicho como "Codificación"; pero en rigor, todas existen e
incluyen, básicamente, las mismas tareas específicas.
En el apartado 4 del presente artículo se brindan mayores detalles de cada una de las listadas etapas.
Software 30

Modelos de proceso o ciclo de vida


Para cada una de las fases o etapas listadas en el ítem anterior, existen sub-etapas (o tareas). El modelo de proceso o
modelo de ciclo de vida utilizado para el desarrollo define el orden para las tareas o actividades involucradas[6]
también definen la coordinación entre ellas, enlace y realimentación entre las mencionadas etapas. Entre los más
conocidos se puede mencionar: modelo en cascada o secuencial, modelo espiral, modelo iterativo incremental. De
los antedichos hay a su vez algunas variantes o alternativas, más o menos atractivas según sea la aplicación requerida
y sus requisitos.[4]

Modelo cascada
Este, aunque es más comúnmente conocido como modelo en cascada es también llamado "modelo clásico", "modelo
tradicional" o "modelo lineal secuencial".
El modelo en cascada puro difícilmente se utilice tal cual, pues esto implicaría un previo y absoluto conocimiento de
los requisitos, la no volatilidad de los mismos (o rigidez) y etapas subsiguientes libres de errores; ello sólo podría ser
aplicable a escasos y pequeños desarrollos de sistemas. En estas circunstancias, el paso de una etapa a otra de las
mencionadas sería sin retorno, por ejemplo pasar del Diseño a la Codificación implicaría un diseño exacto y sin
errores ni probable modificación o evolución: "codifique lo diseñado que no habrán en absoluto variantes ni errores".
Esto es utópico; ya que intrínsecamente el software es de carácter evolutivo, cambiante y difícilmente libre de
errores, tanto durante su desarrollo como durante su vida operativa.[6]
Algún cambio durante la ejecución de
una cualquiera de las etapas en este
modelo secuencial implicaría reiniciar
desde el principio todo el ciclo
completo, lo cual redundaría en altos
costos de tiempo y desarrollo. La
figura 2 muestra un posible esquema
de el modelo en cuestión.[6]

Sin embargo, el modelo cascada en


algunas de sus variantes es uno de los
actualmente más utilizados[8] , por su
eficacia y simplicidad, más que nada
Fig. 2 - Modelo cascada puro o secuencial para el ciclo de vida del software.
en software de pequeño y algunos de
mediano porte; pero nunca (o muy rara
vez) se lo usa en su forma pura, como se dijo anteriormente. En lugar de ello, siempre se produce alguna
realimentación entre etapas, que no es completamente predecible ni rígida; esto da oportunidad al desarrollo de
productos software en los cuales hay ciertas incertezas, cambios o evoluciones durante el ciclo de vida. Así por
ejemplo, una vez capturados (elicitados) y especificados los requisitos (primera etapa) se puede pasar al diseño del
sistema, pero durante esta última fase lo más probable es que se deban realizar ajustes en los requisitos (aunque sean
mínimos), ya sea por fallas detectadas, ambigüedades o bien por que los propios requisitos han cambiado o
evolucionado; con lo cual se debe retornar a la primera o previa etapa, hacer los pertinentes reajustes y luego
continuar nuevamente con el diseño; esto último se conoce como realimentación. Lo normal en el modelo cascada
será entonces la aplicación del mismo con sus etapas realimentadas de alguna forma, permitiendo retroceder de una a
la anterior (e incluso poder saltar a varias anteriores) si es requerido.

De esta manera se obtiene un "modelo cascada realimentado", que puede ser esquematizado como lo ilustra la figura
3.
Software 31

Lo dicho es, a grandes rasgos, la forma


y utilización de este modelo, uno de
los más usados y populares.[6] El
modelo Cascada Realimentado resulta
muy atractivo, hasta ideal, si el
proyecto presenta alta rigidéz (pocos o
ningún cambio, no evolutivo), los
requisitos son muy claros y están
correctamente especificados.[8]

Hay más variantes similares al modelo:


refino de etapas (más etapas, menores
y más específicas) o incluso mostrar
Fig. 3 - Modelo cascada realimentado para el ciclo de vida.
menos etapas de las indicadas, aunque
en tal caso la faltante estará dentro de
alguna otra. El orden de esas fases indicadas en el ítem previo es el lógico y adecuado, pero adviértase, como se dijo,
que normalmente habrá realimentación hacia atrás.
El modelo lineal o en Cascada es el paradigma más antiguo y extensamente utilizado, sin embargo las críticas a él
(ver desventajas) han puesto en duda su eficacia. Pese a todo tiene un lugar muy importante en la Ingeniería de
software y continúa siendo el más utilizado; y siempre es mejor que un enfoque al azar.[8]
Desventajas del modelo cascada:[6]
• Los cambios introducidos durante el desarrollo pueden confundir al equipo profesional en las etapas tempranas
del proyecto. Si los cambios se producen en etapa madura (codificación o prueba) pueden ser catastróficos para
un proyecto grande.
• No es frecuente que el cliente o usuario final explicite clara y completamente los requisitos (etapa de inicio); y el
modelo lineal lo requiere. La incertidumbre natural en los comienzos es luego difícil de acomodar.[8]
• El cliente debe tener paciencia ya que el software no estará disponible hasta muy avanzado el proyecto. Un error
detectado por el cliente (en fase de operación) puede ser desastroso, implicando reinicio del proyecto, con altos
costos.

Modelos evolutivos
El software evoluciona con el tiempo. Los requisitos del usuario y del producto suelen cambiar conforme se
desarrolla el mismo. Las fechas de mercado y la competencia hacen que no sea posible esperar a poner en el mercado
un producto absolutamente completo, por lo que se debe introducir una versión funcional limitada de alguna forma
para aliviar las presiones competitivas.
En esas u otras situaciones similares los desarrolladores necesitan modelos de progreso que estén diseñados para
acomodarse a una evolución temporal o progresiva, donde los requisitos centrales son conocidos de antemano,
aunque no estén bien definidos a nivel detalle.
En el modelo Cascada y Cascada Realimentado no se tiene en cuenta la naturaleza evolutiva del software, se plantea
como estático con requisitos bien conocidos y definidos desde el inicio.[6]
Los evolutivos son modelos iterativos, permiten desarrollar versiones cada vez más completas y complejas, hasta
llegar al objetivo final deseado; incluso evolucionar más allá, durante la fase de operación.
Los modelos “Iterativo Incremental” y “Espiral” (entre otros) son dos de los más conocidos y utilizados del tipo
evolutivo.[8]
Software 32

Modelo iterativo incremental


En términos generales, podemos distinguir, en la figura 4, los pasos generales que sigue el proceso de desarrollo de
un producto software. En el modelo de ciclo de vida seleccionado, se identifican claramente dichos pasos. La
Descripción del Sistema es esencial para especificar y confeccionar los distintos incrementos hasta llegar al Producto
global y final. Las actividades concurrentes (Especificación, Desarrollo y Validación) sintetizan el desarrollo
pormenorizado de los incrementos, que se hará posteriormente.
El diagrama 4 nos muestra en forma
muy esquemática, el funcionamiento
de un ciclo iterativo incremental, el
cual permite la entrega de versiones
parciales a medida que se va
construyendo el producto final.[6] Es
decir, a medida que cada incremento
definido llega a su etapa de operación
y mantenimiento. Cada versión emitida
incorpora a los anteriores incrementos
las funcionalidades y requisitos que Fig. 4 - Diagrama genérico del desarrollo evolutivo incremental.
fueron analizados como necesarios.

El incremental es un modelo de tipo evolutivo que está basado en varios ciclos Cascada realimentados aplicados
repetidamente, con una filosofía iterativa.[8] En la figura 5 se muestra un refino del diagrama previo, bajo un
esquema temporal, para obtener finalmente el esquema del Modelo de ciclo de vida Iterativo Incremental, con sus
actividades genéricas asociadas. Aquí se observa claramente cada ciclo cascada que es aplicado para la obtención de
un incremento; estos últimos se van integrando para obtener el producto final completo. Cada incremento es un ciclo
Cascada Realimentado, aunque, por simplicidad, en la figura 5 se muestra como secuencial puro.

Se observa que existen actividades de


desarrollo (para cada incremento) que
son realizadas en paralelo o
concurrentemente, así por ejemplo, en
la figura, mientras se realiza el diseño
detalle del primer incremento ya se
está realizando en análisis del segundo.
La figura 5 es sólo esquemática, un
incremento no necesariamente se
iniciará durante la fase de diseño del
anterior, puede ser posterior (incluso
Fig. 5 - Modelo iterativo incremental para el ciclo de vida del software,.
antes), en cualquier tiempo de la etapa
previa. Cada incremento concluye con
la actividad de “Operación y Mantenimiento” (indicada "Operación" en la figura), que es donde se produce la entrega
del producto parcial al cliente. El momento de inicio de cada incremento es dependiente de varios factores: tipo de
sistema; independencia o dependencia entre incrementos (dos de ellos totalmente independientes pueden ser
fácilmente iniciados al mismo tiempo si se dispone de personal suficiente); capacidad y cantidad de profesionales
involucrados en el desarrollo; etc.

Bajo este modelo se entrega software “por partes funcionales más pequeñas”, pero reutilizables, llamadas
incrementos. En general cada incremento se construye sobre aquel que ya fue entregado.[6]
Software 33

Como se muestra en la figura 5, se aplican secuencias Cascada en forma escalonada, mientras progresa el tiempo
calendario. Cada secuencia lineal o Cascada produce un incremento y a menudo el primer incremento es un sistema
básico, con muchas funciones suplementarias (conocidas o no) sin entregar.
El cliente utiliza inicialmente ese sistema básico intertanto, el resultado de su uso y evaluación puede aportar al plan
para el desarrollo del/los siguientes incrementos (o versiones). Además también aportan a ese plan otros factores,
como lo es la priorización (mayor o menor urgencia en la necesidad de cada incremento) y la dependencia entre
incrementos (o independencia).
Luego de cada integración se entrega un producto con mayor funcionalidad que el previo. El proceso se repite hasta
alcanzar el software final completo.
Siendo iterativo, con el modelo incremental se entrega un producto parcial pero completamente operacional en
cada incremento, y no una parte que sea usada para reajustar los requerimientos (como si ocurre en el modelo de
construcción de prototipos).[8]
El enfoque incremental resulta muy útil con baja dotación de personal para el desarrollo; también si no hay
disponible fecha límite del proyecto por lo que se entregan versiones incompletas pero que proporcionan al usuario
funcionalidad básica (y cada vez mayor). También es un modelo útil a los fines de evaluación.
Nota: Puede ser considerado y útil, en cualquier momento o incremento incorporar temporalmente el paradigma
MCP como complemento, teniendo así una mixtura de modelos que mejoran el esquema y desarrollo general.
Ejemplo:
Un procesador de texto que sea desarrollado bajo el paradigma Incremental podría aportar, en principio,
funciones básicas de edición de archivos y producción de documentos (algo como un editor simple). En un
segundo incremento se le podría agregar edición más sofisticada, y de generación y mezcla de documentos. En
un tercer incremento podría considerarse el agregado de funciones de corrección ortográfica, esquemas de
paginado y plantillas; en un cuarto capacidades de dibujo propias y ecuaciones matemáticas. Así
sucesivamente hasta llegar al procesador final requerido. Así, el producto va creciendo, acercándose a su meta
final, pero desde la entrega del primer incremento ya es útil y funcional para el cliente, el cual observa una
respuesta rápida en cuanto a entrega temprana; sin notar que la fecha límite del proyecto puede no estar
acotada ni tan definida, lo que da margen de operación y alivia presiones al equipo de desarrollo.
Como se dijo, el Iterativo Incremental es un modelo del tipo evolutivo, es decir donde se permiten y esperan
probables cambios en los requisitos en tiempo de desarrollo; se admite cierto margen para que el software pueda
evolucionar. Aplicable cuando los requisitos son medianamente bien conocidos pero no son completamente estáticos
y definidos, cuestión esa que si es indispensable para poder utilizar un modelo Cascada.
El modelo es aconsejable para el desarrollo de software en el cual se observe, en su etapa inicial de análisis, que
posee áreas bastante bien definidas a cubrir, con suficiente independencia como para ser desarrolladas en etapas
sucesivas. Tales áreas a cubrir suelen tener distintos grados de apremio por lo cual las mismas se deben priorizar en
un análisis previo, es decir, definir cual será la primera, la segunda, y así sucesivamente; esto se conoce como
“definición de los incrementos” con base en priorización. Pueden no existir prioridades funcionales por parte del
cliente, pero el desarrollador debe fijarlas de todos modos y con algún criterio, ya que basándose en ellas se
desarrollarán y entregarán los distintos incrementos.
El hecho de que existan incrementos funcionales del software lleva inmediatamente a pensar en un esquema de
desarrollo modular, por tanto este modelo facilita tal paradigma de diseño.
En resumen, un modelo incremental lleva a pensar en un desarrollo modular, con entregas parciales del producto
software denominados “incrementos” del sistema, que son escogidos según prioridades predefinidas de algún modo.
El modelo permite una implementación con refinamientos sucesivos (ampliación o mejora). Con cada incremento se
agrega nueva funcionalidad o se cubren nuevos requisitos o bien se mejora la versión previamente implementada del
producto software.
Software 34

Este modelo brinda cierta flexibilidad para que durante el desarrollo se incluyan cambios en los requisitos por parte
del usuario, un cambio de requisitos propuesto y aprobado puede analizarse e implementarse como un nuevo
incremento o, eventualmente, podrá constituir una mejora/adecuación de uno ya planeado. Aunque si se produce un
cambio de requisitos por parte del cliente que afecte incrementos previos ya terminados (detección/incorporación
tardía) se debe evaluar la factibilidad y realizar un acuerdo con el cliente, ya que puede impactar fuertemente en los
costos.
La selección de este modelo permite realizar entregas funcionales tempranas al cliente (lo cual es beneficioso
tanto para él como para el grupo de desarrollo). Se priorizan las entregas de aquellos módulos o incrementos en que
surja la necesidad operativa de hacerlo, por ejemplo para cargas previas de información, indispensable para los
incrementos siguientes.[8]
El modelo iterativo incremental no obliga a especificar con precisión y detalle absolutamente todo lo que el sistema
debe hacer, (y cómo), antes de ser construido (como el caso del cascada, con requisitos congelados). Sólo se hace en
el incremento en desarrollo. Esto torna más manejable el proceso y reduce el impacto en los costos. Esto es así,
porque en caso de alterar o rehacer los requisitos, solo afecta una parte del sistema. Aunque, lógicamente, esta
situación se agrava si se presenta en estado avanzado, es decir en los últimos incrementos. En definitiva, el modelo
facilita la incorporación de nuevos requisitos durante el desarrollo.
Con un paradigma incremental se reduce el tiempo de desarrollo inicial, ya que se implementa funcionalidad parcial.
También provee un impacto ventajoso frente al cliente, que es la entrega temprana de partes operativas del software.
El modelo proporciona todas las ventajas del modelo en cascada realimentado, reduciendo sus desventajas sólo al
ámbito de cada incremento.
El modelo incremental no es recomendable para casos de sistemas de tiempo real, de alto nivel de seguridad, de
procesamiento distribuido, o de alto índice de riesgos.

Modelo espiral
El modelo espiral fue propuesto inicialmente por Barry Boehm. Es un modelo evolutivo que conjuga la naturaleza
iterativa del modelo MCP con los aspectos controlados y sistemáticos del Modelo Cascada. Proporciona potencial
para desarrollo rápido de versiones incrementales. En el modelo Espiral el software se construye en una serie de
versiones incrementales. En las primeras iteraciones la versión incremental podría ser un modelo en papel o bien un
prototipo. En las últimas iteraciones se producen versiones cada vez más completas del sistema diseñado.[6] [8]
El modelo se divide en un número de Actividades de marco de trabajo, llamadas "regiones de tareas". En general
existen entre tres y seis regiones de tareas (hay variantes del modelo). En la figura 6 se muestra el esquema de un
Modelo Espiral con 6 regiones. En este caso se explica una variante del modelo original de Boehm, expuesto en su
tratado de 1988; en 1998 expuso un tratado más reciente.
Software 35

Las regiones definidas en el modelo de


la figura son:
• Región 1 - Tareas requeridas para
establecer la comunicación entre el
cliente y el desarrollador.
• Región 2 - Tareas inherentes a la
definición de los recursos, tiempo y
otra información relacionada con el
proyecto.
• Región 3 - Tareas necesarias para
evaluar los riesgos técnicos y de
gestión del proyecto.
• Región 4 - Tareas para construir una
o más representaciones de la
aplicación software.
• Región 5 - Tareas para construir la
aplicación, instalarla, probarla y
proporcionar soporte al usuario o
cliente (Ej. documentación y Fig. 6 - Modelo espiral para el ciclo de vida del software.
práctica).
• Región 6 - Tareas para obtener la reacción del cliente, según la evaluación de lo creado e instalado en los ciclos
anteriores.
Las actividades enunciadas para el marco de trabajo son generales y se aplican a cualquier proyecto, grande,
mediano o pequeño, complejo o no. Las regiones que definen esas actividades comprenden un "conjunto de tareas"
del trabajo: ese conjunto sí se debe adaptar a las características del proyecto en particular a emprender. Nótese que lo
listado en los ítems de 1 a 6 son conjuntos de tareas, algunas de las ellas normalmente dependen del proyecto o
desarrollo en si.
Proyectos pequeños requieren baja cantidad de tareas y también de formalidad. En proyectos mayores o críticos cada
región de tareas contiene labores de más alto nivel de formalidad. En cualquier caso se aplican actividades de
protección (por ejemplo, gestión de configuración del software, garantía de calidad, etc.).
Al inicio del ciclo, o proceso evolutivo, el equipo de ingeniería gira alrededor del espiral (metafóricamente
hablando) comenzando por el centro (marcado con ๑ en la figura 6) y en el sentido indicado; el primer circuito de la
espiral puede producir el desarrollo de una especificación del producto; los pasos siguientes podrían generar un
prototipo y progresivamente versiones más sofisticadas del software.
Cada paso por la región de planificación provoca ajustes en el plan del proyecto; el coste y planificación se
realimentan en función de la evaluación del cliente. El gestor de proyectos debe ajustar el número de iteraciones
requeridas para completar el desarrollo.
El modelo espiral puede ir adaptándose y aplicarse a lo largo de todo el Ciclo de vida del software (en el modelo
clásico, o cascada, el proceso termina a la entrega del software).
Una visión alternativa del modelo puede observarse examinando el "eje de punto de entrada de proyectos". Cada uno
de los circulitos (๏) fijados a lo largo del eje representan puntos de arranque de los distintos proyectos
(relacionados); a saber:
• Un proyecto de "Desarrollo de Conceptos" comienza al inicio de la espiral, hace múltiples iteraciones hasta que se
completa, es la zona marcada con verde.
Software 36

• Si lo anterior se va a desarrollar como producto real, se incia otro proyecto: "Desarrollo de nuevo Producto". Que
evolucionará con iteraciones hasta culminar; es la zona marcada en color azul.
• Eventual y análogamente se generarán proyectos de "Mejoras de Productos" y de "Mantenimiento de productos",
con las iteraciones necesarias en cada área (zonas roja y gris, respectivamente).
Cuando la espiral se caracteriza de esta forma, está operativa hasta que el software se retira, eventualmente puede
estar inactiva (el proceso), pero cuando se produce un cambio el proceso arranca nuevamente en el punto de entrada
apropiado (por ejemplo, en "Mejora del Producto").
El modelo espiral da un enfoque realista, que evoluciona igual que el software; se adapta muy bien para desarrollos a
gran escala.
El Espiral utiliza el MCP para reducir riesgos y permite aplicarlo en cualquier etapa de la evolución. Mantiene el
enfoque clásico (cascada) pero incorpora un marco de trabajo iterativo que refleja mejor la realidad.
Este modelo requiere considerar riesgos técnicos en todas las etapas del proyecto; aplicado adecuadamente debe
reducirlos antes de que sean un verdadero problema.
El Modelo evolutivo como el Espiral es particularmente apto para el desarrollo de Sistemas Operativos (complejos);
también en sistemas de altos riesgos o críticos (Ej. navegadores y controladores aeronáuticos) y en todos aquellos en
que sea necesaria una fuerte gestión del proyecto y sus riesgos, técnicos o de gestión.
Desventajas importantes:
• Requiere mucha experiencia y habilidad para la evaluación de los riesgos, lo cual es requisito para el éxito del
proyecto.
• Es difícil convencer a los grandes clientes que se podrá controlar este enfoque evolutivo.
Este modelo no se ha usado tanto, como el Cascada (Incremental) o MCP, por lo que no se tiene bien medida su
eficacia, es un paradigma relativamente nuevo y difícil de implementar y controlar.

Modelo espiral Win & Win


Una variante interesante del Modelo Espiral previamente visto (Fig. 6) es el "Modelo espiral Win-Win"[4] (Barry
Boehm). El Modelo Espiral previo (clásico) sugiere la comunicación con el cliente para fijar los requisitos, en que
simplemente se pregunta al cliente qué necesita y él proporciona la información para continuar; pero esto es en un
contexto ideal que rara vez ocurre. Normalmente cliente y desarrollador entran en una negociación, se negocia coste
frente a funcionalidad, rendimiento, calidad, etc.
"Es así que la obtención de requisitos requiere una negociación, que tiene éxito cuando ambas partes ganan".
Las mejores negociaciones se fuerzan en obtener "Victoria & Victoria" (Win & Win), es decir que el cliente gane
obteniendo el producto que lo satisfaga, y el desarrollador también gane consiguiendo presupuesto y fecha de entrega
realista. Evidentemente, este modelo requiere fuertes habilidades de negociación.
El modelo Win-Win define un conjunto de actividades de negociación al principio de cada paso alrededor de la
espiral; se definen las siguientes actividades:
1. Identificación del sistema o subsistemas clave de los directivos(*) (saber qué quieren).
2. Determinación de "condiciones de victoria" de los directivos (saber qué necesitan y los satisface)
3. Negociación de las condiciones "victoria" de los directivos para obtener condiciones "Victoria & Victoria"
(negociar para que ambos ganen).
(*) Directivo: Cliente escogido con interés directo en el producto, que puede ser premiado por la organización si
tiene éxito o criticado si no.
El modelo Win & Win hace énfasis en la negociación inicial, también introduce 3 hitos en el proceso llamados
"puntos de fijación", que ayudan a establecer la completitud de un ciclo de la espiral, y proporcionan hitos de
decisión antes de continuar el proyecto de desarrollo del software.
Software 37

Etapas en el desarrollo del software

Captura, análisis y especificación de requisitos


Al inicio de un desarrollo (no de un proyecto), esta es la primera fase que se realiza, y, según el modelo de proceso
adoptado, puede casi terminar para pasar a la próxima etapa (caso de Modelo Cascada Realimentado) o puede
hacerse parcialmente para luego retomarla (caso Modelo Iterativo Incremental u otros de carácter evolutivo).
En simple palabras y básicamente, durante esta fase, se adquieren, reúnen y especifican las características
funcionales y no funcionales que deberá cumplir el futuro programa o sistema a desarrollar.
Las bondades de las características, tanto del sistema o programa a desarrollar, como de su entorno, parámetros no
funcionales y arquitectura dependen enormemente de lo bien lograda que esté esta etapa. Esta es, probablemente, la
de mayor importancia y una de las fases más difíciles de lograr certeramente, pues no es automatizable, no es muy
técnica y depende en gran medida de la habilidad y experiencia del analista que la realice.
Involucra fuertemente al usuario o cliente del sistema, por tanto tiene matices muy subjetivos y es difícil de modelar
con certeza o aplicar una técnica que sea "la más cercana a la adecuada" (de hecho no existe "la estrictamente
adecuada"). Si bien se han ideado varias metodologías, incluso software de apoyo, para captura, elicitación y registro
de requisitos, no existe una forma infalible o absolutamente confiable, y deben aplicarse conjuntamente buenos
criterios y mucho sentido común por parte del o los analistas encargados de la tarea; es fundamental también lograr
una fluida y adecuada comunicación y comprensión con el usuario final o cliente del sistema.
El artefacto más importante resultado de la culminación de esta etapa es lo que se conoce como especificación de
requisitos software o simplemente documento ERS.
Como se dijo, la habilidad del analista para interactuar con el cliente es fundamental; lo común es que el cliente
tenga un objetivo general o problema a resolver, no conoce en absoluto el área (informática), ni su jerga, ni siquiera
sabe con precisión qué debería hacer el producto software (qué y cuantas funciones) ni, mucho menos, cómo debe
operar. En otros casos menos frecuentes, el cliente "piensa" que sabe precisamente lo que el software tiene que
hacer, y generalmente acierta muy parcialmente, pero su empecinamiento entorpece la tarea de elicitación. El
analista debe tener la capacidad para lidiar con este tipo de problemas, que incluyen relaciones humanas; tiene que
saber ponerse al nivel del usuario para permitir una adecuada comunicación y comprensión.
Escasas son las situaciones en que el cliente sabe con certeza e incluso con completitud lo que requiere de su futuro
sistema, este es el caso más sencillo para el analista.
Las tareas relativas a captura, elicitación, modelado y registro de requerimientos, además de ser sumamente
importante, puede llegar a ser dificultosa de lograr acertadamente y llevar bastante tiempo relativo al proceso total
del desarrollo; al proceso y metodologías para llevar a cabo este conjunto de actividades normalmente se las asume
parte propia de la Ingeniería de Software, pero dada la antedicha complejidad, actualmente se habla de una
Ingeniería en Requisitos[9] , aunque ella aún no existe formalmente.
Hay grupos de estudio e investigación, en todo el mundo, que están exclusivamente abocados a la idear modelos,
técnicas y procesos para intentar lograr la correcta captura, análisis y registro de requerimientos. Estos grupos son los
que normalmente hablan de la Ingeniería en Requisitos; es decir se plantea ésta como un área o disciplina pero no
como una carrera universitaria en si misma.
Algunos requisitos no necesitan la presencia del cliente, para ser capturados o analizados; en ciertos casos los puede
proponer el mismo analista o, incluso, adoptar unilateralmente decisiones que considera adecuadas (tanto en
requerimientos funcionales como no funcionales). Por citar ejemplos probables: Algunos requisitos sobre la
arquitectura del sistema, requisitos no funcionales tales como los relativos al rendimiento, nivel de soporte a errores
operativos, plataformas de desarrollo, relaciones internas o ligas entre la información (entre registros o tablas de
datos) a almacenar en caso de bases o bancos de datos, etc. Algunos funcionales tales como opciones secundarias o
de soporte necesarias para una mejor o más sencilla operatividad; etc.
Software 38

La obtención de especificaciones a partir del cliente (u otros actores intervinientes) es un proceso humano muy
interactivo e iterativo; normalmente a medida que se captura la información, se la analiza y realimenta con el cliente,
refinándola, puliéndola y corrigiendo si es necesario; cualquiera sea el método de ERS utilizado. EL analista siempre
debe llegar a conocer la temática y el problema a resolver, dominarlo, hasta cierto punto, hasta el ámbito que el
futuro sistema a desarrollar lo abarque. Por ello el analista debe tener alta capacidad para comprender problemas de
muy diversas áreas o disciplinas de trabajo (que no son específicamente suyas); así por ejemplo, si el sistema a
desarrollar será para gestionar información de una aseguradora y sus sucursales remotas, el analista se debe
compenetrar en cómo ella trabaja y maneja su información, desde niveles muy bajos e incluso llegando hasta los
gerenciales. Dada a gran diversidad de campos a cubrir, los analistas suelen ser asistidos por especialistas, es decir
gente que conoce profundamente el área para la cual se desarrollará el software; evidentemente una única persona (el
analista) no puede abarcar tan vasta cantidad de áreas del conocimiento. En empresas grandes de desarrollo de
productos software, es común tener analistas especializados en ciertas áreas de trabajo.
Contrariamente, no es problema del cliente, es decir él no tiene por qué saber nada de software, ni de diseños, ni
otras cosas relacionadas; sólo se debe limitar a aportar objetivos, datos e información (de mano propia o de sus
registros, equipos, empleados, etc) al analista, y guiado por él, para que, en primera instancia, defina el "Universo de
Discurso", y con posterior trabajo logre confeccionar el adecuado documento ERS.
Es bien conocida la presión que sufren los desarrolladores de sistemas informáticos para comprender y rescatar las
necesidades de los clientes/usuarios. Cuanto más complejo es el contexto del problema más difícil es lograrlo, a
veces se fuerza a los desarrolladores a tener que convertirse en casi expertos de los dominios que analizan.
Cuando esto no sucede es muy probable que se genere un conjunto de requisitos[10] erróneos o incompletos y por lo
tanto un producto de software con alto grado de desaprobación por parte de los clientes/usuarios y un altísimo costo
de reingeniería y mantenimiento. Todo aquello que no se detecte, o resulte mal entendido en la etapa inicial
provocará un fuerte impacto negativo en los requisitos, propagando esta corriente degradante a lo largo de todo el
proceso de desarrollo e incrementando su perjuicio cuanto más tardía sea su detección (Bell y Thayer
1976)(Davis 1993).

Procesos, modelado y formas de elicitación de requisitos


Siendo que la captura, elicitación y especificación de requisitos, es una parte crucial en el proceso de desarrollo de
software, ya que de esta etapa depende el logro de los objetivos finales previstos, se han ideado modelos y diversas
metodologías de trabajo para estos fines. También existen herramientas software que apoyan las tareas relativas
realizadas por el ingeniero en requisitos.
El estándar IEEE 830-1998 brinda una normalización de las "Prácticas Recomendadas para la Especificación de
Requisitos Software".[11]
A medida que se obtienen los requisitos, normalmente se los va analizando, el resultado de este análisis, con o sin el
cliente, se plasma en un documento, conocido como ERS o Especificación de Requisitos Software, cuya estructura
puede venir definida por varios estándares, tales como CMM-I.
Un primer paso para realizar el relevamiento de información es el conocimiento y definición acertada lo que se
conoce como "Universo de Discurso" del problema, que se define y entiende por:
Universo de Discurso (UdeD): es el contexto general en el cual el software deberá ser desarrollado y deberá operar.
El UdeD incluye todas las fuentes de información y todas las personas relacionadas con el software. Esas personas
son conocidas también como actores de ese universo. El UdeD es la realidad circunstanciada por el conjunto de
objetivos definidos por quienes demandaron el software.
A partir de la extracción y análisis de información en su ámbito se obtienen todas las especificaciones necesarias y
tipos de requisitos para el futuro producto software.
Software 39

El objetivo de la Ingeniería de Requisitos (IR) es sistematizar el proceso de definición de requisitos permitiendo


elicitar, modelar y analizar el problema, generando un compromiso entre los Ingenieros de Requisitos y los
clientes/usuarios, ya que ambos participan en la generación y definición de los requisitos del sistema. La IR aporta
un conjunto de métodos, técnicas y herramientas que asisten a los ingenieros de requisitos (analistas) para obtener
requerimientos lo más seguros, veraces, completos y oportunos posibles, permitiendo básicamente:
• Comprender el problema
• Facilitar la obtención de las necesidades del cliente/usuario
• Validar con el cliente/usuario
• Garantizar las especificaciones de requisitos
Si bien existen diversas formas, modelos y metodologías para elicitar, definir y documentar requerimientos, no se
puede decir que alguna de ellas sea mejor o peor que la otra, suelen tener muchísimo en común, y todas cumplen el
mismo objetivo. Sin embargo, lo que si se puede decir sin dudas es que es indispensable utilizar alguna de ellas para
documentar las especificaciones del futuro producto software. Así por ejemplo, hay un grupo de investigación
argentino que desde hace varios años ha propuesto y estudia el uso del LEL (Léxico Extendido del Lenguaje) y
Escenarios como metodología, aquí[12] se presenta una de las tantas referencias y bibliografía sobre ello. Otra forma,
más ortodoxa, de capturar y documentar requisitos se puede obtener en detalle, por ejemplo, en el trabajo de la
Universidad de Sevilla sobre "Metodología para el Análisis de Requisitos de Sistemas Software".[13]
En la Fig. 7 se muestra un esquema, más o menos riguroso, aunque no detallado, de los pasos y tareas a seguir para
realizar la captura, análisis y especificación de requerimientos software. También allí se observa qué artefacto o
documento se obtiene en cada etapa del proceso. En el diagrama no se explicita metodología o modelo a utilizar,
sencillamente se pautan las tareas que deben cumplirse, de alguna manera.
Una posible lista, general y ordenada,
de tareas recomendadas para obtener la
definición de lo que se debe realizar,
los productos a obtener y las técnicas a
emplear durante la actividad de
elicitación de requisitos, en fase de
Especificación de Requisitos Software
es:

1. Obtener información sobre el


dominio del problema y el sistema
actual (UdeD).
2. Preparar y realizar las reuniones Fig. 7 - Diagrama de tareas para captura y análisis de requisitos.
para elicitación/negociación.
3. Identificar/revisar los objetivos del usuario.
4. Identificar/revisar los objetivos del sistema.
5. Identificar/revisar los requisitos de información.
6. Identificar/revisar los requisitos funcionales.
7. Identificar/revisar los requisitos no funcionales.
8. Priorizar objetivos y requisitos.
Algunos principios básicos a tener en cuenta:
• Presentar y entender cabalmente el dominio de la información del problema.
• Definir correctamente las funciones que debe realizar el Software.
• Representar el comportamiento del software a consecuencias de acontecimientos externos, particulares, incluso
inesperados.
• Reconocer requisitos incompletos, ambiguos o contradictorios.
Software 40

• Dividir claramente los modelos que representan la información, las funciones y comportamiento y características
no funcionales.

Clasificación e identificación de requerimientos


Se pueden identificar dos formas de requisitos:
• Requisitos de usuario: Los requisitos de usuario son frases en lenguaje natural junto a diagramas con los servicios
que el sistema debe proporcionar, así como las restricciones bajo las que debe operar.
• Requisitos de sistema: Los requisitos de sistema determinan los servicios del sistema y pero con las restricciones
en detalle. Sirven como contrato.
Es decir, ambos son lo mismo, pero con distinto nivel de detalle.
Ejemplo de requisito de usuario: El sistema debe hacer préstamos Ejemplo de requisito de sistema: Función
préstamo: entrada código socio, código ejemplar; salida: fecha devolución; etc.
Se clasifican en tres los tipos de requisitos de sistema:
• Requisitos funcionales
Los requisitos funcionales describen:
• Los servicios que proporciona el sistema (funciones).
• La respuesta del sistema ante determinadas entradas.
• El comportamiento del sistema en situaciones particulares.
• Requisitos no funcionales
Los requisitos no funcionales son restricciones de los servicios o funciones que ofrece el sistema (ej. cotas de
tiempo, proceso de desarrollo, rendimiento, etc.)
Ejemplo 1. La biblioteca Central debe ser capaz de atender simultáneamente a todas las bibliotecas de la
Universidad
Ejemplo 2. El tiempo de respuesta a una consulta remota no debe ser superior a 1/2 s
A su vez, hay tres tipos de requisitos no funcionales:
• Requisitos del producto. Especifican el comportamiento del producto (Ej. prestaciones, memoria, tasa de fallos,
etc.)
• Requisitos organizativos. Se derivan de las políticas y procedimientos de las organizaciones de los clientes y
desarrolladores (Ej. estándares de proceso, lenguajes de programación, etc.)
• Requisitos externos. Se derivan de factores externos al sistema y al proceso de desarrollo (Ej. requisitos
legislativos, éticos, etc.)
• Requisitos del dominio.
Los requisitos del dominio se derivan del dominio de la aplicación y reflejan características de dicho dominio.
Pueden ser funcionales o no funcionales.
Ej. El sistema de biblioteca de la Universidad debe ser capaz de exportar datos mediante el Lenguaje de
Intercomunicación de Bibliotecas de España (LIBE). Ej. El sistema de biblioteca no podrá acceder a bibliotecas con
material censurado.
Software 41

Codificación del software


Durante esta la etapa se realizan las tareas que comúnmente se conocen como programación; que consiste,
esencialmente, en llevar a código fuente, en el lenguaje de programación elegido, todo lo diseñado en la fase
anterior. Esta tarea la realiza el programador, siguiendo por completo los lineamientos impuestos en el diseño y en
consideración siempre a los requisitos funcionales y no funcionales (ERS) especificados en la primera etapa.
Es común pensar que la etapa de programación o codificación (algunos la llaman implementación) es la que insume
la mayor parte del trabajo de desarrollo del software; sin embargo, esto puede ser relativo (y generalmente aplicable
a sistemas de pequeño porte) ya que las etapas previas son cruciales, críticas y pueden llevar bastante más tiempo. Se
suele hacer estimaciones de un 30% del tiempo total insumido en la programación, pero esta cifra no es consistente
ya que depende en gran medida de las características del sistema, su criticidad y el lenguaje de programación
elegido.[4] En tanto menor es el nivel del lenguaje mayor será el tiempo de programación requerido, así por ejemplo
se tardaría más tiempo en codificar un algoritmo en lenguaje ensamblador que el mismo programado en lenguaje C.
Mientras se programa la aplicación, sistema, o software en general, se realizan también tareas de depuración, esto es
la labor de ir liberando al código de los errores factibles de ser hallados en esta fase (de semántica, sintáctica y
lógica). Hay una suerte de solapamiento con la fase siguiente, ya que para depurar la lógica es necesario realizar
pruebas unitarias, normalmente con datos de prueba; claro es que no todos los errores serán encontrados sólo en la
etapa de programación, habrán otros que se encontrarán durante las etapas subsiguientes. La aparición de algún error
funcional (mala respuesta a los requerimientos) eventualmente puede llevar a retornar a la fase de diseño antes de
continuar la codificación.
Durante la fase de programación, el código puede adoptar varios estados, dependiendo de la forma de trabajo y del
lenguaje elegido, a saber:
• Código fuente: es el escrito directamente por los programadores en editores de texto, lo cual genera el programa.
Contiene el conjunto de instrucciones codificadas en algún lenguaje de alto nivel. Puede estar distribuido en
paquetes, procedimientos, bibliotecas fuente, etc.
• Código objeto: es el código binario o intermedio resultante de procesar con un compilador el código fuente.
Consiste en una traducción completa y de una sola vez de éste último. El código objeto no es inteligible por el
ser humano (normalmente es formato binario) pero tampoco es directamente ejecutable por la computadora. Se
trata de una representación intermedia entre el código fuente y el código ejecutable, a los fines de un enlace final
con las rutinas de biblioteca y entre procedimientos o bien para su uso con un pequeño intérprete intermedio [a
modo de distintos ejemplos véase EUPHORIA, (intérprete intermedio), FORTRAN (compilador puro) MSIL
(Microsoft Intermediate Language) (intérprete) y BASIC (intérprete puro, intérprete intermedio, compilador
intermedio o compilador puro, depende de la versión utilizada)].
• El código objeto no existe si el programador trabaja con un lenguaje a modo de intérprete puro, en este caso
el mismo intérprete se encarga de traducir y ejecutar línea por línea el código fuente (de acuerdo al flujo del
programa), en tiempo de ejecución. En este caso tampoco existe el o los archivos de código ejecutable. Una
desventaja de esta modalidad es que la ejecución del programa o sistema es un poco más lenta que si se hiciera
con un intérprete intermedio, y bastante más lenta que si existe el o los archivos de código ejecutable. Es decir
no favorece el rendimiento en velocidad de ejecución. Pero una gran ventaja de la modalidad intérprete puro,
es que el esta forma de trabajo facilita enormemente la tarea de depuración del código fuente (frente a la
alternativa de hacerlo con un compilador puro). Frecuentemente se suele usar una forma mixta de trabajo (si el
lenguaje de programación elegido lo permite), es decir inicialmente trabajar a modo de intérprete puro, y una
vez depurado el código fuente (liberado de errores) se utiliza un compilador del mismo lenguaje para obtener
el código ejecutable completo, con lo cual se agiliza la depuración y la velocidad de ejecución se optimiza.
• Código ejecutable: Es el código binario resultado de enlazar uno o más fragmentos de código objeto con las
rutinas y bibliotecas necesarias. Constituye uno o más archivos binarios con un formato tal que el sistema
operativo es capaz de cargarlo en la memoria RAM (eventualmente también parte en una memoria virtual), y
Software 42

proceder a su ejecución directa. Por lo anterior se dice que el código ejecutable es directamente "inteligible por la
computadora". El código ejecutable, también conocido como código máquina, no existe si se programa con
modalidad de "intérprete puro".

Pruebas (unitarias y de integración)


Entre las diversas pruebas que se le efectúan al software se pueden distinguir principalmente:
• Prueba unitarias: Consisten en probar o testear piezas de software pequeñas; a nivel de secciones, procedimientos,
funciones y módulos; aquellas que tengan funcionalidades específicas. Dichas pruebas se utilizan para asegurar el
correcto funcionamiento de secciones de código, mucho más reducidas que el conjunto, y que tienen funciones
concretas con cierto grado de independencia.
• Pruebas de integración: Se realizan una vez que las pruebas unitarias fueron concluidas exitosamente; con éstas se
intenta asegurar que el sistema completo, incluso los subsistemas que componen las piezas individuales grandes
del software, funcionen correctamente al operar e inteoperar en conjunto.
Las pruebas normalmente se efectúan con los llamados datos de prueba, que es un conjunto seleccionado de datos
típicos a los que puede verse sometido el sistema, los módulos o los bloques de código. También se escogen: Datos
que llevan a condiciones límites al software a fin de probar su tolerancia y robustez; datos de utilidad para
mediciones de rendimiento; datos que propocan condiciones eventuales o particulares poco comunes y a las que el
software normalmente no estará sometido pero pueden ocurrir; etc. Los "datos de prueba" no necesariamente son
ficticios o "creados", pero normalmente si lo son los de poca probabilidad de ocurrencia.
Generalmente, existe un fase probatoria final y completa del software, llamada Beta Test, durante la cual el sistema
instalado en condiciones normales de operación y trabajo es probado exhaustivamente a fin de encontrar errores,
inestabilidades, respuestas erróneas, etc. que hayan pasado los previos controles. Estas son normalmente realizadas
por personal idóneo contratado o afectado específicamente a ello. Los posibles errores encontrados se transmiten a
los desarrolladores para su depuración. En el caso de software de desarrollo "a pedido", el usuario final (cliente) es el
que realiza el Beta Test, teniendo para ello un período de prueba pactado con el desarrollador.

Instalación y paso a producción


La instalación del software es el proceso por el cual los programas desarrollados son transferidos apropiadamente al
computador destino, inicializados, y, eventualmente, configurados; todo ello con el propósito de ser ya utilizados por
el usuario final. Constituye la etapa final en el desarrollo propiamente dicho del software. Luego de ésta el producto
entrará en la fase de funcionamiento y producción, para el que fuera diseñado.
La instalación, dependiendo del sistema desarrollado, puede consistir en una simple copia al disco rígido destino
(casos raros actualmente); o bien, más comúnmente, con una de complejidad intermedia en la que los distintos
archivos componentes del software (ejecutables, bibliotecas, datos propios, etc.) son descomprimidos y copiados a
lugares específicos preestablecidos del disco; incluso se crean vínculos con otros productos, además del propio
sistema operativo. Este último caso, comúnmente es un proceso bastante automático que es creado y guiado con
heramientas software específicas (empaquetado y distribución, instaladores).
En productos de mayor complejidad, la segunda alternativa es la utilizada, pero es realizada o guiada por
especialistas; puede incluso requerirse la instalación en varios y distintos computadores (instalación distribuida).
También, en software de mediana y alta complejidad normalmente es requerido un proceso de configuración y
chequeo, por el cual se asignan adecuados parámetros de funcionamiento y se testea la operatividad funcional del
producto.
En productos de venta masiva las instalaciones completas, si son relativamente simples, suelen ser realizadas por los
propios usuarios finales (tales como sistemas operativos, paquetes de oficina, utilitarios, etc.) con herramientas
propias de instalación guiada; incluso la configuración suele ser automática. En productos de diseño específico o "a
Software 43

medida" la instalación queda restringida, normalmente, a personas especialistas involucradas en el desarrollo del
software en cuestión.
Una vez realizada exitosamente la instalación del software, el mismo pasa a la fase de producción (operatividad),
durante la cual cumple las funciones para las que fue desarrollado, es decir, es finalmente utilizado por el (o los)
usuario final, produciendo los resultados esperados.

Mantenimiento
El mantenimiento de software es el proceso de control, mejora y optimización del software ya desarrollado e
instalado, que también incluye depuración de errores y defectos que puedan haberse filtrado de la fase de pruebas de
control y beta test. Esta fase es la última (antes de iterar, según el modelo empleado) que se aplica al ciclo de vida
del desarrollo de software. La fase de mantenimiento es la que viene después de que el software está operativo y en
producción.
De un buen diseño y documentación del desarrollo dependerá cómo será la fase de mantenimiento, tanto en costo
temporal como monetario. Modificaciones realizadas a un software que fue elaborado con una documentación
indebida o pobre y mal diseño puede llegar a ser tanto o más costosa que desarrollar el software desde el inicio. Por
ello, es de fundamental importancia respetar debidamente todas las tareas de las fases del desarrollo y mantener
adecuada y completa la documentación.
El período de la fase de mantenimiento es normalmente el mayor en todo el ciclo de vida.[4] Esta fase involucra
también actualizaciones y evoluciones del software; no necesariamente implica que el sistema tuvo errores. Uno o
más cambios en el software, por ejemplo de adaptación o evolutivos, puede llevar incluso a rever y adaptar desde
parte de las primeras fases del desarrollo inicial, alterando todas las demás; dependiendo de cuán profundos sean los
cambios. El modelo cascada común es particularmente costoso en mantenimiento, ya que su rigidez implica que
cualquier cambio provoca regreso a fase inicial y fuertes alteraciones en las demás fases del ciclo de vida.
Durante el período de mantenimiento, es común que surjan nuevas revisiones y versiones del producto; que lo
liberan más depurado, con mayor y mejor funcionalidad, mejor rendimiento, etc. Varias son las facetas que pueden
ser alteradas para provocar cambios deseables, evolutivos, adaptaciones o ampliaciones y mejoras.
Básicamente se tienen los siguientes tipos de cambios:
• Perfectivos: Aquellos que llevan a una mejora de la calidad interna del software en cualquier aspecto:
Reestructuración del código, definición más clara del sistema y su documentación; optimización del rendimiento
y eficiencia.
• Evolutivos: Agregados, modificaciones, incluso eliminaciones, necesarias en el software para cubrir su expansión
o cambio, según las necesidades del usuario.
• Adaptivos: Modificaciones que afectan a los entornos en los que el sistema opera, tales como: Cambios de
configuración del hardware (por actualización o mejora de componentes electrónicos), cambios en el software de
base, en gestores de base de datos, en comunicaciones, etc.
• Correctivos: Alteraciones necesarias para corregir errores de cualquier tipo en el producto software desarrollado.
Software 44

Véase también
• Portal:Software. Contenido relacionado con Software.
• Ingeniería de software
• Programa informático
• Aplicación informática
• Programación
• Fases del desarrollo de software
• Software colaborativo
• Software libre
• Ingeniería informática

Modelos de ciclo de vida


• Modelo en cascada o secuencial
• Modelo iterativo incremental
• Modelo evolutivo espiral
• Modelo de prototipos
• Modelo de desarrollo rápido

Bibliografía

Libros
• JACOBSON, Ivar; BOOCH, Grady; RUMBAUGH, James (2000) (en Español). El Proceso Unificado de
Desarrollo de Software. Pearson Addisson-Wesley.
• Pressman, Roger S. (2003) (en Español). Ingeniería del Software, un enfoque Práctico (Quinta edición edición).
Mc Graw Hill. ISBN 84-481-3214-9.
• JACOBSON; BOOCH; RUMBAUGH (1999) (en Español). UML - El Lenguaje Unificado de Modelado. Pearson
Addisson-Wesley. Rational Software Corporation, Addison Wesley Iberoamericana. ISBN 84-7829-028-1.
• Haeberer, A. M.; P. A. S. Veloso, G. Baum (1988) (en Español). Formalización del proceso de desarrollo de
software (Ed. preliminar edición). Buenos Aires: Kapelusz. ISBN 950-13-9880-3.
• Fowler, Martin; Kendall Sccott (1999) (en Español). UML Gota a Gota. Addison Wesley. ISBN 9789684443648.
• Loucopoulos, Pericles; Karakostas, V. (1995) (en Inglés). System Requirements Engineering. London:
McGraw-Hill Companies. pp. 160 p.. ISBN 978-0077078430.
• Sommerville, Ian; P. Sawyer (1997) (en Inglés). Requirements Engineering: A Good Practice Guide (1ra. edition
edición). Wiley & Sons. pp. 404 p.. ISBN 978-0471974444.
• Gottesdiener, Ellen; P. Sawyer (2002) (en Inglés). Requirements by Collaboration: Workshops for Defining
Needs. Addison-Wesley Professional. pp. 368 p.. ISBN 978-0201786064.
Software 45

Artículos y revistas
• Weitzenfeld - “El Proceso para Desarrollo de Software” - 2002
• Carlos Reynoso - “Métodos Heterodoxos en Desarrollo de Software” - 2004
• Grupo ISSI - Univ. Politécnica de Valencia - “Metodologías Ágiles en el Desarrollo de Software” - 2003
• Martin Fowler - La Nueva Metodología - 2003
• Cutter IT Journal – “Requirements Engineering and Management”. August 25, 2000. Cutter Consortium.
• “Software Requirements Engineering”, 2nd Edition, IEEE Computer Society. Los Alamitos, CA, 1997
(Compendio de papers y artículos en ingeniería de requisitos).

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Software.Commons
• Wikcionario tiene definiciones para software.Wikcionario

Referencias
[1] Diccionario de la lengua española 2005 (2010). wordreference.com (ed.): « software (http:/ / www. wordreference. com/ definicion/
software)» (diccionario). Espasa-Calpe. Consultado el 1 de febrero de 2010.
[2] Real Academia Española. « Significado de la palabra Software (http:/ / buscon. rae. es/ draeI/ SrvltConsulta?TIPO_BUS=3&
LEMA=software)». Diccionario de la Lengua Española, XXIIº Edición. Consultado el 14 de marzo de 2008.
[3] Real Academia Española. « Uso de la palabra Software (http:/ / buscon. rae. es/ dpdI/ SrvltConsulta?lema=software)». Diccionario
panhispánico de dudas, 1.° Edición (octubre 2005). Consultado el 8 de febrero de 2009.
[4] Pressman, Roger S. (2003). «El producto». Ingeniería del Software, un enfoque Práctico, Quinta edición edición.. México: Mc Graw Hill.
[5] IEEE Std, IEEE Software Engineering Standard: Glossary of Software Engineering Terminology. IEEE Computer Society Press, 1993
[6] « Ciclo de Vida del Software (http:/ / alarcos. inf-cr. uclm. es/ doc/ ISOFTWAREI/ Tema03. pdf)». Grupo Alarcos - Escuela Superior de
Informática de Ciudad Real.
[7] « Término "Elicitar" (http:/ / es. wiktionary. org/ wiki/ elicitar)». 1ra. acepción - Wiktionary. Consultado el 15 Dic 2008.
[8] « Ciclo de vida del Software y Modelos de desarrollo (http:/ / www. cepeu. edu. py/ LIBROS_ELECTRONICOS_3/ lpcu097 - 01. pdf)».
Instituto de Formación Profesional - Libros Digitales.
[9] Software Requirements Engineering”, 2nd Edition, IEEE Computer Society. Los Alamitos, CA, 1997 (Compendio de papers y artículos en
ingeniería de requisitos)
[10] « III Workshop de Engenharia de Requisitos (http:/ / www. informatik. uni-trier. de/ ~ley/ db/ conf/ wer/ wer2000. html)». WER 2000, Rio
de Janeiro, 2000..
[11] « Recommended Practice for Software Requirements Specification (http:/ / code. google. com/ p/ changecontrol/ downloads/
detail?name=IEEE 830-1998 Recommended Practice for Software Requirements Specifications. pdf& can=2& q=)». IEEE-SA Standards
Board.
[12] « LEL y Escenarios como metodología en Ingeniería de Requisitos (http:/ / ficcte. unimoron. edu. ar/ wicc/ Trabajos/ III - isbd/
673-Ridao_Doorn_wicc06. pdf)». Univ. de Morón, Buenos Aires.
[13] « Metodología para el análisis de Requisitos de Sistemas Software (http:/ / www. infor. uva. es/ ~mlaguna/ is1/ materiales/
metodologia_analisis. pdf)». Univ. de Sevilla, 2001.
Bus (informática) 46

Bus (informática)
En arquitectura de computadores, el bus es un
sistema digital que transfiere datos entre los
componentes de un ordenador o entre
ordenadores. Está formado por cables o pistas en
un circuito impreso, dispositivos como
resistencias y condensadores además de circuitos
integrados.

En los primeros computadores electrónicos,


todos los buses eran de tipo paralelo, de manera
que la comunicación entre las partes del
computador se hacía por medio de cintas o
muchas pistas en el circuito impreso, en los
Buses de comunicación en un circuito impreso.
cuales cada conductor tiene una función fija y la
conexión es sencilla requiriendo únicamente
puertos de entrada y de salida para cada dispositivo.
La tendencia en los últimos años es el uso de buses seriales como el USB, Custom Firewire para comunicaciones con
periféricos y el reemplazo de buses paralelos para conectar toda clase de dispositivos, incluyendo el microprocesador
con el chipset en la propia placa base. Son conexiones con lógica compleja que requieren en algunos casos gran
poder de cómputo en los propios dispositivos, pero que poseen grandes ventajas frente al bus paralelo que es menos
inteligente.
Existen diversas especificaciones de bus que definen un conjunto de características mecánicas como conectores,
cables y tarjetas, además de protocolos eléctricos y de señales.

Funcionamiento
La función del MICROBus es la de permitir la conexión lógica entre distintos subsistemas de un sistema digital,
enviando datos entre dispositivos de distintos órdenes: desde dentro de los mismos circuitos integrados, hasta
equipos digitales completos que forman parte de supercomputadoras.
La mayoría de los buses están basados en conductores metálicos por los cuales se trasmiten señales eléctricas que
son enviadas y recibidas con la ayuda de integrados que poseen una interfaz del bus dado y se encargan de manejar
las señales y entregarlas como datos útiles. Las señales digitales que se trasmiten son de datos, de direcciones o
señales de control.
Los buses definen su capacidad de acuerdo a la frecuencia máxima de envío y al ancho de los datos. Por lo general
estos valores son inversamente proporcionales: si se tiene una alta frecuencia, el ancho de datos debe ser pequeño.
Esto se debe a que la interferencia entre las señales (crosstalk) y la dificultad de sincronizarlas, crecen con la
frecuencia, de manera que un bus con pocas señales es menos susceptible a esos problemas y puede funcionar a alta
velocidad.
Todos los buses de computador tienen funciones especiales como las interrupciones y las DMA que permiten que un
dispositivo periférico acceda a una CPU o a la memoria usando el mínimo de recursos.
Bus (informática) 47

Primera Generación
Los primeros computadores tenían 2 sistemas de
buses, uno para la memoria y otro para los
demás dispositivos. La CPU tenía que acceder a
dos sistemas con instrucciones para cada uno,
protocolos y sincronizaciones diferentes.
La empresa DEC notó que el uso de dos buses
no era necesario si se combinaban las
direcciones de memoria con las de los
periféricos en un solo espacio de memoria
(mapeo), de manera que la arquitectura se
simplificaba ahorrando costos de fabricación en
equipos fabricados en masa, como eran los
primeros minicomputadores.
Bus Backplane del PDP-11 junto con algunas tarjetas.
Los primeros microcomputadores se basaban en
la conexión de varias tarjetas de circuito impreso
a un bus Backplane pasivo que servía de eje al sistema. En ese bus se conectaba la tarjeta de CPU que realiza las
funciones de arbitro de las comunicaciones con las demás tarjetas de dispositivo conectadas; las tarjetas incluían la
memoria, controladoras de diskette y disco, adaptadores de vídeo. La CPU escribía o leía los datos apuntando a la
dirección que tuviera el dispositivo buscado en el espacio único de direcciones haciendo que la información fluyera a
través del bus principal.

Entre las implementaciones más conocidas, están los buses Bus S-100 y el Bus ISA usados en varios
microcomputadores de los años 70 y 80. En ambos, el bus era simplemente una extensión del bus del procesador de
manera que funcionaba a la misma frecuencia. Por ejemplo en los sistemas con procesador Intel 80286 el bus ISA
tenia 6 u 8 Mhz de frecuencia dependiendo del procesador.[1]
Bus (informática) 48

Segunda generación
El hecho de que el bus fuera pasivo y que usara
la CPU como control, representaba varios
problemas para la ampliación y modernización
de cualquier sistema con esa arquitectura.
Además que la CPU utilizaba una parte
considerable de su potencia en controlar el bus.
Desde que los procesadores empezaron a
funcionar con frecuencias más altas, se hizo
necesario jerarquizar los buses de acuerdo a su
frecuencia: se creó el concepto de bus de sistema
(conexión entre el procesador y la RAM) y de
buses de expansión, haciendo necesario el uso de
un chipset.

El bus ISA utilizado como backplane en el PC


IBM original pasó de ser un bus de sistema a uno
de expansión, dejando su arbitraje a un integrado
Jerarquía de diversos buses en un equipo relativamente moderno: SATA,
del chipset e implementando un bus a una FSB, AGP, USB entre otros.
frecuencia más alta para conectar la memoria
con el procesador.

En cambio, el bus Nubus era independiente desde su creación, tenía un controlador propio y presentaba una interfaz
estándar al resto del sistema, permitiendo su inclusión en diferentes arquitecturas. Fue usado en diversos equipos,
incluyendo algunos de Apple y se caracterizaba por tener un ancho de 32 bits y algunas capacidades Plug and Play
(autoconfiguración), que lo hacían muy versátil y adelantado a su tiempo. Entre otros ejemplos de estos buses
autónomos, están el AGP y el bus PCI.

Tercera generación
Los buses de tercera generación se caracterizan por tener conexiones punto a punto, a diferencia de los buses arriba
nombrados en los que se comparten señales de reloj, y otras partes del bus. Esto se logra reduciendo fuertemente el
número de conexiones que presenta cada dispositivo usando interfaces seriales. Entonces cada dispositivo puede
negociar las características de enlace al inicio de la conexión y en algunos casos de manera dinámica, al igual que
sucede en las redes de comunicaciones. Entre los ejemplos más notables, están los buses PCI-Express, el Infiniband
y el HyperTransport.

Tipos de Bus
Existen dos grandes tipos clasificados por el método de envío de la información: bus paralelo o bus serie.
Hay diferencias en el desempeño y hasta hace unos años se consideraba que el uso apropiado dependía de la longitud
física de la conexión: para cortas distancias el bus paralelo, para largas el serial.

Bus paralelo
Es un bus en el cual los datos son enviados por bytes al mismo tiempo, con la ayuda de varias líneas que tienen
funciones fijas. La cantidad de datos enviada es bastante grande con una frecuencia moderada y es igual al ancho de
los datos por la frecuencia de funcionamiento. En los computadores ha sido usado de manera intensiva, desde el bus
del procesador, los buses de discos duros, tarjetas de expansión y de vídeo, hasta las impresoras.
Bus (informática) 49

El Front Side Bus de los procesadores Intel es un


bus de este tipo y como cualquier bus presenta
unas funciones en líneas dedicadas:
• Las Líneas de Dirección son las encargadas
de indicar la posición de memoria o el
dispositivo con el que se desea establecer
comunicación. Diagrama de un Bus Backplane como extensión del bus de procesador.

• Las Líneas de Control son las encargadas de


enviar señales de arbitraje entre los dispositivos. Entre las más importantes están las líneas de interrupción, DMA
y los indicadores de estado.
• Las Líneas de Datos trasmiten los bits, de manera que por lo general un bus tiene un ancho que es potencia de 2.
Un bus paralelo tiene conexiones físicas complejas, pero la lógica es sencilla, que lo hace útil en sistemas con poco
poder de cómputo. En los primeros microcomputadores, el bus era simplemente la extensión del bus del procesador y
los demás integrados "escuchan" las línea de direcciones, en espera de recibir instrucciones. En el PC IBM original,
el diseño del bus fue determinante a la hora de elegir un procesador con I/O de 8 bits (Intel 8088), sobre uno de 16
(el 8086), porque era posible usar hardware diseñado para otros procesadores, abaratando el producto.

Bus serie
En este los datos son enviados, bit a bit y se reconstruyen por medio de registros o rutinas de software. Está formado
por pocos conductores y su ancho de banda depende de la frecuencia. Es usado desde hace menos de 10 años en
buses para discos duros, unidades de estado sólido, tarjetas de expansión y para el bus del procesador.

Véase también
• Chipset
• HyperTransport
• Front Side Bus
• Bus de direcciones
• Bus de datos
• Bus de control

Enlaces externos
• PDF IEMicro y repaso a otros modelos [2]
• IEmicro [3]

Referencias
[1] « PC Architecture. Chapter 17. The CPU’s immediate surroundings. A book by Michael B. Karbo (http:/ / www. karbosguide. com/ books/
pcarchitecture/ chapter17. htm)».
[2] http:/ / www. dte. us. es/ personal/ barbancho/ AeIDise%F1oBusCampo. pdf
[3] http:/ / www. dte. us. es/ personal/ barbancho/ IEuBusCampoBajoConsumo. pdf
Bus de direcciones 50

Bus de direcciones
El bus de direcciones es un canal del
microprocesador totalmente
independiente del bus de datos donde
se establece la dirección de memoria
del dato en tránsito.
El bus de dirección consiste en el
conjunto de líneas eléctricas necesarias
para establecer una dirección.La En el diagrama se ven los buses de dirección, datos, y control, que van desde el CPU a la
memoria RAM, ROM, la entrada/salida, etc.
capacidad de la memoria que se puede
direccionar depende de la cantidad de
bits que conforman el bus de direcciones, siendo 2n (dos elevado a la ene) el tamaño máximo en bytes del banco de
memoria que se podrá direccionar con n líneas. Por ejemplo, para direccionar una memoria de 256 bytes, son
necesarias al menos 8 líneas, pues 28 = 256. Adicionalmente pueden ser necesarias líneas de control para señalar
cuando la dirección está disponible en el bus. Esto depende del diseño del propio bus.

Buses multiplexados
Algunos diseños utilizan líneas eléctricas multiplexadas para el bus de dirección y el bus de datos. Esto significa que
un mismo conjunto de líneas eléctricas se comportan unas veces como bus de dirección y otras veces como bus de
datos, pero nunca al mismo tiempo. Una línea de control permite discernir cual de las dos funciones está activa. .-

Las direcciones de memoria


Las direcciones son números naturales (en hexadecimal) que indican la posición de los datos dentro de la memoria
principal o del espacio de direcciones de la unidad de entrada/salida. Las direcciones son generadas por la CPU, que
es quien decide a qué dato se debe acceder en cada momento.

Véase también
• Bus de datos
• Bus de control
Bus de control 51

Bus de control
El bus de control gobierna el uso y
acceso a las líneas de datos y de
direcciones. Como éstas líneas están
compartidas por todos los
componentes, tiene que proveerse de
determinados mecanismos que
controlen su utilización. Las señales de
control transmiten tanto órdenes como En el diagrama se ven los buses de dirección, datos, y control, que van desde el CPU a la
información de temporización entre los memoria RAM, ROM, la entrada/salida, etc.
módulos. Mejor dicho, es el que
permite que no haya colisión de información en el sistema.

Véase también
• Bus de direcciones
• Bus de datos

Firmware
Firmware o programación en firme, es un conjunto de
instrucciones de programa para propósitos específicos, grabado en
una memoria de tipo no volátil o no variable (ROM, EEPROM,
flash,...), que establece la lógica de más bajo nivel(lenguaje
maquina) que controla los circuitos electrónicos de un dispositivo
de cualquier tipo. Al estar integrado en la electrónica del
dispositivo es en parte hardware, pero también es software, ya que
proporciona lógica y se dispone en algún tipo de lenguaje de
programación. Funcionalmente, el firmware es el intermediario
(interfaz) entre las órdenes externas que recibe el dispositivo y su
electrónica, ya que es el encargado de controlar a ésta última para
ejecutar correctamente dichas órdenes externas.

Encontramos firmware en memorias ROM de los sistemas de


diversos dispositivos periféricos, como en monitores de video,
unidades de disco, impresoras, etc., pero también en los propios
microprocesadores, chips de memoria principal y en general en
cualquier circuito integrado.
Una visión típica de la arquitectura de computadores
Muchos de los firmwares almacenados en ROM están protegidos
como una serie de capas de abstracción: hardware,
por Derechos de Autor. firmware, ensamblador, kernel, sistema operativo y
El programa BIOS de una computadora es un firmware cuyo aplicaciones.

propósito es activar una máquina desde su encendido y preparar el


Firmware 52

entorno para la instalación de un Sistema Operativo complejo, así


como responder a otros eventos externos (botones de pulsación
humana) y al intercambio de órdenes entre distintos componentes de la
computadora.
En un microprocesador el firmware es el que recibe las instrucciones
de los programas y las ejecuta en la compleja circuitería del mismo,
Memoria ROM que contiene la BIOS de una
emitiendo órdenes a otros dispositivos del sistema.
vieja placa base.

Origen del término


El término "firmware" fue acuñado por Ascher Opler en un artículo de Datamation publicado en 1967.[1]
Originalmente, se refería al microcódigo - contenido en un almacenamiento de control escribible (una área pequeña
especializada de memoria RAM), que definía e implementaba el conjunto de instrucciones del computador. Si fuera
necesario, el firmware podía ser recargado para especializar o para modificar las instrucciones que podría ejecutar la
Unidad Central de Procesamiento (CPU). Según el uso original, el firmware contrastaba tanto con el soporte físico
(la CPU en sí misma) como con el software (las instrucciones normales que se ejecutan en una CPU). El firmware no
estaba compuesto de instrucciones de máquina de la CPU, sino del microcódigo de nivel inferior implicado en la
implementación de las instrucciones de máquina que iría a ejecutar la CPU. El firmware existía en el límite o
frontera entre el hardware y el software, por ello el término de firmware (que significa "software firme, fijo, o
sólido").

Posteriormente, el término fue ensanchado para incluir cualquier tipo de microcódigo, ya fuera en RAM o ROM.
Aún más adelante, el término fue ensanchado otra vez más, en el uso popular, para denotar cualquier cosa residente
en ROM, incluyendo las instrucciones de máquina del procesador para el BIOS, los cargadores de arranque, o
aplicaciones especializadas.
Hasta mediados de los años 1990 el procedimiento típico para actualizar un firmware a una nueva versión era
reemplazar el medio de almacenamiento que contenía el firmware, usualmente un chip de memoria ROM enchufado
en un socket. Hoy en día este procedimiento no es habitual ya que los fabricantes han añadido una nueva
funcionalidad que permite grabar las nuevas instrucciones en la misma memoria, haciendo de la actualización un
proceso mucho más cómodo y dinámico. Aún así el proceso de actualización de un firmware hay que realizarlo con
mucho cuidado, ya que al ser un componente vital cualquier fallo puede dejar al equipo inservible. Por ejemplo, un
fallo de alimentación a mitad del proceso de actualización evitaría la carga completa del código que gobierna el
equipo, quizá incluso la carga del código que se encarga de actualizar el firmware, así que no podríamos actualizarlo
de nuevo y por lo tanto el equipo no funcionaría.

El firmware hoy en día


El firmware ha evolucionado para significar casi cualquier contenido programable de un dispositivo de hardware, no
sólo código de máquina para un procesador, sino también configuraciones y datos para los circuitos integrados para
aplicaciones específicas (ASICs), dispositivos de lógica programable, etc.

Periféricos del computador


La mayoría de los periféricos del computador son de hecho computadores de propósito especial. Mientras que los
dispositivos externos tienen el firmware almacenado internamente, las modernas tarjetas de los periféricos de
computadores típicamente tienen grandes partes de firmware que es cargado en el arranque por el sistema huesped,
pues esto es más flexible. Dicho hardware por lo tanto puede no funcionar completamente hasta que el computador
huesped le haya cargado el firmware indispensable, a menudo por medio del driver de dispositivo específico (o, más
Firmware 53

exactamente, por medio de un subsistema dentro del paquete del driver de dispositivo). Los modernos drivers de
dispositivo también pueden exponer una interface directa de usuario para la configuración además de las
llamadas/interfaces del sistema operativo o de las Interfaces de programación de aplicaciones (APIs).

Retos del firmware en los PC


En algún sentido, los varios componentes del firmware son tan importantes como el sistema operativo en un
computador. Sin embargo, a diferencia de la mayoría de los sistemas operativos modernos, el firmware tiene
raramente un mecanismo automático bien desarrollado para actualizarse a sí mismo para corregir los problemas de
funcionalidad que son detectados después de que la unidad es despachada.
El BIOS es bastante fácil de actualizar en una PC moderna; los dispositivos como las tarjetas video o los módems
confían en el firmware cargado dinámicamente por un driver de dispositivo y a menudo pueden así ser actualizados
transparentemente a través de los mecanismos de la actualización del sistema operativo. En contraste, el firmware en
dispositivos de almacenamiento es raramente actualizado; no están estandarizados los mecanismos para detectar las
versiones del firmware y actualizarlas. Estos dispositivos por lo tanto tienden a tener un índice más alto de
problemas de funcionalidad, comparado a otras partes de un moderno sistema de computación.[cita requerida]

Reproductores de música portátiles


Algunas compañías usan actualizaciones del firmware para agregar nuevos formatos de archivos de reproducción de
sonido (codecs); el iriver agregó el formato ogg de esta manera, por ejemplo. Otras características que pueden
cambiar con las actualizaciones del firmware son el GUI e incluso la vida de la batería. La mayoría de los
reproductores de música modernos soportan las actualizaciones del firmware.

Teléfonos celulares
La mayoría de los teléfonos celulares tienen una capacidad de firmware actualizable por muchas de las mismas
razones que arriba, pero algunos incluso pueden ser actualizados para mejorar la recepción o la calidad de sonido.
Es prácticamente un requisito ineludible esta capacidad de actualización del firmware en nuevos dispositivos, sobre
todo si hablamos de equipos de gama media-alta.
La mayoria de las grandes empresas (Nokia, Sony Ericsson, Motorola, etc) brindan softwares gratuitos para la
actualización del firmware por partel del cliente final.
Antes de realizar cualquier modificación en el equipo es importante tener la batería cargada al 100% y verificar que
no se viole la garantía del mismo.

Automóviles
Desde 1996 la mayoría de los automóviles han empleado una computadora a bordo y varios sensores para detectar
problemas mecánicos. Los vehículos modernos también emplean sistemas controlados por computador ABS, y
sistemas de control de transmisión operados por computadora. El conductor puede también recibir información
"in-dash" mientras conduce de esta manera, como por ejemplo lecturas en tiempo real de la economía del
combustible y de la presión del neumático. La mayoría del firmware del vehículo puede ser actualizado en un
distribuidor local autorizado.
Firmware 54

Definición del IEEE


El glosario estándar de terminología del software del Institute of Electrical and Electronics Engineers (IEEE), Std
610.12-1990, define el firmware como sigue:
"La combinación de instrucciones de un dispositivo de hardware e instrucciones y datos de computadora que
residen como software de solo lectura en ese dispositivo".
Notas:
(1) este término es a veces usado para referirse solamente al dispositivo de hardware o solamente a las
instrucciones o datos de computadora, pero estos significados están desaprobados.
(2) la confusión rodeando este término ha llevado a alguno a sugerir que éste debe ser totalmente
evitado.

Ejemplos
Ejemplos de firmware incluyen:
• Sistemas de temporización y control para las lavadoras
• El BIOS encontrado en computadores personales compatibles con el IBM PC;
• El código de plataforma encontrado en los sistemas Itanium, las máquinas Mac OS X basadas en Intel, y muchos
tarjetas de escritorio de Intel tienen firmware EFI;
• Open Firmware, usado en computadores de Sun Microsystems, Apple Computer, y de Genesi;
• ARCS, usado en computadores de Silicon Graphics;
• Kickstart usado en la línea de computadoras Amiga. Este es un ejemplo único de un firmware que mezclaba las
capacidades del BIOS (POST, inicio del hardware + auto configuración plug and play de periféricos, etc.), del
kernel en sí mismo del AmigaOS y de partes del código usadas en el sistema operativo (como primitivas y
bibliotecas de la interface gráfica)
• RTAS (Run Time Abstraction Services), usado en computadoras de IBM;
• Chips de EPROM usados en la serie Eventide H-3000 de procesadores digitales de música.
• El Common Firmware Environment (CFE)
• Controlando los atributos del sonido y video tanto como la lista de canales en los televisores modernos

Hackeando el firmware
A veces una nueva o modificada versión no oficial de firmware es creada por terceros para proporcionar nuevas
características o para abrir una funcionalidad oculta. Los ejemplos incluyen Rockbox para los reproductores de audio
digital, CHDK[2] y Magic Lantern[2] [3] para las cámaras digitales de Canon, y OpenWRT para los enrutadores
inalámbricos,[2] el firmware de región libre para unidades de DVD, que no son de región libre con el firmware
oficial, así como muchos proyectos de homebrew para las consolas de juego. Éstos pueden a menudo abrir
funcionalidad computacional en dispositivos previamente limitados (ej., ejecutar Doom en iPods). La mayoría de los
hacks de firmware son libres y también de código abierto.
Estos hacks usualmente utilizan la facilidad de actualización del firmware en muchos dispositivos para instalarse o
ejecutarse en ellos. Algunos, sin embargo, deben recurrir a exploits para funcionar, porque el fabricante ha intentado
bloquear el hardware para evitar que utilicen código no autorizado.
Firmware 55

Véase también
• Imagen ROM
• BIOS
• Coreboot
• Open Firmware
• OpenBIOS
• LinuxBIOS
• Extensible Firmware Interface
• OpenBook Project
• Microcódigo
• Blob Binario
• Hardware
• Software

Referencias
[1] Opler, Ascher (January 1967). «Fourth-Generation Software». Datamation 13 (1):  pp. 22-24.
[2] « Custom Firmware Rocks! (http:/ / www. maximumpc. com/ article/ features/ frimware_hacks?page=0,1)» (05-08-2009). Consultado el
13-08-2009.
[3] « Magic Lantern firmware for Canon 5D Mark II (http:/ / magiclantern. wikia. com)». Consultado el 13-08-2009.
BIOS 56

BIOS
BIOS: Basic Input/Output System

Phoenix AwardBIOS CMOS (memoria no volátil)


Fabricantes comunes:
• American Megatrends
• Phoenix Technologies
• Otros

El Sistema Básico de Entrada/Salida o BIOS (Basic Input-Output System ) es un código de software que localiza y
reconoce todos los dispositivos necesarios para cargar el sistema operativo en la RAM; es un software muy básico
instalado en la placa base que permite que esta cumpla su cometido. Proporciona la comunicación de bajo nivel, el
funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona salida
básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque.
El BIOS usualmente está escrito en lenguaje ensamblador. El primer término BIOS apareció en el sistema operativo
CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware
(las máquinas de CP/M usualmente tenían un simple cargador arrancable en la ROM, y nada más). La mayoría de las
versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al CP/M BIOS.
El BIOS (Basic Input-Output System) es un sistema básico de entrada/salida que normalmente pasa inadvertido para
el usuario final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en memoria RAM. Posee
un componente de hardware y otro de software, este último brinda una interfaz generalmente de texto que permite
configurar varias opciones del hardware instalado en el PC, como por ejemplo el reloj, o desde qué dispositivos de
almacenamiento iniciará el sistema operativo (Windows, GNU/Linux, Mac OS X, etc.).
El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una salida bastante básica en forma
de sonidos por el altavoz incorporado en la placa base cuando hay algún error, como por ejemplo un dispositivo que
falla o debería ser conectado. Estos mensajes de error son utilizados por los técnicos para encontrar soluciones al
momento de armar o reparar un equipo. Basic Input/Output System - Sistema básico de entrada/salida de datos).
Programa que reside en la memoria EPROM (Ver Memoria BIOS no-volátil). Es un programa tipo firmware. La
BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del
flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la
configuración de aspectos importantísimos de la máquina.
BIOS 57

Firmware en tarjetas adaptadoras


Un sistema puede contener diversos chips con firmware BIOS. Además del BIOS de arranque situado en el disco
duro y la placa base.

El mercado de los BIOS


La gran mayoría de los proveedores de placas madre de computadoras personales delega a terceros la producción del
BIOS y un conjunto de herramientas. Estos se conocen como "proveedores independientes de BIOS" o IBV (del
inglés independent BIOS vendor). Los fabricantes de placas madre después personalizan este BIOS según su propio
hardware. Por esta razón, la actualización del BIOS normalmente se obtiene directamente del fabricante de placas
madre. El fabricante puede publicar actualizaciones del firmware por medio de su pagina web, pero una mala
compatibilidad con el Hardware puede provocar que el sistema no vuelva a arrancar inutilizándolo hasta reescribir el
BIOS directamente en el circuito integrado donde se almacena con un programador de memorias. Los principales
proveedores de BIOS son American Megatrends (AMI), General Software, Insyde Software, y Phoenix
Technologies (que compró Award Software International en 1998).

Véase también
• Placa base
• Firmware
• Open Firmware
• Coreboot
• Extensible Firmware Interface
• OpenBIOS
• OpenBook Project
• LinuxBIOS

Enlaces externos
• Configuración del programa Setup del BIOS [1]
• Ayuda para la configuración del BIOS [2]
• Como programar tu propio Boot loader [3].

Referencias
[1] http:/ / reparesupc. com/ Documents/ setup. html
[2] http:/ / www. red-atlantic. com/ TXT/ ARTICULOS/ bios_19_11_2002. html
[3] http:/ / code. google. com/ p/ akernelloader/
Memoria ROM 58

Memoria ROM
1. REDIRECCIÓN Memoria de solo lectura

Sistema operativo
Un Sistema operativo (SO) es un software que actúa de interfaz entre
los dispositivos de hardware y los programas usados por el usuario
para utilizar un computador.[2] Es responsable de gestionar, coordinar
las actividades y llevar a cabo el intercambio de los recursos y actúa
como estación para las aplicaciones que se ejecutan en la máquina.
Nótese que es un error común muy extendido denominar al conjunto
completo de herramientas sistema operativo, pues este, es sólo el
núcleo y no necesita de entorno operador para estar operativo y
funcional.[3] [4] Uno de los más prominentes ejemplos de esta
diferencia, es el SO Linux,[5] el cual junto a las herramientas GNU,
forman las llamadas distribuciones Linux.

Este error de precisión, se debe a la modernización de la informática


llevada a cabo a finales de los 80, cuando la filosofía de estructura
básica de funcionamiento de los grandes computadores[6] se rediseñó a
fin de llevarla a los hogares y facilitar su uso, cambiando el concepto
de computador multiusuario, (muchos usuarios al mismo tiempo) por
un sistema monousuario (únicamente un usuario al mismo tiempo) más Intereaccion entre el SO con el resto de las partes.

sencillo de gestionar.[7] (Véase AmigaOS, beOS o MacOS como los


pioneros[8] de dicha modernización, cuando los Amiga, fueron
bautizados con el sobrenombre de Video Toasters[9] por su capacidad
para la Edición de vídeo en entorno multitarea round robin, con gestión
de miles de colores e interfaces intuitivos para diseño en 3D con
programas como Imagine[10] o Scala multimedia, entre muchos
otros.)[11]

Uno de los propósitos de un sistema operativo como programa estación


principal, consiste en gestionar los recursos de localización y Estimación del uso de sistemas operativos según
una muestra de computadoras con acceso a
protección de acceso del hardware, hecho que alivia a los
Internet en Noviembre de 2009 (Fuente:
programadores de aplicaciones de tener que tratar con estos detalles. Se [1]
W3counter ).
encuentran en la mayoría de los aparatos electrónicos que utilizan
microprocesadores para funcionar. (teléfonos móviles, reproductores de DVD, computadoras, radios, etc.)

Parte de la infraestructura de la World Wide Web está compuesta por el Sistema Operativo de Internet, creado por
Cisco Systems para gestionar equipos de interconexión como los conmutadores y los enrutadores.[12]
Sistema operativo 59

Perspectiva histórica
Los primeros sistemas (1945-1950) eran grandes máquinas operadas desde la consola maestra por los
programadores. Durante la década siguiente (1950-1960) se llevaron a cabo avances en el hardware: lectoras de
tarjetas, impresoras, cintas magnéticas, etc. Esto a su vez provocó un avance en el software: compiladores,
ensambladores, cargadores, manejadores de dispositivos, etc.
A finales de los años 80, un Amiga equipado con una aceleradora Video Toaster, era capaz de producir efectos
comparados a sistemas dedicados que costaban el triple. Un Video Toaster junto a Lightwave ayudó a producir
muchos programas de televisión y películas, entre las que se incluyen Babylon 5, Seaquest DSV y Terminator II.[13]

Problemas de explotación y soluciones iniciales


El problema principal de los primeros sistemas era la baja utilización de los mismos, la primera solución fue poner
un operador profesional que lo manejase, con lo que se eliminaron las hojas de reserva, se ahorró tiempo y se
aumentó la velocidad.
Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por
lotes (batch) sin automatizar.

Monitores residentes
Según fue avanzando la complejidad de los programas, fue necesario
implementar soluciones que automatizaran la organización de tareas
sin necesidad de un operador. Debido a ello se crearon los monitores
residentes: programas que residían en memoria y que gestionaban la
ejecución de una cola de trabajos.
Un monitor residente estaba compuesto por un cargador, un Intérprete
de comandos y un Controlador (drivers) para el manejo de
entrada/salida.

Fichas en lenguaje de procesamiento por lotes,


Sistemas con almacenamiento temporal de E/S con programa y datos, para ejecución secuencial.

Los avances en el hardware crearon el soporte de interrupciones y


posteriormente se llevó a cabo un intento de solución más avanzado: solapar la E/S de un trabajo con sus propios
cálculos, por lo que se creó el sistema de buffers con el siguiente funcionamiento:
• Un programa escribe su salida en un área de memoria (buffer 1).
• El monitor residente inicia la salida desde el buffer y el programa de aplicación calcula depositando la salida en el
buffer 2.
• La salida desde el buffer 1 termina y el nuevo cálculo también.
• Se inicia la salida desde el buffer 2 y otro nuevo cálculo dirige su salida al buffer 1.
• El proceso se puede repetir de nuevo.
Los problemas surgen si hay muchas más operaciones de cálculo que de E/S (limitado por la CPU) o si por el
contrario hay muchas más operaciones de E/S que cálculo (limitado por la E/S).
Sistema operativo 60

Spoolers
Hace aparición el disco magnético con lo que surgen nuevas soluciones a los problemas de rendimiento. Se eliminan
las cintas magnéticas para el volcado previo de los datos de dispositivos lentos y se sustituyen por discos (un disco
puede simular varias cintas). Debido al solapamiento del cálculo de un trabajo con la E/S de otro trabajo se crean
tablas en el disco para diferentes tareas, lo que se conoce como Spool (Simultaneous Peripherial Operation On-Line).

Sistemas operativos multiprogramados


Surge un nuevo avance en el hardware: el hardware con protección de memoria. Lo que ofrece nuevas soluciones a
los problemas de rendimiento:
• Se solapa el cálculo de unos trabajos con la entrada/salida de otros trabajos.
• Se pueden mantener en memoria varios programas.
• Se asigna el uso de la CPU a los diferentes programas en memoria.
Debido a los cambios anteriores, se producen cambios en el monitor residente, con lo que éste debe abordar nuevas
tareas, naciendo lo que se denomina como Sistemas Operativos multiprogramados, los cuales cumplen con las
siguientes funciones:
• Administrar la memoria.
• Gestionar el uso de la CPU (planificación).
• Administrar el uso de los dispositivos de E/S.
Cuando desempeña esas tareas, el monitor residente se transforma en un sistema operativo multiprogramado.

Llamadas al sistema operativo


Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.
Cada SO implementa un conjunto propio de llamadas al sistema. Ese conjunto de llamadas es la interfaz del SO
frente a las aplicaciones. Constituyen el lenguaje que deben usar las aplicaciones para comunicarse con el SO. Por
ello si cambiamos de SO, y abrimos un programa diseñado para trabajar sobre el anterior, en general el programa no
funcionará, a no ser que el nuevo SO tenga la misma interfaz. Para ello:
• Las llamadas correspondientes deben tener el mismo formato.
• Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente del anterior.

Modos de ejecución en un CPU


Las aplicaciones no deben poder usar todas las instrucciones de la CPU. No obstante el Sistema Operativo, tiene que
poder utilizar todo el juego de instrucciones del CPU. Por ello, una CPU debe tener (al menos) dos modos de
operación diferentes:
• Modo usuario: el CPU podrá ejecutar sólo las instrucciones del juego restringido de las aplicaciones.
• Modo supervisor: la CPU debe poder ejecutar el juego completo de instrucciones.

Llamadas al sistema
Una aplicación, normalmente no sabe dónde está situada la rutina de servicio de la llamada. Por lo que si ésta se
codifica como una llamada de función, cualquier cambio en el SO haría que hubiera que reconstruir la aplicación.
Pero lo más importante es que una llamada de función no cambia el modo de ejecución de la CPU. Con lo que hay
que conseguir llamar a la rutina de servicio, sin tener que conocer su ubicación, y hacer que se fuerce un cambio de
modo de operación de la CPU en la llamada (y la recuperación del modo anterior en el retorno).
Esto se hace utilizando instrucciones máquina diseñadas específicamente para este cometido, distintas de las que se
usan para las llamadas de función.
Sistema operativo 61

Bibliotecas de interfaz de llamadas al sistema


Las llamadas al sistema no siempre tienen una expresión sencilla en los lenguajes de alto nivel, por ello se crean las
bibliotecas de interfaz, que son bibliotecas de funciones que pueden usarse para efectuar llamadas al sistema. Las
hay para distintos lenguajes de programación.
La aplicación llama a una función de la biblioteca de interfaz (mediante una llamada normal) y esa función es la que
realmente hace la llamada al sistema.

Interrupciones y excepciones
El SO ocupa una posición intermedia entre los programas de aplicación y el hardware. No se limita a utilizar el
hardware a petición de las aplicaciones ya que hay situaciones en las que es el hardware el que necesita que se
ejecute código del SO. En tales situaciones el hardware debe poder llamar al sistema, pudiendo deberse estas
llamadas a dos condiciones:
• Algún dispositivo de E/S necesita atención.
• Se ha producido una situación de error al intentar ejecutar una instrucción del programa (normalmente de la
aplicación).
En ambos casos, la acción realizada no está ordenada por el programa de aplicación, es decir, no figura en el
programa.
Según los dos casos anteriores tenemos las interrupciones y la excepciones:
• Interrupción: señal que envía un dispositivo de E/S a la CPU para indicar que la operación de la que se estaba
ocupando, ya ha terminado.
• Excepción: una situación de error detectada por la CPU mientras ejecutaba una instrucción, que requiere
tratamiento por parte del SO.

Tratamiento de las interrupciones


Una interrupción se trata en todo caso, después de terminar la ejecución de la instrucción en curso.
El tratamiento depende de cuál sea el dispositivo de E/S que ha causado la interrupción, ante la cual debe poder
identificar el dispositivo que la ha causado.
La ventaja de este procedimiento es que no se tiene que perder tiempo ejecutando continuamente rutinas para
consultar el estado del periférico. El inconveniente es que el dispositivo debe tener los circuitos electrónicos
necesarios para acceder al sistema de interrupciones del computador.

Importancia de las interrupciones


El mecanismo de tratamiento de las interrupciones permite al SO utilizar la CPU en servicio de una aplicación,
mientras otra permanece a la espera de que concluya una operación en un dispositivo de E/S.
El hardware se encarga de avisar al SO cuando el dispositivo de E/S ha terminado y el SO puede intervenir entonces,
si es conveniente, para hacer que el programa que estaba esperando por el dispositivo, se continúe ejecutando.
En ciertos intervalos de tiempo puede convenir no aceptar señales de interrupción. Por ello las interrupciones pueden
inhibirse por programa (aunque esto no deben poder hacerlo las mismas).
Un ejemplo de sincronismo por interrupción es el almacenamiento de caracteres introducidos mediante el teclado.
Cuando se introduce un carácter, se codifica en el registro de datos del dispositivo y además se activa un bit del
registro de estado quien crea una interrupción en el hardware. El procesador deja temporalmente la tarea que estaba
completando y ejecuta la rutina de atención a la interrupción correspondiente. El teclado almacena el carácter en el
vector de memoria intermedia ( también llamado buffer) asociada al teclado y despierta el proceso que había en el
estado de espera de la operación de entrada/salida.
Sistema operativo 62

Excepciones
Cuando la CPU intenta ejecutar una instrucción incorrectamente construida, la unidad de control lanza una
excepción para permitir al SO ejecutar el tratamiento adecuado. Al contrario que en una interrupción, la instrucción
en curso es abortada. Las excepciones al igual que las interrupciones deben estar identificadas.

Clases de excepciones
Las instrucciones de un programa pueden estar mal construidas por diversas razones:
• El código de operación puede ser incorrecto.
• Se intenta realizar alguna operación no definida, como dividir por cero.
• La instrucción puede no estar permitida en el modo de ejecución actual.
• La dirección de algún operando puede ser incorrecta o se intenta violar alguno de sus permisos de uso.

Importancia de las excepciones


El mecanismo de tratamiento de las excepciones es esencial para impedir, junto a los modos de ejecución de la CPU
y los mecanismos de protección de la memoria, que las aplicaciones realicen operaciones que no les están
permitidas. En cualquier caso, el tratamiento específico de una excepción lo realiza el SO.
Como en el caso de las interrupciones, el hardware se limita a dejar el control al SO, y éste es el que trata la situación
como convenga.
Es bastante frecuente que el tratamiento de una excepción no retorne al programa que se estaba ejecutando cuando se
produjo la excepción, sino que el SO aborte la ejecución de ese programa. Este factor depende de la pericia del
programador para controlar la excepción adecuadamente.

Componentes de un sistema operativo

Gestión de procesos
Un proceso es simplemente, un programa en ejecución que necesita
recursos para realizar su tarea: tiempo de CPU, memoria, archivos y
dispositivos de E/S. El SO es el responsable de:
• Crear y destruir los procesos.
• Parar y reanudar los procesos.
• Ofrecer mecanismos para que se comuniquen y sincronicen.
Componentes del Sistema Operativo.
La gestión de procesos podría ser similar al trabajo de oficina. Se
puede tener una lista de tareas a realizar y a estas fijarles prioridades
alta, media, baja por ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se terminen
seguir con las de prioridad media y después las de baja. Una vez realizada la tarea se tacha. Esto puede traer un
problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. y permanezcan en la lista para
siempre. Para solucionar esto, se puede asignar alta prioridad a las tareas más antiguas.
Sistema operativo 63

Gestión de la memoria principal


La Memoria es una gran tabla de palabras o bytes que se referencian cada una mediante una dirección única. Este
almacén de datos de rápido accesos es compartido por la CPU y los dispositivos de E/S, es volátil y pierde su
contenido en los fallos del sistema. El SO es el responsable de:
• Conocer qué partes de la memoria están siendo utilizadas y por quién.
• Decidir qué procesos se cargarán en memoria cuando haya espacio disponible.
• Asignar y reclamar espacio de memoria cuando sea necesario.

Gestión del almacenamiento secundario


Un sistema de almacenamiento secundario es necesario, ya que la memoria principal (almacenamiento primario) es
volátil y además muy pequeña para almacenar todos los programas y datos. También es necesario mantener los datos
que no convenga mantener en la memoria principal. El SO se encarga de:
• Planificar los discos.
• Gestionar el espacio libre.
• Asignar el almacenamiento.

El sistema de E/S
Consiste en un sistema de almacenamiento temporal (caché), una interfaz de manejadores de dispositivos y otra para
dispositivos concretos. El sistema operativo debe gestionar el almacenamiento temporal de E/S y servir las
interrupciones de los dispositivos de E/S.

Sistema de archivos
Los archivos son colecciones de información relacionada, definidas por sus creadores. Éstos almacenan programas
(en código fuente y objeto) y datos tales como imágenes, textos, información de bases de datos, etc. El SO es
responsable de:
• Construir y eliminar archivos y directorios.
• Ofrecer funciones para manipular archivos y directorios.
• Establecer la correspondencia entre archivos y unidades de almacenamiento.
• Realizar copias de seguridad de archivos.
Existen diferentes Sistemas de Archivos, es decir, existen diferentes formas de organizar la información que se
almacena en las memorias (normalmente discos) de los ordenadores. Por ejemplo, existen los sistemas de archivos
FAT, FAT32, EXT2, NTFS, etc.
Desde el punto de vista del usuario estas diferencias pueden parecer insignificantes a primera vista, sin embargo,
existen diferencias muy importantes. Por ejemplo, los sistemas de ficheros FAT32 y NTFS, que se utilizan
fundamentalmente en sistemas operativos de Microsoft, tienen una gran diferencia para un usuario que utilice una
base de datos con bastante información ya que el tamaño máximo de un fichero con un Sistema de Archivos FAT32
está limitado a 4 gigabytes, sin embargo, en un sistema NTFS el tamaño es considerablemente mayor.
Sistema operativo 64

Sistemas de protección
Mecanismo que controla el acceso de los programas o los usuarios a los recursos del sistema. El SO se encarga de:
• Distinguir entre uso autorizado y no autorizado.
• Especificar los controles de seguridad a realizar.
• Forzar el uso de estos mecanismos de protección.

Sistema de comunicaciones
Para mantener las comunicaciones con otros sistemas es necesario poder controlar el envío y recepción de
información a través de las interfaces de red. También hay que crear y mantener puntos de comunicación que sirvan
a las aplicaciones para enviar y recibir información, y crear y mantener conexiones virtuales entre aplicaciones que
están ejecutándose localmente y otras que lo hacen remotamente.

Programas de sistema
Son aplicaciones de utilidad que se suministran con el SO pero no forman parte de él. Ofrecen un entorno útil para el
desarrollo y ejecución de programas, siendo algunas de las tareas que realizan:
• Manipulación y modificación de archivos.
• Información del estado del sistema.
• Soporte a lenguajes de programación.
• Comunicaciones.

Gestor de recursos
Como gestor de recursos, el Sistema Operativo administra:
• La CPU (Unidad Central de Proceso, donde está alojado el microprocesador).
• Los dispositivos de E/S (entrada y salida)
• La memoria principal (o de acceso directo).
• Los discos (o memoria secundaria).
• Los procesos (o programas en ejecución).
• y en general todos los recursos del sistema.

Características

Administración de tareas
• Monotarea: Solamente puede ejecutar un proceso (aparte de los procesos del propio S.O.) en un momento dado.
Una vez que empieza a ejecutar un proceso, continuará haciéndolo hasta su finalización y/o interrupción.
• Multitarea: Es capaz de ejecutar varios procesos al mismo tiempo. Este tipo de S.O. normalmente asigna los
recursos disponibles (CPU, memoria, periféricos) de forma alternada a los procesos que los solicitan, de manera
que el usuario percibe que todos funcionan a la vez, de forma concurrente.
Sistema operativo 65

Administración de usuarios
• Monousuario: Si sólo permite ejecutar los programas de un usuario al mismo tiempo.
• Multiusuario: Si permite que varios usuarios ejecuten simultáneamente sus programas, accediendo a la vez a los
recursos de la computadora. Normalmente estos sistemas operativos utilizan métodos de protección de datos, de
manera que un programa no pueda usar o cambiar los datos de otro usuario.

Manejo de recursos
• Centralizado: Si permite utilizar los recursos de una sola computadora.
• Distribuido: Si permite utilizar los recursos (memoria, CPU, disco, periféricos... ) de más de una computadora al
mismo tiempo.

Véase también
• Anexo:Sistemas operativos
• Comparación de sistemas operativos
• Cronología de los sistemas operativos
• Historia y evolución de los sistemas operativos.
• Sistema operativo de red
• Software de sistema

Bibliografía
• O´brien, James A. (2006). Sistemas de Información Gerencial. México DF.
• Silberschatz, Abraham (2006). Sistemas Operativos. México. ISBN: 968-18-6168-X.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Sistema operativo.Commons
• Wikcionario tiene definiciones para sistema operativo.Wikcionario
• Wikiversidad alberga proyectos de aprendizaje sobre Sistema operativo.Wikiversidad
• Sistema operativo [14] en Google Directorio

Referencias
[1] http:/ / www. w3counter. com/ globalstats. php
[2] Pérez, Juan Carlos; Sergio Sáez (2010). futura.disca.upv.es (ed.): « Estudio de un sistema operativo (http:/ / futura. disca. upv. es/ eso/ es/
t1-introduccion/ gen-t1-introduccion. html)» (curso). Consultado el 1 de enero de 2010.
[3] The operating system interacts directly with the hardware, providing common services to programs and insulating them from hardware
idiosyncrasies. Viewing the system as a set of layers, the operating system is commonly called the system kernel, or just the kernel,
emphasizing its isolation from user programs.Maurice J. Bach, "The design of the unix operating system", Prentice/Hall, 1986, p. 4
[4] QNX software systems (ed.): « QNX Operating System: Project overview (http:/ / community. qnx. com/ sf/ projects/ core_os)» (en inglés)
(2004). Consultado el 10 de febrero de 2010.
[5] Torvalds, Linus (31 de julio). cs.cmu.edu (ed.): (correo). Consultado el 31 de enero de 2010.
[6] Cisco Systems (1992). cisco.com (ed.): « Fundamentos de UNIX (http:/ / www. cisco. com/ web/ LA/ netacad/ cursos/ unix. html)»
(certificación). Consultado el 10 de febrero de 2010.
[7] « Washington Post - Debut de Windows 95 (http:/ / www. washingtonpost. com/ wp-srv/ business/ longterm/ microsoft/ stories/ 1995/
debut082495. htm)» (en inglés).
[8] toastytech.com (ed.): « BeOS 5.0 Personal Edition (http:/ / toastytech. com/ guis/ b5pe. html)» (en inglés) (2010). Consultado el 10 de
febrero de 2010.
[9] « Amiga Video Toaster (http:/ / www. newtek. com/ support/ tech/ faqs/ amiga/ index. html)» (en inglés). NewTek, Inc. (2010). Consultado el
1 de febrero de 2010.
Sistema operativo 66

[10] CAD Technologies (ed.): « Imagine 5.0 for Amiga (http:/ / www. imaginefa. com/ )» (en inglés) (ficha técnica) (1998). Consultado el 10 de
febrero de 2010.
[11] Delgado, Javier (junio). amigamexico.org (ed.): « La revolucion del desktop video (http:/ / www. amigamexico. org/ index. php/ component/
content/ article/ 34-historia/ 47-el-video-toaster-y-el-flyer. html)» (html). Consultado el 8 de febrero de 2010.
[12] Cisco Systems, Inc. (ed.): « Cisco IOS Software Collateral Library (http:/ / www. cisco. com/ en/ US/ products/ sw/ iosswrel/
ios_software_collateral_library_listing. html)» (en inglés) (1992). Consultado el 17 de febrero de 2010.
[13] Rabay, Francisco. amiga-hardware.com (ed.): « Newtek: Video Toaster 4000 (http:/ / www. amiga-hardware. com/ showhardware.
cgi?HARDID=506)» (en inglés). Consultado el 6 de febrero de 2010.
[14] http:/ / www. google. com/ Top/ World/ Espa%C3%B1ol/ Computadoras/ Software/ Sistemas_operativos/

Microsoft Windows
Uno o varios wikipedistas están trabajando actualmente en extender este artículo o sección.
Es posible que a causa de ello haya lagunas de contenido o deficiencias de formato. Si quieres puedes ayudar y editar, pero
por favor antes de realizar correcciones mayores contáctalos en sus páginas de discusión, para poder coordinar la redacción.

Microsoft Windows

Desarrollador

Microsoft
Sitio web oficial
[1] [2]
Latinoamérica - España

Información general

Modelo de desarrollo Software propietario; Shared Source

Lanzamiento inicial [3]


Noviembre de 1985 (info )

Última versión estable Windows 7, Windows Server 2008 R2


[4]
(Núcleo NT 6.1, Compilación 7600) (info )
22 de julio de 2009

Tipo de núcleo Monolítico (versiones basadas en MS-DOS), Híbrido (versiones basadas en


Windows NT)

Método de actualización Windows Update; en empresas se aplican tecnologías como WSUS y SCCM)

Licencia Microsoft CLUF (EULA)

Idiomas Multilingüe

En español

Soporte técnico

Todos los sistemas operativos Windows reciben un grado variable de soporte, bajo la directiva de Ciclo de vida de soporte técnico de Microsoft
[5]
(info )
↓Véase: Historial de lanzamientos

Artículos relacionados

• Historia de Microsoft Windows


• Versiones de Microsoft Windows

Microsoft Windows es el nombre de una serie de sistemas operativos desarrollados por Microsoft desde 1981, año
en que el proyecto se denominaba "Interface Manager".
Microsoft Windows 67

Anunciado en 1983, Microsoft comercializó por primera vez el entorno operativo denominado Windows en
noviembre de 1985 como complemento para MS-DOS, en respuesta al creciente interés del mercado en una interfaz
gráfica de usuario (GUI).[6] Microsoft Windows llegó a dominar el mercado de ordenadores personales del mundo,
superando a Mac OS, el cual había sido introducido previamente a Windows. En octubre de 2009, Windows tenía
aproximadamente el 91% de la cuota de mercado de sistemas operativos en equipos cliente que acceden a Internet.[7]
[8] [9]
La versiones más recientes de Windows son Windows 7 para equipos de escritorio, Windows Server 2008 R2
para servidores y Windows Mobile 6.5 para dispositivos móviles.

Historia

Esta página o sección está siendo traducida del idioma inglés a partir del artículo Microsoft Windows, razón por la cual
puede haber lagunas de contenidos, errores sintácticos o escritos sin traducir.
[10]
Puedes colaborar con Wikipedia Windows continuando con la traducción desde el artículo original.

Microsoft ha seguido dos rutas paralelas en


sus sistemas operativos. Ha sido una ruta
para usuarios domésticos y el otro ha sido
para el usuario profesional de IT. Las dos
rutas generalmente han dado lugar a
versiones caseras con mayor soporte
multimedia y menos funcionalidad en redes
y seguridad, y las versiones profesionales
dan menor soporte multimedia y mejor de
red y seguridad.

Árbol genealógico de Windows.


La primera versión de Microsoft Windows,
versión 1.0, lanzado en noviembre de 1985,
compitió con el sistema operativo de Apple. Carecía de un grado de funcionalidad y logró muy poca popularidad.
Windows 1.0 no era un sistema operativo completo; más bien era una extensión gráfica de MS-DOS. Microsoft
Windows versión 2.0 fue lanzado en noviembre de 1987 y fue un poco más popular que su predecesor. Windows
2.03 (fecha de lanzamiento en enero de 1988) había cambiado el sistema operativo desde windows a superposición
de overlapping windows. El resultado de este cambio llevó a presentar una demanda contra Microsoft basado en la
infracción de derechos de autor de Apple Computer.

Microsoft Windows versión 3.0, lanzado en 1990, fue la primera versión de Microsoft Windows que consiguió un
amplio éxito comercial, vendiendo 2 millones de copias en los primeros seis meses. Presentaba mejoras en la interfaz
de usuario y en la multitarea. Recibió un lavado de cara en Windows 3.1, que se hizo disponible para el público en
general el 1 de marzo de 1992. El soporte de Windows 3.1 termino el 31 de diciembre de 2001.
En julio de 1993, Microsoft lanzó Windows NT basado en un nuevo kernel. NT era considerado como el sistema
operativo profesional y fue la primera versión de Windows para utilizar la multitarea preemptiva. Windows NT más
tarde sería reestructurado también para funcionar como un sistema operativo para el hogar, con Windows XP.
El 24 de agosto de 1995, Microsoft lanzó Windows 95, una versión nueva para los consumidores, y grandes fueron
los cambios que se realizaron a la interfaz de usuario, y también se utiliza multitarea preemptiva. Windows 95 fue
diseñado para sustituir no sólo a Windows 3.1, sino también de Windows para Workgroups y MS-DOS. También fue
el primer sistema operativo Windows para utilizar las capacidades Plug and Play. Los cambios que trajo Windows
95 eran revolucionarios, a diferencia de los siguientes, como Windows 98 y Windows Me. El soporte estándar para
Windows 95 finalizó el 31 de diciembre de 2000 y el soporte ampliado para Windows 95 finalizó el 31 de diciembre
de 2001.
Microsoft Windows 68

El siguiente en la línea de consumidor fue lanzado el 25 de junio de 1998, Microsoft Windows 98. Sustancialmente
fue criticado por su lentitud y por su falta de fiabilidad en comparación con Windows 95, pero muchos de sus
problemas básicos fueron posteriormente rectificados con el lanzamiento de Windows 98 Second Edition en 1999. El
soporte estándar para Windows 98 terminó el 30 de junio de 2002, y el soporte ampliado para Windows 98 terminó
el 11 de julio de 2006.
Como parte de su línea "profesional", Microsoft lanzó Windows 2000 en febrero de 2000. La versión de consumidor
tras Windows 98 fue Windows Me (Windows Millennium Edition). Lanzado en septiembre de 2000, Windows Me
implementaba una serie de nuevas tecnologías para Microsoft: en particular fue el "Universal Plug and Play".
Durante el 2004 parte del código fuente de Windows 2000 se filtró en internet, esto era malo para Microsoft porque
el mismo núcleo utilizado en Windows 2000 se utilizó en Windows XP.
En octubre de 2001, Microsoft lanzó Windows XP, una versión que se construyó en el kernel de Windows NT que
también conserva la usabilidad orientada al consumidor de Windows 95 y sus sucesores. En dos ediciones distintas,
"Home" y "Professional", el primero carece por mucho de la seguridad y características de red de la edición
Professional. Además, el primer "Media Center" edición fue lanzada en 2002, con énfasis en el apoyo a la
funcionalidad de DVD y TV, incluyendo la grabación del programa y un control remoto. El soporte estándar para
Windows XP terminó el 14 de abril de 2009. El soporte extendido continuará hasta el 8 de abril de 2014.
En abril de 2003, Windows Server 2003 se introdujo, reemplazando a la línea de productos de servidor de Windows
2000 con un número de nuevas características y un fuerte enfoque en la seguridad; lo cual fue seguido en diciembre
de 2005 por Windows Server 2003 R2.
El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene una serie de características nuevas, desde un shell
rediseñado y la interfaz de usuario da importantes cambios técnicos, con especial atención a las características de
seguridad. Está disponible en varias ediciones diferentes y ha sido objeto de algunas críticas.

Historial de lanzamientos

Fecha de Nombre del Última versión Notas Última


publicación producto / Compilación versión de
IE

Noviembre de Windows 1.01 1.01 Sin soporte. -


1985

Noviembre de Windows 2.03 2.03 Sin soporte. -


1987

Mayo de 1988 Windows 2.10 2.10 Sin soporte. -

Marzo de 1989 Windows 2.11 2.11 Sin soporte. -

Mayo de 1990 Windows 3.0 3.0 Sin soporte. -

Marzo de 1992 Windows 3.1 3.1 Sin soporte 5

Octubre de 1992 Windows For 3.1 Sin soporte. 5


Workgroups 3.1

Julio de 1993 Windows NT 3.1 NT 3.1 Sin soporte. 5

Diciembre de Windows For 3.11 Sin soporte. 5


1993 Workgroups 3.11

Enero de 1994 Windows 3.2 3.2 Sin soporte. 5


(publicado en chino
simplificado)

Septiembre de Windows NT 3.5 NT 3.5 Sin soporte. 5


1994
Microsoft Windows 69

Mayo de 1995 Windows NT 3.51 NT 3.51 Sin soporte. 5

Agosto de 1995 Windows 95 4.0.950 Sin soporte. 5.5

Julio de 1996 Windows NT 4.0 NT 4.0.1381 Sin soporte. 6

Junio de 1998 Windows 98 4.10.1998 Sin soporte. 6


Mayo de 1999 Windows 98 SE 4.10.2222 Sin soporte. 6

Febrero de 2000 Windows 2000 NT 5.0.2195 Sin soporte. 6

Septiembre de Windows Me 4.90.3000 Sin soporte. 6


2000

Octubre de 2001 Windows XP NT 5.1.2600 Únicamente soporte extendido hasta el 8 de abril de 8


2014 para Service Pack 3 (versión RTM, SP1 y SP2 sin
soporte).

Abril de 2003 Windows Server NT 5.2.3790 Únicamente soporte extendido hasta el 14 de julio de 8
2003 [11]
2015 para Service Pack 2 y versión R2. (versión
RTM y SP1 sin soporte).

Abril de 2005 Windows XP NT 5.2.3790 Únicamente soporte extendido hasta el 8 de abril de 8


Professional x64 2014 para Service pack 2 (versión RTM y SP1 sin
Edition soporte).

Julio de 2006 Windows NT 5.1.2600 Soporte estándar vigente. 8


Fundamentals for
Legacy PC

Noviembre de Windows Vista NT 6.0.6002 Soporte estándar vigente para Service pack 1 o Service 8
2006 (licencias pack 2 (versión RTM sin soporte). Versión cambiada a
por volumen) NT 6.0.6001 con el Service Pack 1 (4 de febrero de
Enero de 2007 2008) y a NT 6.0.6002 con el Service Pack 2 (28 de
(retail) abril de 2009).

Julio de 2007 Windows Home NT 5.2.4500 Soporte estándar vigente. 8


Server

Febrero de 2008 Windows Server NT 6.0.6002 Soporte estándar vigente. Versión cambiada a NT 8
2008 6.0.6002 con el Service Pack 2 (28 de abril de 2009).
[12] Windows 7 y NT 6.1.7600 Soporte estándar vigente. 8
Octubre 2009
Windows Server
2008 R2

2012 Windows 8 Por confirmar Por confirmar Por


confirmar
Microsoft Windows 70

Versiones
El término Windows describe colectivamente todas o parte de varias
generaciones de productos de sistema operativo de Microsoft. Estos
productos generalmente se clasifican como sigue:

Primeras versiones
La historia de Windows se remonta en septiembre del año 1981, con el
proyecto denominado "Interface Manager". Se anunció en noviembre de
1983 (después del Apple Lisa, pero antes de Macintosh) bajo el nombre
"Windows", pero Windows 1.0 no se publicó hasta el mes de noviembre
de 1985. El shell de Windows 1.0 es un programa conocido como
MS-DOS Executive. Otros programas suministrados fueron la
Calculadora, Calendario, Cardfile, Visor del portapapeles, Reloj, Panel de
control, el Bloc de notas, Paint, Reversi, Terminal y Write. Windows 1.0
no permite la superposición de ventanas, debido a que Apple Computer ya contaba con esta característica. En su
lugar fueron mosaico en todas las ventanas. Sólo los cuadros de diálogo podrían aparecer en otras ventanas.

Windows 2.0 fue lanzado en octubre de 1987 y presentó varias mejoras en la interfaz de usuario y en la gestión de
memoria e introdujo nuevos métodos abreviados de teclado. También podría hacer uso de memoria expandida.
Windows 2.1 fue lanzado en dos diferentes versiones: Windows/386 empleando Modo 8086 virtual para realizar
varias tareas de varios programas de DOS, y el modelo de memoria paginada para emular la memoria expandida
utilizando la memoria extendida disponible. Windows/286 (que, a pesar de su nombre, se ejecutaría en el 8086)
todavía se ejecutaba en modo real, pero podría hacer uso de la Área de memoria alta.
Las primeras versiones de Windows se suele considerar como interfaz gráfica de usuario simple. Incluso las primeras
versiones de Windows de 16 bits ya supone muchas de las funciones típicas de sistema operativo; en particular, tener
su propio formato de archivo ejecutable y proporcionar sus propios Controladores de dispositivo (temporizador,
gráficos, impresora, ratón, teclado y sonido) para aplicaciones. A diferencia de MS-DOS, Windows permite a los
usuarios ejecutar las aplicaciones gráficas de múltiples al mismo tiempo, a través de la multitarea cooperativa.
Windows implementa un esquema de software elaborada, basado en el segmento, memoria virtual, lo que le permitió
ejecutar aplicaciones más grandes que la memoria disponible: segmentos de código y los recursos se intercambian y
se tira cuando escaseaba la memoria, y segmentos de datos en la memoria cuando se trasladó una aplicación dada,
había cedido el control del procesador, por lo general la espera de la entrada del usuario.

Cuota de mercado del SO Windows

Fuente [13] [14] [15]


Net Applications Awio StatCounter

Dato Febrero de 2010 Febrero de Febrero de 2010


2010

Todas las versiones 91.64% 85.77% 92.57%

Windows XP 65.49% 53.6% 61.17%

Windows Vista 16.51% 20.07% 21.14%

Windows 7 8.92% 10.66% 10.26%

Windows 2000 0.56% 0.43% —

Windows 98 0.07% — —
Microsoft Windows 71

Windows CE 0.05% — —

Windows Me 0.04% — —

Windows Server — 1.01% —


2003

Windows 3.0 y 3.1


Windows 3.0 (1990) y Windows 3.1 (1992) mejoraron el diseño, principalmente debido a la memoria virtual y los
controladores de dispositivo virtual deslastrables (VxD) que permitió compartir dispositivos arbitrarios entre DOS y
Windows. Además, las aplicaciones de Windows ahora podrían ejecutar en modo protegido (cuando se ejecuta
Windows en el modo estándar o 386 mejorado), que les da acceso a varios megabytes de memoria y se elimina la
obligación de participar en el esquema de la memoria virtual de software. Corrían todavía dentro del mismo espacio
de dirección, donde la memoria segmentada proporciona un grado de protección y multitarea cooperativa. Para
Windows 3.0, Microsoft también reescribió las operaciones críticas de C en ensamblador, haciendo esta versión más
rápido y menos consumo de memoria que sus predecesores. Con la introducción de Windows for Workgroups 3.11,
Windows fue capaz de eludir DOS para las operaciones de gestión de archivos mediante el acceso a archivos de 32
bits.

Windows 95, 98, y Me


Windows 95 fue lanzado en 1995, con una nueva interfaz de usuario, compatibilidad con nombres de archivo largos
de hasta 250 caracteres, y la capacidad de detectar automáticamente y configurar el hardware instalado (plug and
play). De forma nativa podrían ejecutar aplicaciones de 32-bits y presentó varias mejoras tecnológicas que
aumentaron su estabilidad respecto a Windows 3.1. Hubo varios OEM Service Releases (OSR) de Windows 95, cada
una de las cuales fue aproximadamente equivalente a un Service Pack.
El siguiente lanzamiento de Microsoft fue Windows 98 en 1998. Microsoft lanzó una segunda versión de Windows
98 en 1999, llamado Windows 98 Second Edition (a menudo acortado a Windows 98 SE).
En el 2000, Microsoft lanza Windows Millennium Edition (comúnmente llamado Windows ME), que actualiza el
núcleo de Windows 98 pero que adopta algunos aspectos de Windows 2000 y elimina (más bien, oculta) la opción de
"Arrancar en modo DOS". También añade una nueva característica denominada "Restaurar Sistema", que permite al
usuario guardar y restablecer la configuración del equipo en una fecha anterior.

Familia NT
La familia de sistemas Windows NT fue hecha y comercializada por un mayor uso de fiabilidad de negocios. El
primer lanzamiento fue de MS Windows NT 3.1 (1993), el número "3.1" para que coincida con la versión para
Windows, que fue seguido por NT 3.5 (1994), NT 3.51 (1995), NT 4.0 (1996), y Windows 2000 (2000). 2000 es la
última versión de Windows NT, que no incluye la activación de productos de Microsoft. NT 4.0 fue el primero en
esta línea para implementar la interfaz de usuario de "Windows 95" (y el primero en incluir tiempos de ejecución de
32 bits integrada de Windows 95). Microsoft se trasladó a combinar sus negocios de consumo y sistemas operativos
con Windows XP, viene tanto en las versiones Home y professional (y las versiones posteriores de mercado para
tablet PC y centros multimedia), sino que también se separaron los calendarios de lanzamiento para los sistemas
operativos de servidor. Windows Server 2003, lanzado un año y medio después de Windows XP, trajo Windows
Server al día con MS Windows XP. Después de un proceso de desarrollo largo, Windows Vista fue lanzado hacia el
final de 2006, y su homólogo de servidor, Windows Server 2008 fue lanzado a principios de 2008. El 22 de julio de
2009, Windows 7 y Windows Server 2008 R2 se publicaron como RTM (versión de disponibilidad general).
Windows 7 fue lanzado el 22 de octubre de 2009.
Microsoft Windows 72

Windows CE, la oferta de Microsoft en los mercados móviles e integrados, es también un verdadero sistema
operativo 32-bits que ofrece diversos servicios para todas las subestaciones de trabajo de explotación.

Sistemas operativos de 64-bit.


Windows NT incluye soporte para varias plataformas diferentes antes de x86 - basado en ordenador personal se
convirtió en dominante en el mundo profesional. Versiones de NT desde 3.1 a 4.0 diversamente compatibles
PowerPC, DEC Alpha y MIPS R4000, algunos de los cuales eran procesadores de 64 bits, aunque el sistema
operativo trató procesadores como de 32 bits.
Con la introducción de la arquitectura Intel Itanium, que se conoce como IA-64, Microsoft lanzó nuevas versiones de
Windows para apoyarlo. Las versiones Itanium de Windows XP y Windows Server 2003 fueron liberadas al mismo
tiempo que con sus principales contrapartes x86 (32-bit). El 25 de Abril de 2005, Microsoft lanzó Windows XP
Professional x64 Edition y x64 versión de Windows Server 2003 para el apoyo de x86-64 (o x64 en la terminología
de Microsoft). Microsoft eliminó el soporte para la versión de Itanium de Windows XP en 2005. Windows Vista es
la primera versión de usuario final de Windows que Microsoft ha publicado simultáneamente en las ediciones de x86
y x64. Windows Vista no es compatible con la arquitectura Itanium. La familia de Windows de 64 bits moderna
comprende a AMD64/intel64 versiones de Windows Vista y Windows Server 2008 en tanto en Itanium y en
ediciones x64. Windows Server 2008 R2 cae la versión de 32 bits, y Windows 7 que también está en versiones de 32
bits (para mantener la compatibilidad).

Windows CE
Windows CE (oficialmente conocido como Windows Embedded), es una edición de Windows que se ejecuta en
equipos minimalistas, tales como sistemas de navegación por satélite y, excepcionalmente, los teléfonos móviles.
Windows Embedded se ejecuta como CE, en lugar de NT, por lo que no debe confundirse con Windows XP
Embedded, que es NT. Windows CE que se utilizó en la Dreamcast junto con sistema operativo propietario de Sega
para la consola. Windows CE es el núcleo del que deriva Windows Mobile.

Aplicaciones de Windows

Internet Explorer
Windows Internet Explorer (también conocido como IE) es un navegador web de Internet producido por Microsoft
para su plataforma Windows. También exististieron versiones para Solaris y Apple Macintosh aunque fueron
descontinuadas en el 2002 y 2006 respectivamente.
Fue creado en 1995 tras la adquisición por parte de Microsoft del código fuente de Mosaic, un navegador
desarrollado por Spyglass, siendo rebautizado entonces como Internet Explorer. Las primeras versiones, basadas en
Mosaic, no supusieron ninguna amenaza para el entonces dominante Netscape Navigator, ya que eran bastante
simples y no eran compatibles con algunas de las extensiones más populares de Netscape que dominaban la web de
la época (como los marcos o JavaScript). Actualmente es uno de los navegadores de Internet con mayor cuota de
mercado ya que se incluye integrado por defecto con el sistema operativo Windows.

Reproductor de Windows Media


Windows Media Player, Reproductor de Windows Media (abreviado WMP) es un reproductor multimedia creado por
la empresa Microsoft. Se han lanzado varias versiones del reproductor. Actualmente la versión 12 es la última
existente, que se incluye con Windows 7. Permite reproducción de varios formatos como lo son Audio CD,
DVD-Video, DVD-Audio, WMA (Windows Media Audio), WMV (Windows Media Video), MP3, MPG, AVI,
entre otros, siempre y cuando, se dispongan de los codecs. Incluye acceso a video en formato digital en servidores de
pago.
Microsoft Windows 73

También da la posibilidad de pasar canciones de un CD al disco duro de la computadora, y al contrario, de la


computadora a un CD de música o de datos.
Además busca por Internet los nombres de las canciones y álbumes, y muestra la carátula del disco del cual
provienen dichas canciones.
Otra gran función, que potencia su uso es la Biblioteca de Windows Media, que permite la creación de listas de
reproducción, administración de música y edición de las etiquetas avanzadas; por ejemplo, se puede incluir la letra
de la canción sincronizada para que se vea cuando se reproduzca.

Windows Defender
Windows Defender es un programa de seguridad cuyo propósito es prevenir, quitar y poner en cuarentena software
espía en Microsoft Windows. Es incluido y activado por defecto en Windows Vista y Windows 7 y está disponible
como descarga gratuita para Windows XP y Windows Server 2003.

Windows Media Center


Windows Media Center es una aplicación con una interfaz de usuario, diseñado para servir como equipo personal de
cine en casa. Está incluido en Windows XP Media Center Edition como parte de dicha versión especial del sistema
operativo, ya que la aplicación no puede ser añadida a una instalación existente de XP. También se incluye en las
ediciones superiores de Windows Vista (Vista Home Premium y Vista Ultimate) y Windows 7 (todas las ediciones
exceptuando Starter y Home Basic).

WordPad
WordPad es un procesador de textos básico que se incluye con casi todas las versiones de Microsoft Windows desde
Windows 95 hacia arriba. Es más avanzado que el Bloc de notas pero más sencillo que el procesador de textos de
Microsoft Works y Microsoft Word.

Paint
Microsoft Paint (cuyo nombre original era Paintbrush) fue desarrollado en el año 1982 por la recién creada
Microsoft, a cargo del programador de computadoras Bill Gates. Paint ha acompañado al sistema operativo
Microsoft Windows desde la versión 1.0; Siendo un programa básico, es incluido en las nuevas versiones de este
sistema.

Aplicaciones retiradas
En Windows 7 varias aplicaciones fueron retiradas tales como:
• Windows Movie Maker
• Windows Mail
• Galería fotográfica de Windows.
No obstante, ahora se encuentran en el paquete Windows Live.
Microsoft Windows 74

Sistema de archivos
El sistema de archivos utilizado por estos sistemas operativos comenzó siendo FAT16 o simplemente FAT. La
primera versión de Windows en incorporar soporte nativo para FAT32 fue Windows 95 OSR2. Por otro lado, los
Sistemas Operativos basados en NT emplean los sistemas de archivos NTFS desde el origen y a partir de Windows
2000 se otorgó también soporte para FAT32.
Véase también: Sistema de archivos

Críticas y polémicas
Windows, ya desde sus inicios, ha estado envuelto en la polémica. Al principio se decía que Windows era una copia
del sistema operativo de Apple; más adelante se hablaba de si existía competencia desleal[16] con algunos programas
que se incluían dentro del sistema. Con la aparición del software libre las polémicas se orientan a la política de
código cerrado de Microsoft.
Las mayores críticas que recibió Windows hasta la versión Windows XP Service Pack 2 era la estabilidad del
sistema, el sistema operativo presentaba varios fallos de distinta índole y gravedad, los cuales fueron disminuyendo
con el correr de las versiones. Desde Microsoft siempre expresaron que estos fallos se debían a aplicaciones externas
a Windows, pero algunos fallos se producían apenas instalado el sistema, sin siquiera haber agregado programa
alguno.[cita requerida]
Otra crítica que se le hace al sistema, específicamente a Windows Vista, es la gran cantidad de recursos del sistema
que ocupa,[17] [18] estando "sobrecargado" de objetos, los cuales hacen que los computadores de hoy no soporten
adecuadamente el sistema y no ofrezcan al usuario una experiencia fluida de uso.[19]
Debido al fracaso de Windows Vista, Microsoft lanzó un parche para "downgrading" a Windows XP en las versiones
Business, Entreprise y Ultimate.[20]
Microsoft ha lanzado una campaña, llamada "Get the facts" en la que muestra cientos de empresas conocidas que
migraron de GNU/Linux a Windows Server y aumentaron su productividad.[21] Los defensores de GNU/Linux
desarrollaron su propio estudio argumentando que, en contra de uno de los reclamos de Microsoft, GNU/Linux tiene
menores costos administrativos que Windows Server.[22] Otro estudio realizado por el Yankee Group afirma que la
actualización desde una versión de Windows Server a otra plataforma tiene un coste inferior al de cambiar de
GNU/Linux a Windows Server.[23]

Seguridad
Una de las principales críticas que con frecuencia reciben los sistemas operativos Windows es la debilidad del
sistema en lo que a seguridad se refiere y el alto índice de vulnerabilidades críticas. El propio Bill Gates, fundador de
Microsoft, ha asegurado en repetidas ocasiones que la seguridad es objetivo primordial para su empresa.[24]
Partiendo de la base de que no existe un sistema completamente libre de errores, las críticas se centran en la lentitud
con la que la empresa reacciona ante un problema de seguridad que pueden llegar a meses[25] [26] [27] [28] o incluso
años[29] [30] de diferencia desde que se avisa de la vulnerabilidad hasta que se publica un parche.
En algunos casos la falta de respuesta por parte de Microsoft[31] [32]
ha provocado que se desarrollen parches que
arreglan problemas de seguridad hechos por terceros.[33]
Uno de los pilares en que se basa la seguridad de los productos Windows es la seguridad por ocultación, en general,
un aspecto característico del software propietario que sin embargo parece ser uno de los responsables de la debilidad
de este sistema operativo ya que, la propia seguridad por ocultación, constituye una infracción del principio de
Kerckhoff, el cual afirma que la seguridad de un sistema reside en su diseño y no en una supuesta ignorancia del
diseño por parte del atacante.[34]
Microsoft Windows 75

Véase también
General:
• Microsoft Corporation
• Comparación de sistemas operativos
• Comparación de Windows y Linux
• Lista de sistemas operativos
Contenido relacionado:
• Arquitectura de Windows NT
• Componentes relacionados de Microsoft Windows
• Explorador de Windows
• Windows Genuine Advantage
• Windows Media
• Wintel

Enlaces externos
• Wikiquote alberga frases célebres de o sobre Microsoft Windows. Wikiquote

• Wikimedia Commons alberga contenido multimedia sobre Microsoft Windows. Commons


• Sitio oficial de Microsoft Windows [35]
• Microsoft Windows History Timeline [36]

Referencias
[1] http:/ / windows. microsoft. com/ es-XL/ windows/ home
[2] http:/ / windows. microsoft. com/ es-ES/ windows/ home
[3] http:/ / www. microsoft. com/ windows/ WinHistoryDesktop. mspx
[4] http:/ / windowsteamblog. com/ blogs/ windows7/ archive/ 2009/ 07/ 22/ windows-7-has-been-released-to-manufacturing. aspx
[5] http:/ / support. microsoft. com/ gp/ lifecycle
[6] « The Unusual History of Microsoft Windows (http:/ / inventors. about. com/ od/ mstartinventions/ a/ Windows. htm?rd=1)». Consultado el
22-04-2007.
[7] « Global Web Stats (http:/ / www. w3counter. com/ globalstats. php)», W3Counter, Awio Web Services, September 2009. Consultado el
24-10-2009.
[8] « Operating System Market Share (http:/ / marketshare. hitslink. com/ operating-system-market-share. aspx?qprid=8)». Net Applications
(October 2009). Consultado el 5 de noviembre de 2009.
[9] « Top 5 Operating Systems on Oct 09 (http:/ / gs. statcounter. com/ #os-ww-monthly-200910-200910-bar)». StatCounter (October 2009).
Consultado el 5 de noviembre de 2009.
[10] http:/ / en. wikipedia. org/ wiki/ :Microsoft
[11] « Ciclo de vida de soporte de Microsoft (Windows Server 2003 R2) (http:/ / support. microsoft. com/ lifecycle/ ?p1=10394)». Microsoft.
Consultado el 28-02-2010.
[12] « Microsoft Delivers New Wave of Technologies to Help Businesses Thrive in Today’s Economy (http:/ / www. microsoft. com/ presspass/
press/ 2009/ May09/ 05-11TechEd09PR. mspx?rss_fdn=Press Releases)». Microsoft (11/5/2009). Consultado el 22/5/2009.
[13] « Net Applications Operating System Market Share (http:/ / marketshare. hitslink. com/ operating-system-market-share. aspx?qprid=10&
qpcal=1& qpcal=1& qptimeframe=M& qpsp=133)». Net Applications (February 2010).
[14] « Global Web Stats (http:/ / w3counter. com/ globalstats. php?año=2010& mes=2)». W3Counter (February 2010).
[15] « StatCounter Global Stats (http:/ / gs. statcounter. com/ #os-ww-monthly-201002-201002-bar)». StatCounter (February 2010).
[16] .
[17] .
[18] .
[19] .
[20] Microsoft da vía libre... al XP · ELPAÍS.com (http:/ / www. elpais. com/ articulo/ internet/ Microsoft/ da/ via/ libre/ XP/ elpeputec/
20070924elpepunet_2/ Tes)
[21] « Get the facts (http:/ / www. microsoft. com/ windowsserver/ compare/ default. mspx)» (en inglés). Microsoft. Consultado el 25 de mayo de
2008.
Microsoft Windows 76

[22] Jaques, Robert (13/2/2006) (en Inglés). MLinux fans hit back at Microsoft TCO claims (http:/ / www. vnunet. com/ vnunet/ news/ 2150210/
linux-fans-hit-back-microsoft). . Consultado el 25/5/2008.
[23] « Yankee Independently Pits Windows TCO vs. Linux TCO (http:/ / www. eweek. com/ c/ a/ Windows/
Yankee-Independently-Pits-Windows-TCO-vs-Linux-TCO/ )» (en inglés). eWeek.com (24 de mayo). Consultado el 25 de mayo de 2008.
[24] Artículo en el Diario Clarín (http:/ / www. clarin. com/ diario/ 2006/ 03/ 16/ um/ m-01159564. htm)
[25] .
[26] .
[27] .
[28] .
[29] John Leyden (14/8/2009). « MS Zero-day security bug was two years in the making (http:/ / www. theregister. co. uk/ 2009/ 08/ 14/
ms_zero_day_long_gestation/ )» (en inglés). The Register. Consultado el 10/1/2010.
[30] .
[31] .
[32] .
[33] .
[34] .
[35] http:/ / www. microsoft. com/ windows
[36] http:/ / www. microsoft. com/ Windows/ WinHistoryIntro. mspx

Windows XP
Windows XP

Parte de la familia Microsoft Windows

Desarrollador

Microsoft
[1]
Página principal de Windows XP

Información general

Modelo de desarrollo Software propietario; Shared Source

Lanzamiento inicial [2]


25 de octubre de 2001 (info )

Última versión estable [3]


5.1.2600.5512 Service Pack 3 (x86) (info )
21 de abril de 2008

Núcleo NT 5.1

Tipo de núcleo Híbrido

Plataformas soportadas IA-32, x86-64, IA-64

Método de actualización Windows Update

Licencia Microsoft CLUF (EULA)

Idiomas [4]
92 idiomas

En español

Soporte técnico

[5]
Período de soporte extendido hasta el 8 de abril de 2014 (únicamente Service Pack 3). Sólo se proporcionarán actualizaciones de seguridad
críticas.

Artículos relacionados
Windows XP 77

• Desarrollo de Windows XP
• Ediciones de Windows XP

Windows XP (cuyo nombre en clave inicial fue Whistler) es una versión de Microsoft Windows, línea de sistemas
operativos desarrollado por Microsoft. Lanzado al mercado el 25 de octubre de 2001, actualmente es el sistema
operativo para x86 más utilizado del planeta (con una cuota de mercado del 58,4%) y se considera que existen más
de 400 millones de copias funcionando.[6] Las letras "XP" provienen de la palabra eXPeriencia (eXPerience en
inglés).
Dispone de versiones para varios entornos informáticos, incluyendo PCs domésticos o de negocios, equipos
portátiles, "netbooks", "tablet PC" y "media center". Sucesor de Windows 2000 junto con Windows ME, y antecesor
de Windows Vista, es el primer sistema operativo de Microsoft orientado al consumidor que se construye con un
núcleo y arquitectura de Windows NT disponible en versiones para plataformas de 32 y 64 bits.
A diferencia de versiones anteriores de Windows, al estar basado en la arquitectura de Windows NT proveniente del
código de Windows 2000, presenta mejoras en la estabilidad y el rendimiento. Tiene una interfaz gráfica de usuario
(GUI) perceptiblemente reajustada (denominada Luna), la cual incluye características rediseñadas, algunas de las
cuales se asemejan ligeramente a otras GUI de otros sistemas operativos, cambio promovido para un uso más fácil
que en las versiones anteriores. Se introdujeron nuevas capacidades de gestión de software para evitar el "DLL Hell"
(infierno de las DLLs) que plagó las viejas versiones. Es también la primera versión de Windows que utiliza la
activación del producto para reducir la piratería del software, una restricción que no sentó bien a algunos usuarios.
Ha sido también criticado por las vulnerabilidades de seguridad, integración de Internet Explorer, la inclusión del
reproductor Windows Media Player y aspectos de su interfaz.

Desarrollo
El desarrollo de Windows XP parte desde la forma de Windows Neptune. Windows XP fue desarrollado en 18
meses, desde diciembre de 1999 hasta agosto de 2001. Windows XP fue lanzado el 25 de octubre de 2001.
Microsoft producía dos líneas separadas de sistemas operativos. Una línea estaba dirigida a las computadoras
domésticas basada en un núcleo de MS-DOS y representada por Windows 95, Windows 98 y Windows Me, mientras
que la otra, basada en un Núcleo "NT" es representada por Windows NT y Windows 2000, estaba pensada para el
mercado corporativo y empresarial e incluía versiones especiales para servidores. Windows ME "Millenium" fue un
intento por parte de Microsoft de ofrecer un único sistema operativo multiuso, aunque falló por poseer el núcleo de
arranque de MS-DOS con el código NT de Windows, Windows XP fue la verdadera fusión de un sistema operativo
único basado enteramente en la arquitectura NT contando con la funcionalidad de MS-DOS, con él, se eliminó
definitivamente el soporte para los programas basados en MS-DOS del sistema operativo.

Características
Windows XP introdujo nuevas características
• Ambiente gráfico
• Secuencias más rápidas de inicio y de hibernación.
• Capacidad del sistema operativo de desconectar un dispositivo externo, de instalar nuevas aplicaciones y
controladores sin necesidad de reiniciar.
• Una nueva interfaz de uso más fácil, incluyendo herramientas para el desarrollo de temas de escritorio.
• Uso de varias cuentas, lo que permite que un usuario guarde el estado actual y aplicaciones abiertos en su
escritorio y permita que otro usuario abra una sesión sin perder esa información.
• ClearType, diseñado para mejorar legibilidad del texto encendido en pantallas de cristal líquido (LCD) y
monitores similares.
Windows XP 78

• Escritorio Remoto, que permite a los usuarios abrir una sesión con una computadora que funciona con Windows
XP a través de una red o Internet, teniendo acceso a sus usos, archivos, impresoras, y dispositivos;
• Soporte para la mayoría de módems ADSL y conexiones wireless, así como el establecimiento de una red
FireWire.

Interfaz
Windows XP, ofrece una nueva interfaz gráfica. El menú del comienzo y capacidad de indexación de directorios de
Windows fue reajustado y muchos efectos visuales fueron agregados, incluyendo:
• Colores brillantes.
• Botón "Cerrar" (cruz) de color rojo.
• Botones estándar de colores en las barras de herramientas de Windows e Internet Explorer.
• Un rectángulo azul translúcido en la selección de los archivos.
• Un gráfico en los iconos de la carpeta, indicando el tipo de información que se almacena.
• Sombras para las etiquetas del icono en el tablero del escritorio
• Capacidad de agrupar aplicaciones similares en la barra de tareas.
• Capacidad para prevenir cambios accidentales.
• Destaca programas recién instalados en el menú de inicio.
• Sombras bajo los menús (Windows 2000 tenía bajo el puntero del mouse, pero no en los menús).
• Al igual que en los anteriores Windows (Windows 98, Windows 2000, Windows Millenium Edition) y a
diferencia de los posteriores Windows XP (con Service Pack), el Explorador de Windows incluye la vista
preliminar (en miniatura) de archivos Web (*.htm, *.html) en los detalles en la barra de tareas comunes en las
carpetas y en la vista en miniatura. Ya sean páginas Web guardadas localmente o accesos directos a Internet (url).
Windows XP analiza el impacto del funcionamiento de efectos visuales y mediante esto determina si debe o no
permitirlos, para evitar que la nueva funcionalidad consuma recursos en forma excesiva. Los usuarios pueden
modificar más estos ajustes para requisitos particulares. Algunos efectos, tales como mezcla alfa (transparencia), son
dirigidos enteramente a muchas tarjetas de vídeo más nuevas. Sin embargo, si la tarjeta gráfica no es capaz, el
funcionamiento puede verse reducido substancialmente y Microsoft recomienda la característica de apagado
manualmente. Windows XP agrega la capacidad para el uso de “estilos visuales” para cambiar la interfaz gráfica. Sin
embargo, los estilos visuales son firmados mediante criptografía por Microsoft para funcionar. El estilo Luna es el
nombre del nuevo estilo visual por defecto de Windows XP para máquinas con más que 64 MB de RAM. Luna se
refiere solamente a un estilo visual particular, no a todas las nuevas características del interfaz de usuario de
Windows XP en su totalidad. Para utilizar estilos visuales sin firmar, muchos usuarios usan software como por
ejemplo StyleXP de TGTSoft o Stardock WindowBlinds. Algunos usuarios “modifican” el archivo de uxtheme.dll
que restringe la capacidad de utilizar estilos visuales, creado por el público en general o el usuario.
El papel tapiz por defecto, es una fotografía BMP de un paisaje en valle de Napa, California, con colinas verdes y un
cielo azul con stratocumulus y nubes cirros. La interfaz “clásica” de Windows 2000 puede ser utilizado en lugar de
otra si se prefiere. Existen varias utilidades de terceros que proporcionan centenares de diversos estilos visuales.
Además, Microsoft creó el tema, llamado "Energy Blue", que fue incluido con la edición Media center de Windows
XP y también fue lanzado para otras versiones de Windows XP, pero más adelante fue quitado del paquete original
de Microsoft Nueva Zelanda. El tema clásico de las ventanas es extensamente popular (debido a la familiaridad con
las versiones anteriores de Windows), no obstante las ventanas “clásicas” utilizan el mismo interfaz que el otro tema
estándar de Windows XP y no afectan el funcionamiento.
Windows XP 79

Ediciones
Las ediciones más comunes son la Home destinada al hogar y la Professional, que tiene características adicionales
tales como la posibilidad de unirse a un dominio, en vez de solo a grupos de trabajo, y soporte para 2 procesadores
(que implementa la edición Home a partir del Service Pack para multicore). Estas ediciones fueron puestas a la venta
en tiendas de software y fueron pre-instaladas en computadoras vendidas por los principales fabricantes de
ordenadores. La edición Media Center es una versión de XP Professional para equipos con características
específicas: control remoto y capacidades multimedia, tales como ver y grabar la TV, reproducir vídeos, fotos o
música; recibir HDTV y compartir datos con una Xbox 360 mediante Online Spotlight. Windows XP Tablet PC
Edition se diseñó para funcionar con la plataforma Tablet PC. Se lanzaron dos versiones de 64 bits: Windows XP
edición 64 bits para los procesadores Itanium y otra diseñada para procesadores AMD64 y EM64T.

Ventajas de Windows Original (WGA)


El sistema Windows Genuine Advantage verifica si la copia de Windows es original; lo cual permite acceder a las
actualizaciones de productos y seguridad de Microsoft.[7] Este método es criticado por buena parte de los usuarios,
porque infringe la intimidad del mismo.[cita requerida]

Windows no Original
Si la clave de producto no es genuina Windows despliega ventanas de advertencia que solicitan al usuario que
adquiera una licencia de Microsoft e instala un icono a lado del reloj. Además el escritorio se vuelve negro y si no se
valida el sistema no se podrá descargar software de Microsoft tales como Windows Media Player 11, Windows
Defender, entre otros. Sin embargo, esta protección de Windows no es difícil de burlar y multitud de usuarios en
todo el mundo utilizan versiones no legítimas de Windows XP sin ningún problema.

Service Packs
Cada cierto tiempo, Microsoft distribuye unos paquetes denominados Service Packs (Paquetes de servicio), en el que
están todas las actualizaciones a la fecha, además de algunos nuevas aplicaciones con los que asegurán un Sistema
operativo seguro. A continuación se detallan, desde su lanzamiento Microsoft ha desarrollado;

Service Pack 1
El SP1 para Windows XP fue lanzado el 9 de noviembre de 2002. Las características que tiene son las siguientes:
• La novedad más visible fue la incorporación de la utilidad Configurar acceso y programas predeterminados,
para poder elegir de forma más sencilla qué programas se desea utilizar para las tareas más comunes.
• Otra novedad que introdujo fue el soporte para USB 2.0 y de LBA de 48 bits, por lo que Windows XP podría
soportar discos duros de más de 137 GB.
• Como consecuencia de un conflicto con Sun Microsystems, Microsoft se vio forzada a sacar una revisión a este
SP, llamada Service Pack 1a (SP1a), en la que se eliminaba la Máquina virtual Java de Microsoft.
• No hay vista preliminar (en miniatura) de archivos Web (*.htm, *.html) en los detalles en la barra de tareas
comunes en las carpetas ni en la vista en miniatura. Ya sean páginas Web guardadas localmente o accesos
directos a Internet (url).
• Al igual que el anterior sistema operativo Windows XP (sin SP) y a diferencia de los posteriores (SP2 y SP3), se
mantiene la barra Multimedia en Internet Explorer (versión 6.0.2600.0000), que lo integra con el Reproductor de
Windows Media.
El soporte de Windows XP Service Pack 1 finalizó el 10 de octubre de 2006
Windows XP 80

Service Pack 2
El 6 de agosto de 2004, lanzó el SP2, que incluía todas las correcciones de los errores encontrados en el SP1, además
de varias novedades, centradas sobre todo en dar mayor seguridad al sistema operativo. Estas novedades son:
• Un centro de seguridad, para comprobar el riesgo al que está sometido Windows XP.
• Nueva interfaz del Cortafuegos de Windows XP, además de ser activado por defecto.
• Añadido un mejor soporte de Wi-Fi y Bluetooth.
• Incorporación a Internet Explorer de un bloqueador de popups, la capacidad de bloquear controles ActiveX, el
bloqueo de las descargas automáticas y un administrador de complementos gracias a Internet Explorer 6 SP2 .
• Uso de la tecnología DEP (Data Execution Prevention o Prevención de ejecución de datos) por Hardware o
Software (Según si el procesador tenga o no soporte para ello).
• Las actualizaciones automáticas están activadas por defecto.
• El servicio Messenger se desactiva por defecto.
• Outlook Express bloquea los archivos adjuntos potencialmente peligrosos (.exe o .vbs).
• La ventana de Agregar o quitar programas permite mostrar u ocultar las actualizaciones.
• Mejoras multimedia como la inclusión del Reproductor de Windows Media 9 Series, DirectX 9.0c, y Windows
Movie Maker 2.1.
• No incluye la barra Multimedia en Internet Explorer (versiones 6.0.2800.0000 o 6.0.2900.2180), que lo integraba
con el Reproductor de Windows Media.
• Al igual que el anterior Windows (SP1), no hay vista preliminar (en miniatura) de archivos Web (*.htm, *.html)
en los detalles en la barra de tareas comunes en las carpetas ni en la vista en miniatura. Ya sean páginas Web
guardadas localmente o accesos directos a Internet (url).
Según la Directiva de Ciclo de Vida de Productos, Microsoft retiró el soporte de Service Pack 2 el 13 de julio de
2010.

Service Pack 3
Windows XP Service Pack 3 (SP3) build 5512 RTM fue lanzado para fabricantes el 21 de abril de 2008, y al público
en general, a través del Centro de descargas de Microsoft y Windows Update, el 6 de mayo de 2008. Las
características generales han sido publicadas por Microsoft en el documento Windows XP Service Pack 3 Overview.
SP3 contiene nuevas características: actualizaciones independientes de Windows XP y características tomadas de
Windows Vista.
El SP3 puede ser instalado en las versiones retail y OEM de Windows XP y tener funcionalidad completa durante 30
días sin necesidad de introducir una clave de producto. Pasado ese tiempo, se le pedirá al usuario que introduzca una
clave válida y active la instalación. Las versiones de tipo licencia por volumen (VLK) necesitan también que se
introduzca una clave de producto.[8]
El SP3 es una actualización acumulativa de todos los paquetes de servicios anteriores para el Windows XP. Sin
embargo, como requisito para instalar SP3 se requiere de un sistema que esté ejecutando, como mínimo, Windows
XP Service Pack 1. El instalador del service pack chequea la clave del registro
HKLM\SYSTEM\CurrentControlSet\Control\Windows\CSDVersion para ver si tiene un valor mayor o igual un
0x100, si es así, permitirá que la actualización proceda, de lo contrario, mostrará un prompt para instalar el SP1 o
SP2. Puesto que el SP1 ya no está disponible para la descarga completa, necesitaría ser descargado usando Windows
Update. La otra opción es cambiar manualmente la clave del registro, lo cual esencialmente engaña el instalador para
que crea que el SP1 ya está instalado.[9]
Sin embargo, es posible hacer una integración (slipstream) del SP3 en los archivos de instalación del Windows XP
con cualquier nivel de service pack anterior — incluyendo la versión RTM original — sin ningún error o
problemas.[10] Hacer un slipstream del SP3 en el Windows XP Media Center Edition 2005 no es soportado.[11]
Windows XP 81

Microsoft ha dicho que en el SP3 no se incluye Windows Internet Explorer 7, pero se instalarán las actualizaciones
de seguridad para Internet Explorer 6 o 7 independientemente. Algo similar es lo que ocurre con el Reproductor de
Windows Media 9 Series o las versiones 10 u 11. SP3 también contiene actualizaciones de componentes del sistema
operativo para Windows XP Media Center Edition y Windows XP Tablet PC Edition; incluye actualizaciones de
seguridad para .NET Framework 1.0 y 1.1, que son incluidas con estas SKUs de Windows XP. SP3 no incluye
actualizaciones para la aplicación Windows Media Center contenida en Windows XP Media Center Edition 2005.
Tampoco incluye actualizaciones de seguridad del Reproductor de Windows Media 10.
De acuerdo con informaciones reveladas por Microsoft y datos obtenidos de Internet, hay un total de 1.073 arreglos
en SP3.
Según las declaraciones de Microsoft, el soporte para el SP3 finalizará el 8 de abril de 2014.
Varios servicios vuelven a activarse si estaban desactivados al ser instalados, como el "centro de seguridad".

Interfaz de Usuario Multilingüe (MUI)


Este paquete permite cambiar el idioma de Windows XP (exclusivo para las versiones Professional y Tablet PC),
exclusivamente del inglés a otro idioma que elija el usuario, por ejemplo de inglés a español.[12]
Muchos equipos preinstalados vinieron con Windows XP en inglés en un inicio, para poder tenerlo en español se
tenía que adquirir una nueva copia, ahora con esta herramienta es posible convertirlo al idioma nativo para mejor
manejo de la interfaz, para poder hacer el cambio de idioma se debe contar con el MUI Pack de la versión y Service
Pack del Windows XP, que es una herramienta se proporciona cuando tenemos una licencia corporativa (explicado
anteriormente) del producto o tenemos una subscripcion a TechNet o MSDN (tiene un coste).
Para el caso de Windows XP y Windows Server 2003 solo es posible cambiar de inglés a cualquier otro idioma, y
evidentemente, es necesario el MUI Pack. El cambio es reversible, es decir, se puede intercambiar entre inglés y
español con solo cerrar sesión, esto, después de haber instalado MUI Pack.

Ciclo de vida
El soporte de Windows XP RTM (sin Service Pack) finalizó el 30 de septiembre de 2004 y el Soporte de Windows
XP Service Pack 1 finalizó el 10 de octubre de 2006. El soporte de Windows XP Service Pack 2 se retiró el 13 de
julio de 2010, 6 años después de su disponibilidad general. La compañía terminó la distribución de licencias a los
OEMs y al comercio minorista de este sistema operativo el 30 de junio de 2008, 22 meses después del lanzamiento
de Windows Vista. Sin embargo seguirá distribuyéndose la versión "Home Edition", dirigida especialmente para
portátiles ultra-baratos de forma preinstalada y como un downgrade pagado para equipos con Windows Vista
preinstalado hasta el año 2010. Además el Service Pack 3 tendrá soporte hasta el 2014, al igual que el soporte
extendido para el Service Pack 2.

Larga despedida
En junio del 2008 Microsoft anunció oficialmente, que ya no circularían Windows XP. Después, pasado el 30 de
junio del mismo año, también afirmó que no está "terminando" con su sistema operativo más popular. Aunque
Windows XP no se venderá en tiendas, Microsoft y sus socios continuarán ofreciendo soporte técnico para Windows
XP durante meses y años. De hecho, Microsoft ofrecerá soporte técnico para Windows XP hasta el año 2014, como
se tenía planeado.[13] El hecho de que Windows Vista requiera semejante cantidad de memoria RAM, junto con la
aparición de los ordenadores microportátiles (con 1 GB de memoria RAM) han sido decisivos en los sucesivos
retrasos en la despedida de XP.
Windows XP 82

Problemas legales y críticas


Sobre XP han llovido fuertes críticas e investigaciones debido a la integración de múltiples aplicaciones para las
cuales existía tradicionalmente un mercado de terceros, como cortafuegos, reproductores multimedia (Windows
Media Player), programas de mensajería instantánea (Windows Messenger), así como bastante desconfianza respecto
al servicio Passport de Microsoft.

Seguridad
Windows XP ha sido criticado por su susceptibilidad a malware, como virus, troyanos o gusanos. Las opciones de
seguridad por defecto crean una cuenta del administrador que proporciona el acceso sin restricción a todo el sistema,
incluyendo los puntos vulnerables.
Windows, con una cuota de mercado grande, ha sido tradicionalmente un blanco para los creadores de virus. Los
agujeros de la seguridad son a menudo invisibles hasta que se explotan, haciendo su prevención un hecho difícil.
Microsoft ha indicado que el lanzamiento de actualizaciones para parchear los agujeros de seguridad es a menudo a
causa de los hackers que los descubren.

Activación del producto


Mientras que la necesidad de activación de los productos Windows era habitual en servidores, industria del software
o negocios, Windows XP introdujo esta opción también para los usuarios comunes. Este sistema fue introducido por
Microsoft para frenar la piratería. La activación está ligada al hardware del sistema informático por lo que el cambio
de éste, como la Placa madre hará que la instalación se desactive y pida activación nuevamente.

Integración de características
A la luz de la demanda de EE.UU. contra Microsoft por el monopolio propiciado por su sistema operativo. Windows
ha deshabilitado ciertas características de Windows Media Player y de Windows Messenger así como del servicio de
Windows Live ID.

Restricciones de copia
Windows XP limita la instalación usando llaves (claves) previamente usadas, de tal modo que previene instalaciones
desautorizadas. Estas llaves (claves) se incluyen en la documentación del producto, pero una cantidad de llaves
(claves) se ha filtrado a Internet y se utiliza en instalaciones desautorizadas. Los service packs contienen una lista de
estas llaves y recuperan información acerca de las nuevas llaves utilizadas.
Microsoft desarrolló un motor para el Service Pack 2 que detectaba llaves ilícitas. Debido a protestas de consultores
de seguridad, Microsoft deshabilitó esta opción por lo que el Service Pack 2 utiliza el viejo sistema de llaves del
Service Pack 1.

Requisitos
Windows XP 83

Mínimo establecido Mínimo aceptable Mínimo recomendable

Procesador 233 MHz 550 MHz 800 MHz

Memoria 64 MB RAM (funcionamiento 128 MB RAM 256 MB RAM


limitado)

Vídeo Super VGA (800×600) con 2 MB de VGA (1024×768) con 8 MB de vídeo VGA (1024×768) con 32 MB de video
vídeo

Espacio en disco 1,5 GB 10 GB 20 GB


duro

Unidades CD-ROM CD-ROM / DVD-ROM CD-ROM/CD-RW /


DVD-R/DVD-RW/DVD-DL

Periféricos Teclado y mouse Teclado y mouse Teclado y mouse

Otros (multimedia) Tarjeta de sonido, Altavoces, y/o Tarjeta de sonido, Altavoces, y Auriculares
Auriculares

• Se puede instalar en sistemas con solo 64 MB de RAM, pero no se puede deshabilitar el archivo de intercambio.
• Con 1,5 GB de espacio en disco duro es necesario comprimir los archivos y borrar algunos del disco duro para
poder actualizar el Service Pack posteriormente si no se dispone de espacio libre en otra partición.

Enlaces externos
• Windows XP España [14] en Microsoft
• Windows XP Latinoamérica [15] en Microsoft
• Guía de fortificación de Windows XP [16] publicado en PC Actual

Predecesor: Sistema operativo para equipos de escritorio, parte de la familia Microsoft Sucesor:
Windows Me Windows Windows
2001 - Presente Vista
Predecesor:
Windows
2000

Referencias
[1] http:/ / www. microsoft. com/ spain/ windows/ windows-xp/
[2] http:/ / forums. microsoft. com/ TechNet/ ShowPost. aspx?PostID=3214173& SiteID=17
[3] http:/ / www. microsoft. com/ windows/ products/ windowsxp/ sp3/ default. mspx
[4] Lista de idiomas en Windows XP (http:/ / support. microsoft. com/ kb/ 292246/ es)
[5] « Ciclo de vida de soporte de Microsoft (Windows XP) (http:/ / support. microsoft. com/ lifecycle/ ?C2=1173)». Microsoft. Consultado el
16-01-2009.
[6] w3schools (ed.): « OS Platform Statistics (http:/ / www. w3schools. com/ browsers/ browsers_os. asp)» (en inglés). Consultado el 5 de marzo
de 2010.
[7] « Microsoft.es Software original de Microsoft (http:/ / www. microsoft. com/ genuine/ About. aspx?displaylang=es)» (en español).
[8] « Microsoft.es Windows® XP Service Pack 3 (SP3) (http:/ / www. microsoft. com/ downloads/ details. aspx?displaylang=es&
FamilyID=68c48dad-bc34-40be-8d85-6bb4f56f5110)».
[9] Installing Windows XP Service Pack 3 (SP3) (http:/ / technet. microsoft. com/ en-us/ windowsxp/ cc164204. aspx#1).
[10] « To Chris Keroack [MSFT] - Slipstreaming (http:/ / forums. microsoft. com/ TechNet/ ShowPost. aspx?PostID=3226434& SiteID=17)».
Consultado el 19-05-2008.
[11] Slipstreaming SP3 with MCE 2005 (http:/ / forums. microsoft. com/ TechNet/ ShowPost. aspx?PostID=3236131& SiteID=17).
[12] MUI Pack - Windows XP Service Pack 2 (http:/ / download. microsoft. com/ download/ 6/ 2/ e/ 62e61f10-e106-4f4c-a862-63eec2b41efb/
readme. htm)
[13] « El futuro de Windows XP (http:/ / www. microsoft. com/ spain/ windows/ products/ windowsxp/ future. mspx)» (25 de junio de 2008).
[14] http:/ / www. microsoft. com/ spain/ windowsxp/
[15] http:/ / www. microsoft. com/ latam/ windowsxp/
Windows XP 84

[16] http:/ / www. pc-actual. com/ consejos/ paso/ 2006/ 12/ 22/ protege-tu-windows-xp

Windows Vista
Este artículo o sección contiene algunas citas a referencias completas e incluye una lista de bibliografía o enlaces externos. Sin embargo,
su verificabilidad no es del todo clara debido a que no posee suficientes notas al pie.
Puedes mejorar este artículo introduciendo citas más precisas.

Windows Vista

Parte de la familia Microsoft Windows

Desarrollador

Microsoft
[1]
Página principal de Windows Vista

Información general

Modelo de desarrollo Software propietario; Shared Source

Lanzamiento inicial RTM: 8 de noviembre de 2006


[2]
Oficial: 30 de enero de 2007 (info )

Última versión estable [3]


6.0 Service Pack 2 (SP2; Compilación 6002) (info )
28 de abril de 2009

Núcleo NT 6.0

Tipo de núcleo Híbrido

Plataformas soportadas IA-32, x86-64

Método de actualización Windows Update

Licencia Microsoft CLUF (EULA)

Idiomas Multilingüe

En español

Soporte técnico

Período de soporte estándar hasta el 10 de abril de 2012 (únicamente Service Pack 1 y 2). Después, período de soporte extendido hasta el 11 de abril
[4]
de 2017.
El soporte para Service Pack 1 se mantendrá hasta el 12 de julio de 2011.

Artículos relacionados

• Desarrollo de Windows Vista


• Ediciones de Windows Vista
• Críticas a Windows Vista

Windows Vista es una versión de Microsoft Windows, línea de sistemas operativos desarrollada por Microsoft. Esta
versión se enfoca para ser utilizada en equipos de escritorio en hogares y oficinas, equipos portátiles, "tablet PC" y
equipos "media center".
El proceso de desarrollo terminó el 8 de noviembre de 2006 y en los siguientes tres meses fue entregado a los
fabricantes de hardware y software, clientes de negocios y canales de distribución. El 30 de enero de 2007 fue
Windows Vista 85

lanzado mundialmente y fue puesto a disposición para ser comprado y descargado desde el sitio web de Microsoft.
La aparición de Windows Vista viene más de 5 años después de la introducción de su predecesor, Windows XP, es
decir el tiempo más largo entre dos versiones consecutivas de Microsoft Windows. La campaña de lanzamiento fue
incluso más costosa que la de Windows 95, ocurrido el 25 de agosto de 1995, debido a que esta incluyó además otros
productos como Microsoft Office 2007 y Exchange Server 2007.[cita requerida] Actualmente Windows Vista ya tiene
un sucesor, llamado Windows 7.

Desarrollo
Microsoft comenzó a trabajar en los planes de desarrollo de Windows "Longhorn" en 2001, después de la
introducción de Windows XP. Inicialmente estaba previsto para ser lanzado a finales de 2003 como un paso menor
entre Windows XP (nombre en código "Whistler") y "Blackcomb" (ahora conocido como Windows 7).
Cuando se acabó el proyecto Windows Vista, fueron iniciadas un número sin precedentes de pruebas beta del
programa, con la participación de cientos de miles de voluntarios y de las empresas. En septiembre de 2005,
Microsoft empezó a difundir ordinariamente el Community Technology Previews (CTP) a los probadores beta. El
primero de ellos se distribuyó en el 2005: Microsoft Professional Developers Conference, y fue posteriormente
puesto en libertad a los probadores beta y a los suscriptores de Microsoft Developer Network. El que construye
seguido incorporado la mayoría de las características planeadas para el producto final, así como una serie de cambios
en la interfaz de usuario, basada en gran parte en los comentarios de los probadores beta. Windows Vista se
consideró característicamente completa con la edición de la "febrero CTP", publicado el 22 de febrero de 2006, y
gran parte del resto de los trabajos se centraron en la estabilidad, el rendimiento, la aplicación y la documentación de
la versión final del producto. Beta 2, lanzado a finales de mayo, fue la primera construcción que se puso a
disposición del público en general a través de Microsoft's Customer Preview Program. Más de cinco millones de
personas lo descargaron.
Aunque Microsoft esperaba que el sistema
operativo estuviera disponible en todo el
mundo para la Navidad de 2006, se anunció
en marzo de ese año que la fecha de
lanzamiento sería aplazada hasta enero de
2007, con el fin de otorgar mayor tiempo a
las empresas para la construcción de nuevos
drivers que fueran compatibles con el nuevo
sistema operativo. Durante gran parte de
2006, los analistas y los bloggers
especularon que Windows Vista se
retrasaría aún más, debido a un
antimonopolio, preocupaciones planteadas
por la Comisión Europea y Corea del Sur, y
debido a una falta de progreso en la versión Publicidad de Windows Vista en el edificio de Microsoft Argentina.
beta. Sin embargo, el 8 de noviembre de
2006 Microsoft anunció la finalización de Windows Vista, llegando a su fin el proyecto de desarrollo de sistema
operativo más largo por parte de dicha empresa.

Las expectativas creadas por Microsoft respecto a Vista, decepcionaron a muchos usuarios por los requerimiento en
las prestaciones que debe tener un ordenador para ejecutar Vista normalmente. Así mismo, en sus primeros años se
dieron gran cantidad de problemas de compatibilidad con programas y controladores de hardware debido a que no
funcionan o no existen versiones para Windows Vista. Varias empresas y universidades han optado por no instalar
Windows Vista 86

Vista en sus equipos por problemas con programas lanzados originalmente para Windows XP, así como porque
requiere una gran inversión debido a la necesidad de comprar equipos nuevos para poder ejecutar Vista. [cita requerida]

Características de Windows Vista


Algunas de las mejoras ampliamente anunciadas son:
• Windows Aero: La nueva interfaz gráfica incluida en Windows Vista que sustituye a la Interfaz gráfica Luna
utilizada en Windows XP. Ofrece una interfaz gráfica más agradable y relajante a la vista del usuario. Incorpora
características como la semitransparencia de las ventanas, lo que permite ver lo que hay detrás de ellas. Otra
novedad son las mejoras en cuanto a la navegación entre las ventanas la cual se facilita debido a nuevas
características como el Flip 3D, además del efecto de cámara lenta.
• Internet Explorer 7: Viene incorporado con Windows Vista (también se puede descargar una versión para
Windows XP SP2) la cual incorpora varias mejoras como la navegación con pestañas y la vista Quick Tabs que
muestras vistas en miniatura de las páginas abiertas. También incluye algunas mejoras de seguridad como las
advertencias antiphishing y el modo protegido (sólo en Vista) que evita que los sitios web ejecuten código sin
permiso del usuario. Internet Explorer 8 es el sucesor de esta versión y ya está disponible para descargar en
Español desde la web de Microsoft.
• Windows Sidebar: (Barra lateral de Windows) es una nueva herramienta la cual se ubica en el costado derecho
de la pantalla y en la cual hay pequeños programas o Gadgets los cuales permiten tener acceso a pequeñas
herramientas sin necesidad de abrir una ventana. Algunos muestran la hora, el clima o permiten buscar
información en Google o Wikipedia, por mencionar algunos. Vista incluye unos Gadgets pre-instalados, pero
también es posible descargarlos de Internet, los cuales no son proporcionados solamente por Microsoft sino
también por otras empresas o personas.
• Windows Media Player 11: Esta nueva versión significo un cambio mayor con respecto a versiones pasadas, trae
una nueva interfaz y nueva organización de la librería.
• Windows Vista es el primer sistema operativo de Microsoft concebido para garantizar una compatibilidad total
con EFI (Extensible Firmware Interface), la tecnología llamada a reemplazar a las arcaicas BIOS que desde hace
más de dos décadas han formado parte indisoluble de los ordenadores personales, por lo tanto no empleará MBR
(Master Boot Record), sino GPT (GUID Partition Table)
• Ventanas dibujadas con gráficos vectoriales usando XAML y DirectX. Para ello, se utilizaría una nueva API,
llamada Windows Presentation Foundation, cuyo nombre en código es Avalon, que requiere una tarjeta gráfica
con aceleración 3D compatible con DirectX.
• WinFX, una API orientada a reemplazar la API actual llamada Win32. Ésta, junto con Avalon e Indigo, son los
pilares de Windows Vista.
• Capacidad nativa para grabar DVD.
• Una interfaz de línea de comando denominada Windows PowerShell, que finalmente se ofreció como una
descarga independiente para Windows Vista y Windows XP SP2.
• Se anunció una nueva extensión de base de datos al sistema de archivos llamada WinFS. El desarrollo de dicho
sistema de ficheros ha sido abandonado por Microsoft, por lo tanto no será incluido en Windows Vista, por el
momento, siendo compensado por un sistema de búsqueda basado en la indexación.
• Integra directamente en el sistema un lector de noticias RSS (Really Simple Syndication, por sus siglas en inglés).
• La utilidad de restauración del sistema ha sido actualizada e implementada como herramienta de inicio de sesión,
facilitando así el "rescate" del sistema.
• Un sistema unificado de comunicaciones llamado Windows Comunication Foundation, cuyo nombre en código es
Indigo.
• Un sistema antispyware denominado Windows Defender.
• Añade al firewall de sistema la capacidad de bloquear conexiones que salen del sistema sin previa autorización.
• Windows Mail, es un cliente de correo electrónico, reemplazando a Outlook Express.
Windows Vista 87

• Se incluye Windows ReadyBoost que es una tecnología de cache de disco incluida por primera vez en el sistema
operativo Windows Vista. Su objetivo es hacer más veloces a aquellos computadores que se ejecutan con el
mencionado sistema operativo mediante pendrives, tarjetas SD, CompactFlash o similares.
• Se ha incorporado la herramienta BitLocker Drive Encryption, para la protección de datos extraviados en las
versiones Enterprise y Ultimate.
• User Account Control (Control de cuenta de usuario): al contrario de las anteriores versiones de Windows los
nuevos usuarios de Windows Vista no tienen derechos de administrador por defecto. Para realizar tareas
administrativas aparece una ventana de confirmación.
• Incluye un "Sync Center" para sincronización de Windows Vista con Pocket PC sin necesidad de instalar el
"Active Sync".
• Windows Dreamscene, único en la versión Windows Vista Ultimate, consiste en un wallpaper dinámico basado en
un video. Se descarga por el Update del propio SO.
• Incorpora un sistema de protección llamado Windows Software Protection Platform (WSPP) que es más potente
que el actual Windows Genuine Advantage (WGA). Cuando detecte que la copia es ilegal, lo primero que hará
será avisar al usuario y si el usuario no logra obtener una copia auténtica el programa empezará a ir desactivando
opciones del sistema, como son el Aero o el Windows Defender hasta solo dejar activo lo más básico como es el
navegador.[5]
• Inclusión en varias de sus ediciones del centro de multimedios (Media Center) el cual puede ser utilizado por
medio de control remoto y controles para la consola de video juegos Xbox 360 y cuyas interfaces gráficas son
creadas por medio del lenguaje de formato MCML. Por medio del centro de multimedios los usuarios pueden
acceder al contenido de sus computadores desde la pantalla de su televisor y controlar el audio y video del mismo
por medio de un control remoto del tipo que se usa para controlar los televisores, video caseteras y otro aparatos
de este tipo. Aunque en Windows XP existían ediciones especiales que incluían el centro de multimedios, con
Windows Vista este ha sido modificado desde sus bases y ahora está incluido en algunas de las ediciones
normales del sistema operativo, en lugar de ser necesaria una edición especial del sistema para poder utilizarlo
como ocurría con la versión anterior de Windows.
• Carga aplicaciones un 15% más rápido que Windows XP gracias a la característica SuperFetch.
• Entra en modo de suspensión en 2 segundos.
• Se reduce en un 50% la cantidad de veces que es necesario reiniciar el sistema después de las actualizaciones.

Ediciones
El 26 de febrero de 2006, la compañía Microsoft anunció que la próxima versión del nuevo Windows incluiría 6
ediciones.[6] Todas las versiones están disponibles para arquitecturas (procesadores) de 32 y 64 bits, a excepción de
Microsoft Windows Vista Starter Edition, que sólo estará disponible en 32 bits, ya que es una edición de menores
prestaciones.
• Microsoft Windows Vista Starter Edition. Es una edición limitada a sólo algunos países y no tiene gran parte
de las características de Windows Vista.
• Microsoft Windows Vista Home Basic. No incluye muchas de las características de Windows Vista que sí
vemos en todas las superiores.
• Microsoft Windows Vista Home Premium. Está pensada para los hogares por la inclusión de aplicaciones como
Media Center.
• Microsoft Windows Vista Business. Es para empresas, que en vez de Media Center dispone de diversas
utilidades.
• Microsoft Windows Vista Enterprise. Sólo disponibles para grandes empresas. Es similar a Business con
algunas características añadidas.
• Microsoft Windows Vista Ultimate. No es más que la suma de las dos ediciones anteriores (Home Premium +
Vista Enterprise), es decir, la más completa de todas
Windows Vista 88

Con todas estas versiones, el tema queda realmente simplificado. ¿Cuál elegir? Aquella que cumpla con nuestras
necesidades. Las versiones básicas podrán ser actualizadas a las superiores mediante un sistema llamado Windows
Anytime Upgrade que, enviando nuestra clave de producto a Microsoft, nos desbloquearán ciertas características
aparte de darnos una clave nueva, y podremos disfrutar de una versión superior del Windows Vista.

Actualizaciones

Service Pack 1
El service Pack 1 (SP1) fue una actualización general que recibió Windows Vista en el 4 de febrero del 2008, y se
ocupa de los problemas que tuvo en la versión inicial. SP1 contiene los cambios específicos centrados en abordar las
cuestiones de rendimiento, fiabilidad y seguridad, el apoyo a nuevos tipos de hardware, mejor administración de la
memoria, resolver el problema con el consumo de energía en las baterías de las laptops, además de agregar soporte
para varios estándares emergentes de hardware y software, entre ellos destacando el soporte para sistema de archivos
exFAT, redes inalámbricas 802.11n, IPv6 en conexiones VPN, y el protocolo SSTP (Secure Socket Tuneling). El
núcleo del sistema SP1 (6001) es acorde con la versión de lanzamiento de Windows Server 2008.
Dos áreas que han visto grandes cambios en el SP1 son debidas a opiniones de programadores y vendedores de
software. Una de estas es la búsqueda en el escritorio; los usuarios podrán cambiar el programa predeterminado de
búsqueda a cualquiera proporcionado por terceros en lugar del Windows desktop search que incluye Windows Vista,
además de que los programas de búsqueda podrán acoplarse íntegramente con los servicios propios del sistema
operativo. Estos cambios son en parte debido a quejas de la compañía Google, cuya aplicación Google Desktop
Search era opacada por el sistema nativo de búsqueda en Vista.
Una actualización de DirectX 10, denominada DirectX 10.1, hace obligatorias muchas características previamente
opcionales en dispositivos de hardware Direct3D 10.
El SP1 activa soporte para parches 'en caliente', tecnología diseñada para optimizar el tiempo de carga y disminuir
los reinicios. Su funcionamiento permite a los componentes de Windows ser actualizados (o "parchados") mientras
son utilizados por un proceso en ejecución. Los paquetes de actualización 'en caliente' son instalados mediante los
mismos métodos que los paquetes de actualización tradicionales, y no necesitarán de un reinicio del sistema.

Service Pack 2
Esta actualización ya se encuentra en su versión final en los idiomas alemán, español (tradicional), francés, inglés y
japonés, y a lo largo de unas semanas se traducirá al resto de idiomas en los que se vende el sistema operativo.
Algunas características que se añaden son:
• Windows Search 4.0.
• Soporte para Bluetooth 2.1.
• Permite grabar en Blu-ray sin necesidad de software adicional.
• Integra Windows Conect Now para simplificar las conexiones Wi-Fi.
• Mejora el soporte para archivos exFAT que soporta UTC Timestamps.
• Mejora hasta un 10% la eficiencia energética en los ordenadores portátiles.
• Reduce el tiempo que el sistema necesita para recuperar la conexión Wi-Fi cuando sale del modo de hibernación.
• Aumenta el límite de conexiones TCP disponibles.
• Reducción del uso de recursos de los Gadgets.
• Inclusión de Hyper-V.
• Actualizaciones de Sistema sin reiniciar el Sistema Operativo.
Windows Vista 89

Seguridad y vulnerabilidades
Aunque de acuerdo con Microsoft, Windows Vista es el Windows "más seguro", se han detectado algunos fallos de
seguridad, e incluso, la compañía de antivirus Trend Micro ha dicho que ciertos crackers están vendiendo exploits
hasta en 50.000 dólares.[7]
Recientemente se publicó en un foro en ruso[8] el código de un exploit de aumento de privilegios. Todas las
versiones de Windows resultan afectadas, incluyendo Windows Vista.
La causa de la vulnerabilidad es la corrupción de la memoria cuando ciertas cadenas son enviadas mediante
MessageBox API.[9] Esto permite un aumento de privilegios locales en Windows 2000 SP4, Windows Server 2003
SP1, Windows XP SP1, Windows XP SP2 y Windows Vista.
Otra debilidad encontrada, ha sido un fallo en el sistema de reconocimiento de voz conocida como shout hacking.
Este fallo de seguridad fue reportado en el sitio de ZD Net[10] por George Ou. De acuerdo con este informe, Ou fue
capaz de entrar al menú de inicio y ejecutar programas usando comandos de voz por medio de los altavoces del
sistema.
Aun y con estos reportes Windows Vista ha recibido la mitad de "vulnerabilidades" que su contraparte Windows XP
en el mismo lapso de tiempo.

Críticas
Windows Vista ha recibido muchas evaluaciones negativas.[11] Entre estas se incluyen su bajo rendimiento respecto
a otros sistemas operativos, prolongado tiempo de desarrollo, su nueva licencia de uso —aún más restrictiva que las
anteriores—, su usabilidad, sus requerimientos de hardware, y existen también críticas con respecto a su precio.
Las principales críticas negativas que pueden darse de Windows Vista es su incompatibilidad con la mayor parte de
los accesorios con los que trabaja un ordenador destinado a ejecutar actividades profesionales en campos
empresariales, editoriales o de diseño. Se ha dicho que Windows Vista sirve sobre todo a usuarios domésticos, pero
no a profesionales, debido a las limitaciones que ofrece para trabajar con complementos informáticos actualmente no
compatibles con este sistema operativo.

Requisitos de hardware
Los equipos aptos para ejecutar Windows Vista están clasificados como Vista Capable (PC apta para Windows
Vista) y Vista Premium Ready. Se catalogan como Vista Capable a los equipos que pueden llegar a ejecutar
Windows Vista, sabiendo que la versión Home Basic puede funcionar perfectamente. Sin embargo, no se garantiza el
mismo rendimiento para otras versiones, ni tampoco que distintas funciones de otras versiones de Vista (por
ejemplo, la interfaz gráfica Aero Glass) funcionen correctamente, ya que éstas podrán requerir mayores recursos de
Hardware. Pero de lo que se puede estar seguro es que el sistema operativo funcionará, y con una actualización no
muy complicada al equipo (agregar RAM, cambiar la tarjeta de video, etc), podremos pasar a la categoría Vista
Premium Ready. En esta última, estaremos seguros de que la versión Ultimate de este sistema operativo funcionará
plenamente, y se podar sacar partido de todas las funciones de Windows Vista.[12] [13]
Windows Vista 90

Requerimientos mínimos del sistema para Windows Vista[14]


Vista Capable Vista Premium Ready

Procesador [15] 1.0 GHz


800 MHz

Memoria RAM 512 MB 1 GB

Tarjeta gráfica Compatible con DirectX 9.0 • Compatible con DirectX 9.0
• Soporte para controladores WDDM
• Pixel Shader v2.0 y 32 bits por
pixel

Memoria gráfica 32 MB 128 MB

Capacidad HDD 20 GB 40 GB

Espacio libre 15 GB
HDD

Unidades DVD-ROM

Precios
Los precios (en dólares) orientativos de Microsoft Windows Vista según la web de Microsoft, pero sin confirmar
son:[16]

Edición Actualización Paquete Precio en tiendas (13/12/2007)


entero

[17] 76,59 179,00 299,00


Microsoft Windows Vista Home Basic

159,00 219,00 359,00


Microsoft Windows Vista Home Premium
[18]

[19] 188,00 280,27 479.00


Microsoft Windows Vista Business

[20] 1022,20
Microsoft Windows Vista Enterprise

[21] 340,00 400,00 599,00


Microsoft Windows Vista Ultimate

* Si se adquiere licencia por volumen el precio se reduce. Todos sufren una modificación al ser rebajados un 40% en
marzo de 2008.

Enlaces externos
Páginas oficiales
• Microsoft Windows Vista (Inglés) [22]
• Microsoft Windows Vista (Español) [23]
• Microsoft Windows Vista (Latinoamérica) [24]
Noticias y artículos de prensa
Wikinoticias
• Artículos en Wikinoticias: Bill Gates presenta nuevos detalles de Windows Vista
• Análisis de costes del sistema de protección de contenidos de Windows Vista [25] (En Inglés)
• Tweak Vista [26] (En Inglés)
Recursos
• Material didáctico y complementos [27] (Creative Commons)
Windows Vista 91

Datos, curiosidades y errores


• Lista de datos, curiosidades y errores de la versión en español de Windows Vista [28]
Fotografías
• Windows Live Gadgets [29] - Galería de Gadgets para el Sidebar de Windows Vista, puedes descargar y crear
propios. Gadget en español de ejemplo.

Predecesor: Sistema operativo para equipos de escritorio, parte de la familia Microsoft Sucesor:
Windows XP Windows Windows
2006 - Presente 7

Referencias
[1] http:/ / www. microsoft. com/ spain/ windows/ windows-vista/
[2] http:/ / www. microsoft. com/ presspass/ features/ 2006/ nov06/ 11-08VistaRTM. mspx
[3] http:/ / windowsteamblog. com/ blogs/ windowsvista/ archive/ 2009/ 04/ 28/
windows-vista-sp2-rtm-windows-vista-sp1-blocker-tool-removed. aspx
[4] « Ciclo de vida de soporte de Microsoft (Windows Vista Business) (http:/ / support. microsoft. com/ lifecycle/ ?p1=11707)». Microsoft.
Consultado el 16-01-2009.
[5] WSPP: El nuevo sistema de protección de Windows Vista (http:/ / www. players4players. com/ noticia/ 22874/
wspp-el-nuevo-sistema-de-proteccion-de-windows-vista/ )
[6] Microsoft Unveils (http:/ / www. microsoft. com/ presspass/ press/ 2006/ feb06/ 02-26WinVistaProductsPR. mspx) Microsoft Windows Vista
Product Lineup (http:/ / www. wlndowsvista. com), nota de prensa de Microsoft, el 26 de febrero de 2006 (inglés).
[7] Crackers Selling Vista Zero-Day Exploit (http:/ / www. eweek. com/ article2/ 0,1895,2073611,00. asp)
[8] Убийственный MessageBox от Мелкомягких (http:/ / www. kuban. ru/ forum_new/ forum2/ files/ 19124. html)
[9] Vista Exploit Surfaces on Russian Hacker Site (http:/ / www. eweek. com/ article2/ 0,1895,2076062,00. asp)
[10] Vista Speech Command exposes remote exploit (http:/ / blogs. zdnet. com/ Ou/ ?p=416)
[11] « El gigante que da pasos en falso (http:/ / www. clarin. com/ diario/ 2008/ 12/ 17/ um/ m-01824066. htm)».
[12] « Microsoft and PC Manufacturers Make It Easier for Customers to Get Ready for Windows Vista (http:/ / www. microsoft. com/ presspass/
press/ 2006/ may06/ 05-18GetReadyPR. mspx)». PressPass. Microsoft (18-05-2006). Consultado el 18-05-2006.
[13] « Windows Vista Upgrade Advisor (http:/ / www. microsoft. com/ windowsvista/ getready/ upgradeadvisor/ default. mspx)». Consultado el
25-06-2006.
[14] PC apto para Windows Vista y preparado para Premium (http:/ / www. microsoft. com/ spain/ windows/ products/ windowsvista/
buyorupgrade/ capable. mspx)
[15] Windows Vista minimum supported system requirements « Windows Vista: Recommended System Requirements (http:/ / www. microsoft.
com/ windows/ products/ windowsvista/ editions/ systemrequirements. mspx)». Microsoft. Consultado el 13-03-2008.
[16] Precios de lanzamiento de Windows Vista (http:/ / www. players4players. com/ noticia/ 22605/ precios-de-lanzamiento-de-windows-vista/ )
[17] http:/ / www. microsoft. com/ latam/ windows/ products/ windowsvista/ editions/ homebasic/ default. mspx
[18] http:/ / www. microsoft. com/ latam/ windows/ products/ windowsvista/ editions/ homepremium/ default. mspx
[19] http:/ / www. microsoft. com/ latam/ windows/ products/ windowsvista/ editions/ business/ default. mspx
[20] http:/ / www. microsoft. com/ latam/ windows/ products/ windowsvista/ editions/ enterprise/ default. mspx
[21] http:/ / www. microsoft. com/ latam/ windows/ products/ windowsvista/ editions/ ultimate/ default. mspx
[22] http:/ / www. windowsvista. com
[23] http:/ / www. microsoft. com/ spain/ windowsvista
[24] http:/ / www. microsoft. com/ latam/ windowsvista/ default. mspx
[25] http:/ / www. cs. auckland. ac. nz/ ~pgut001/ pubs/ vista_cost. html
[26] http:/ / www. tweakvista. nl/
[27] http:/ / www. recursos-vista. es/
[28] http:/ / erwin. ried. cl/ ?modo=visor& elemento=236
[29] http:/ / gallery. live. com/ liveItemDetail. aspx?li=46046af6-983f-4131-b50d-2662efbf9a87
Windows 7 92

Windows 7
Windows 7

Parte de la familia Microsoft Windows

Desarrollador

Microsoft
Sitio web oficial
[1] [2]
Latinoamérica - España

Información general

Modelo de desarrollo Software propietario; Shared Source

Lanzamiento inicial RTM (Released to Manufacturing): 22 de julio de 2009


[3]
GA (Disponibilidad General): 22 de octubre de 2009 (info )

Última versión estable [4]


6.1 (Compilación 7600) (info )
22 de julio de 2009

Núcleo NT 6.1

Tipo de núcleo Híbrido

Plataformas soportadas IA-32, x86-64

Método de actualización Windows Update; en empresas se aplican tecnologías como WSUS y SCCM)

Licencia Microsoft CLUF (EULA)

Idiomas Multilingüe

En español

Soporte técnico

[4]
Período de soporte estándar hasta el 13 de enero de 2015. Después, período de soporte extendido hasta el 14 de enero de 2020.

Artículos relacionados

• Desarrollo de Windows 7
• Ediciones de Windows 7

Windows 7 es la versión más reciente de Microsoft Windows, línea de sistemas operativos producida por Microsoft
Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas,
equipos portátiles, tablet PC, netbooks y equipos media center.[5] El desarrollo de Windows 7 se completó el 22 de
julio de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su
equivalente para servidores Windows Server 2008 R2.[6]
A diferencia del gran salto arquitectónico y de características que sufrió su antecesor Windows Vista con respecto a
Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT
6.0, lo que permitió mantener cierto grado de compatibilidad con aplicaciones y hardware en los que éste ya era
compatible.[7] Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia a mejorar su interfaz
para volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera
más fácil y rápida, al mismo tiempo que se realizarían esfuerzos para lograr un sistema más ligero, estable y
rápido.[8]
Windows 7 93

Diversas presentaciones ofrecidas por la compañía en 2008 se enfocaron en demostrar capacidades multitáctiles, una
interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas fácil de usar denominado
Grupo en el Hogar,[9] además de grandes mejoras en el rendimiento general del equipo.

Desarrollo
El desarrollo de este sistema operativo comenzó inmediatamente después del lanzamiento de Windows Vista. El 20
de julio de 2007 se reveló que ese sistema operativo era llamado internamente por Microsoft como la versión "7".
Hasta ese momento la compañía había declarado que Windows 7 tendría soporte para plataformas de 32 bits y 64
bits,[10] aunque la versión para servidores que comparte su mismo núcleo (Windows Server 2008 R2, que sucedería a
Windows Server 2008) sería exclusivamente de 64 bits.[11]
El 13 de octubre de 2008 fue anunciado que "Windows 7", además de haber sido uno de tantos nombres en código,
sería el nombre oficial de este nuevo sistema operativo. Mike Nash dijo que esto se debía a que con Windows 7 se
"apunta a la simplicidad, y el nombre debía reflejarlo".
Ya para el 7 de enero de 2009, la versión beta se publicó para suscriptores de Technet y MSDN. El 9 de enero se
habilitó brevemente al público general mediante descarga directa en la página oficial, pero hubo problemas con los
servidores, que obligaron a retirar la posibilidad de descarga hasta horas más tarde, después de solventar el problema
añadiendo más servidores. Por esos percances, Microsoft cambió el límite de descargas inicial de 2,5 millones de
personas como disculpa por el problema del retraso, y creó un nuevo límite que no sería numérico sino por fecha,
hasta el 10 de febrero del 2009.
El 5 de mayo se liberó la versión Release Candidate en 5 idiomas, entre ellos el español. Estuvo disponible para
descargar hasta el 20 de agosto de 2009.
El 2 de junio Microsoft anunció que la salida mundial de Windows 7 tendría lugar el 22 de octubre.[12]
El 24 de julio, los directivos de Microsoft Steve Ballmer y Steven Sinofsky anunciaron la finalización del proceso de
desarrollo con la compilación de la versión RTM, destinada a la distribución de Windows.[13]
Otro asunto presente en el desarrollo de este sistema, y gracias a los comentarios de los usuarios, fue el minimizar la
intrusión habilitando la personalización del Control de Cuentas de Usuario, ya que éste fue considerado como
molesto en Windows Vista debido a sus constantes alertas en simples acciones como las de mantenimiento que
invocaban funciones propias del sistema operativo.[14]
En una carta escrita por el vicepresidente de negocios para Windows de Microsoft Corporation, William Veghte, se
mencionan apartes sobre la visión que se tuvo para Windows 7:
Hemos aprendido mucho a través de los comentarios que ustedes han compartido con nosotros acerca de Windows
Vista, y esa retroalimentación juega un papel importante en nuestro trabajo para Windows 7. Nos han dicho que
desean una programación más estructurada y predecible para la liberación de Windows...
...nuestro enfoque hacia Windows 7 es basarnos en la misma arquitectura de fondo de Windows Vista Service Pack
1, de manera que las inversiones que ustedes y nuestros socios han realizado en Windows Vista continúen redituando
con Windows 7. Nuestro objetivo es asegurar que el proceso de migración de Windows Vista a Windows 7 sea
transparente.[15]

Características
Windows 7 incluye numerosas actualizaciones, entre las que se encuentran avances en reconocimiento de voz, táctil
y escritura, soporte para discos virtuales, mejor desempeño en procesadores multi-núcleo, mejor arranque y mejoras
en el núcleo. También ahora, cuando inicia, tiene los cuatro puntos de los colores de Windows (Rojo, Azul, Verde y
Amarillo) que giran en el centro de la pantalla para formar el logo de Windows, y una leyenda debajo dice:
"Iniciando Windows".
Windows 7 94

Bibliotecas
• Las "Bibliotecas" son carpetas virtuales que agregan el contenido de varias carpetas y las muestran en una sola.
Por ejemplo, las carpetas agregadas en la librería "Vídeos" por defecto son: "Vídeos Personales" (antes "Mis
Vídeos") y "Vídeos Públicos", aunque se pueden agregar más manualmente. Sirven para clasificar los diferentes
tipos de archivos (Documentos, Música, Vídeos, Fotos).

Barra de tareas
• La barra de tareas fue rediseñada haciéndola más ancha y los botones de las ventanas ya no traen texto, sino
únicamente el icono de la aplicación. Estos cambios se hacen para mejorar el desempeño en sistemas de pantalla
táctil. Los íconos se han integrado con el inicio rápido, y ahora las ventanas abiertas se muestran agrupadas en ese
único icono con un borde, indicando que están abiertas. Los accesos directos sin abrir no tienen un borde.
• Aero Peek: Las previsualizaciones incluidas desde Windows Vista se han mejorado pasando a ser más
interactivas y útiles. Cuando se posa el mouse sobre una aplicación abierta éste muestra una previsualización de la
ventana, donde muestra el nombre, la previsualización y la opción de cerrarla; además, si se pone el ratón sobre la
previsualización, se obtiene una mirada a pantalla completa y al quitarlo se regresa al punto anterior. Además se
incorporó esta misma característica a Windows Flip.
• Jump List: Haciendo clic derecho a cualquier aplicación de la barra de tareas aparece una "Jump List" (Lista de
saltos), donde se pueden hacer tareas sencillas de acuerdo a la aplicación. Por ejemplo, abrir documentos recientes
de Office, abrir pestañas recientes de Internet Explorer, escoger listas de reproducción en el Media Player,
cambiar el estado en Windows Live Messenger, etc.
• Barra Mostrar Escritorio: Esta nueva barra trae un pequeño rectángulo en la esquina derecha que reemplaza el
icono en inicio rápido de versiones anteriores. Este nuevo "rectángulo" permite que al poner el puntero sobre él
haga que las ventanas se pongan 100% transparentes; esto sirve para poder ver el escritorio de manera rápida, ver
gadgets u otras cosas, o también simplemente se le puede dar clic y minimizar todas las ventanas.

Multimedia
Windows 7 incluye consigo Windows Media Center y Windows Media Player 12.

Interfaz
• El equipo de desarrollo de la interfaz Ribbon de Microsoft Office 2007 formó parte activa en el rediseño de
algunos programas y características de Windows 7, incluyendo dicha interfaz en las herramientas Paint y
Wordpad.
• La barra lateral de Windows, o más conocida como Windows Sidebar, se ha eliminado y ahora, como pasaba en
Vista, los gadgets pueden ubicarse libremente en cualquier lugar del escritorio, ya sea en el lado derecho,
izquierdo, arriba o abajo, pero sin contar con la Sidebar.
• Aero Shake: Cuando se tienen varias ventanas abiertas, al seleccionar una y agitarla, las otras ventanas abiertas
se minimizan. Al repetir esta acción, las ventanas vuelven a su ubicación anterior.
Windows 7 95

Multitáctil
El 27 de mayo de 2008, Steve Ballmer y Bill Gates, en la conferencia "D6: All Things Digital", dieron a conocer la
nueva interfaz multitáctil llamándola "sólo una pequeña parte" de lo que vendrá con Windows 7. Más tarde Julie
Larson Green, vicepresidente corporativa, mostró posibles usos, como hacer dibujos en Paint, agrandar o reducir
fotos y recorrer un mapa en Internet, arrastrar y abrir elementos, simplemente con toques en la pantalla.

Modo XP
Véase también: Windows Virtual PC

Windows 7 permite integrarse con la nueva versión Windows Virtual PC, que permite ejecutar un equipo virtual
Windows XP en forma transparente para el usuario (la aplicación dentro de la máquina virtualizada se ve como otra
opción en el menú de Windows 7 y su ejecución es directa, sin pasar por el menú de inicio del XP virtualizado). Si
bien Microsoft ya había liberado MED-V dentro de su paquete MDOP que cumple la misma función en entornos
Hyper-V, esta es una solución orientada a usuarios avanzados y pequeñas empresas que no necesitan de herramientas
para administración centralizada. La funcionalidad se debe descargar de forma independiente en el sitio web de
Microsoft Virtual PC [16], aunque requiere de una licencia válida de las ediciones Professional, Ultimate y Enterprise
de Windows 7. Asimismo, el "modo XP" en un principio requiere de procesadores con capacidad de virtualización
por hardware, a diferencia del anterior Virtual PC 2007 o Virtual PC 2008, pero mediante una actualización desde
Windows Update se puede ejecutar el "modo XP" en ordenadores sin virtualización por hardware.

Compatibilidad
Las versiones cliente de Windows 7 serán lanzadas en versiones para arquitectura 32 bits y 64 bits en las ediciones
Home Basic, Home Premium, Professional y Ultimate. No obstante, las versiones servidor de este producto serán
lanzadas exclusivamente para arquitectura 64 bits.
Esto significa que las versiones cliente de 32 bits aún soportarán programas Windows 16 bits y MS-DOS. Y las
versiones 64 bits (incluyendo todas las versiones de servidor) soportarán tanto programas de 32 como de 64 bits.

Otras características
Microsoft ha decidido no incluir los programas Windows Mail, Windows Movie Maker y Windows Photo Gallery en
Windows 7, poniéndolos a disposición a modo de descarga en el conocido paquete de servicios en red, Windows
Live Essentials.[17] Esto se ha decidido para facilitar las actualizaciones de estos programas, aligerar el sistema
operativo, dejar escoger al usuario las aplicaciones que quiere tener en su equipo y evitar futuras demandas por
monopolio.

Service Pack
Ya esta disponible la beta pública del service pack 1 de Windows 7 y Windows Server 2008 R2 (14/07/2010), es un
lanzamiento preliminar de Windows 7 y Windows Server 2008 R2 SP1 Beta no está disponible para usuarios
domésticos. SP1 Beta no proporciona nuevas características para usuarios finales y la instalación no cuenta con
soporte técnico de Microsoft.Windows 7 y Windows Server 2008 R2 SP1 Beta ayudan a mantener a los equipos y
los servidores en el nivel de compatibilidad más reciente y proporcionan mejoras continuas para el sistema operativo
Windows (SO); para ello, incluyen las actualizaciones anteriores proporcionadas mediante Windows Update y las
actualizaciones continuas incrementales para las plataformas Windows 7 y Windows Server 2008 R2 SP, según los
comentarios de clientes y socios. Además, facilitan que las organizaciones implementen un solo conjunto de
actualizaciones.
Windows 7 y Windows Server 2008 R2 SP1 Beta le ayudarán a:
Windows 7 96

Mantener sus equipos compatibles y actualizados. Obtener actualizaciones continuas para la plataforma Windows 7.
Implementar actualizaciones acumulativas fácilmente de una sola vez. Satisfacer las exigencias de mayor movilidad
empresarial de los usuarios. Proporcionar un conjunto integral de innovaciones de virtualización. Proporcionar un
modelo de implementación de Service Pack más sencillo para alcanzar una mayor eficiencia de TI.
Requisitos para instalar service pack 1 de Windows 7 y Windows Server 2008 R2: Tener instalada una versión RTM
(Relase To Manufacturing) de Windows 7 o Windows Server 2008 R2.

Ediciones
Existen seis ediciones de Windows 7, construidas una sobre otra de manera incremental, aunque solamente se
centrarán en comercializar tres de ellas para el común de los usuarios: las ediciones Home Premium, Professional y
Ultimate. A estas tres, se suman las versiones Home Basic y Starter, además de la versión Enterprise, que está
destinada a grupos empresariales que cuenten con licenciamiento "Open" o "Select" de Microsoft.
• Starter: Es la versión de Windows 7 con menos funcionalidades. Posee una versión incompleta de la interfaz
Aero que no incluye los efectos de transparencia Glass, Flip 3D o las vistas previas de las ventanas en la barra de
inicio y además no permite cambiar el fondo de escritorio. Está dirigida a PC de hardware limitado —como
netbooks—, siendo licenciada únicamente para integradores y fabricantes OEM. Incluye una serie de restricciones
en opciones de personalización, además de ser la única edición de Windows 7 sin disponibilidad de versión para
hardware de 64 bits.
• Home Basic: Versión con más funciones de conectividad y personalización, aunque su interfaz seguirá siendo
incompleta como en la edición Starter. Sólo estará disponible para integradores y fabricantes OEM en países en
vías de desarrollo y mercados emergentes.
• Home Premium: Además de lo anterior, se incluye Windows Media Center, el tema Aero completo y soporte
para múltiples códecs de formatos de archivos multimedia. Disponible en canales de venta minoristas como
librerías, tiendas y almacenes de cadena.
• Professional: Equivalente a Vista "Business", pero ahora incluirá todas las funciones de la versión Home
Premium más "Protección de datos" con "Copia de seguridad avanzada", red administrada con soporte para
dominios, impresión en red localizada mediante Location Aware Printing y cifrado de archivos. También
disponible en canales de venta al público.
• Enterprise: Añade sobre la edición Professional de Windows 7, características de seguridad y protección de
datos como BitLocker en discos duros externos e internos, Applocker, Direct Access, BranchCache, soporte a
imágenes virtualizadas de discos duros (en formato VHD) y el paquete de opción multilenguaje. Únicamente se
vende por volumen bajo contrato empresarial Microsoft software Assurance. También es la única que da derecho
a la suscripción del paquete de optimización de escritorio MDOP.
• Ultimate: Esta edición es igual a la versión Enterprise pero sin las restricciones de licenciamiento por volumen,
permitiéndose su compra en canales de venta al público general, aunque Microsoft ha declarado que en lugar de
publicitarse en medios comunes, será ofrecida en promociones ocasionales de fabricantes y vendedores.
• Ediciones N: Las ediciones N están disponibles para actualizaciones y nuevas compras de Windows 7 Home
Premium, Professional y Ultimate. Las características son las mismas que sus versiones equivalentes, pero no
incluyen Windows Media Player. El precio también es el mismo, ya que Windows Media Player puede
descargarse gratuitamente desde la página de Microsoft.
Windows 7 97

Requisitos de hardware
A finales de abril del 2009 Microsoft dio a conocer los requerimientos finales de Windows 7.

Requisitos de hardware mínimos recomendados para Windows 7[18]


Arquitectura 32 bits 64 bits

Procesador 1 GHz

Memoria RAM 1 GB de RAM 2 GB de RAM

Tarjeta gráfica Dispositivo de gráficos DirectX 9 con soporte de controladores WDDM 1.0 (para Windows Aero)

Disco duro 16 GB de espacio libre 20 GB de espacio libre

Unidad óptica DVD-R

Opcionalmente, se requiere un monitor táctil para poder acceder a las características "multitáctiles" nuevas en este
sistema.

Acogida
En julio de 2009, tras sólo ocho horas, la demanda de pre-órdenes de Windows 7 en Amazon.co.uk sobrepasó la
demanda que tuvo Windows Vista en sus primeras 17 semanas.[19] Con ello, se convirtió en el producto con mayor
cantidad de pre-órdenes en la historia de Amazon, sobrepasando en ventas al anterior récord, el último libro de Harry
Potter.[20] En Japón y tras 36 horas, las versiones de 64 bits de las ediciones Professional y Ultimate de Windows 7
se agotaron.[21] Dos semanas después del lanzamiento, se anunció que su cuota de mercado sobrepasó totalmente la
de Snow Leopard, la más reciente actualización del sistema operativo Apple Mac OS X, el cual fue lanzado dos
meses antes.[22] [23] De acuerdo a "Net Applications", Windows 7 alcanzó un 4% de cuota de mercado en menos de
tres semanas; en comparación, le tomó a Windows Vista siete semanas en alcanzar la misma meta.[24] El 29 de enero
de 2010, Microsoft anunció que habían vendido más de 60 millones de licencias de Windows 7.[25]
Las evaluaciones hechas a Windows 7 fueron en su mayoría positivas, destacando su facilidad de uso en
comparación con su predecesor, Windows Vista. CNET le dio a Windows 7 Home Premium una puntuación de 4,5
sobre 5 estrellas,[26] señalando que «es más de lo que Vista debió ser, [y es] a donde Microsoft necesitaba dirigirse».
PC Magazine lo puntuó con 4 de 5 declarando que Windows 7 era «un gran avance sobre Windows Vista, con menos
problemas de compatibilidad, una barra de tareas con más herramientas, capacidades de conexión a redes más
simples y un arranque más veloz».[27] Maximum PC le dio a 7 un puntaje de 9 sobre 10 y llamó a Windows 7 un
«enorme salto hacia adelante en usabilidad y seguridad», destacando la nueva barra de tareas declarando que «paga
por sí sola el precio de entrada».[28] PC World denominó a Windows 7 como un "sucesor digno" de Windows XP y
declaró que las pruebas de velocidad mostraban a Windows 7 ligeramente más rápido que Windows Vista.[29] PC
World también consideró a Windows 7 como uno de los mejores productos del año.[30] En su evaluación de
Windows 7, Engadget declaró que Microsoft había tomado un "fuerte paso hacia adelante" con Windows 7 y reportó
que la velocidad de Windows 7 era una característica de importancia, particularmente en ventas de equipos tipo
netbook.[31] También, los diarios estadounidenses New York Times,[32] USA Today,[33] The Wall Street Journal,[34] y
The Telegraph le dieron evaluaciones favorables.[35]
En España, la campaña publicitaria de Microsoft para Windows 7 promocionó a la localidad "Sietes" en Asturias
como sitio de lanzamiento, con lo cual se pintaron fachadas, además de donar equipos, capacitar y enseñar a los
habitantes del pueblo sobre el uso de tecnologías informáticas como Internet.[36] En este escenario rural, se destacó
la idiosincrasia y el folclor del pueblo junto a sus habitantes con el lema de «Sietes: un pueblo de expertos en
Windows 7».[37] A nivel nacional, la revista PC Actual destacó a Windows 7 como «más rápido, amigable, estable y
seguro; menos exigente con el hardware».[38]
Windows 7 98

Regulación antimonopolio
Para cumplir con las regulaciones antimonopólicas de la Unión Europea, Microsoft propuso el uso de una "pantalla
de elección" (en inglés ballot screen), permitiendo a los usuarios desactivar, descargar e instalar o seleccionar como
predeterminado a cualquier navegador web, con ello eliminando la necesidad de editar una edición de Windows sin
Internet Explorer (previamente denominada "Windows 7 E").[39] La pantalla de elección llegó en respuesta a críticas
sobre Windows 7 E, además de preocupaciones dadas a conocer por fabricantes y ensambladores sobre la posibilidad
de confusión de algunos usuarios si una versión de Windows 7 con Internet Explorer sería vendida junto con una que
no lo tuviese; por ello, Microsoft anunció que descartaría versiones especiales para Europa y que se distribuirían los
mismos paquetes estándares y de actualización que en otras partes del mundo.[40]
Al igual que con versiones anteriores de Windows, se publicó una edición "N" de Windows 7 (la cual no incluye
Windows Media Player) en Europa, aunque sólo está disponible a la venta desde la tienda online de Microsoft o
mediante ofertas de socios específicos.[41]

Campaña "Windows 7 Pecados" ("Windows 7 Sins")


En agosto de 2009, la organización Free Software Foundation (Fundación para el Software Libre) lanzó una
campaña informativa denominada en inglés "Windows 7 Sins" (juego de palabras que en español tendría el doble
sentido de "Los 7 pecados de Windows" o "Windows 7 peca") acerca de cómo este nuevo sistema operativo de
Microsoft da un posible nuevo paso para el control sobre los derechos de los usuarios,[42] además de enviar cartas
por correspondencia con destino a 499 compañías que se encontraban en el 2009 en el listado Fortune 500
(omitiendo a Microsoft Corporation) a manera de protesta pública.[43] [44]

Enlaces externos
• Sitio web oficial de Windows 7: Microsoft España [2] - Microsoft Latinoamérica [1] - Microsoft USA [45] (en
inglés)
• Paseo por Windows 7 [46]
• Engineering Windows 7 (MSDN) [47] Blog oficial en inglés
• The Windows Blog [48] (en inglés)
• Explorando Windows [49] Blog oficial en español
• Laboratorio Windows 7 [50] Micrositio interactivo sobre Windows 7
• Modo XP en Windows 7 [51] Blog oficial de Microsoft para CIO
• Descarga del "modo XP" [52] (en inglés)

Predecesor: Sistema operativo para equipos de escritorio, parte de la familia Microsoft Sucesor:
Windows Windows Windows 8
Vista 2009 - Presente (Por confirmar)
Windows 7 99

Referencias
[1] http:/ / windows. microsoft. com/ es-XL/ windows7/ products/ windows-7
[2] http:/ / windows. microsoft. com/ es-ES/ windows7/ products/ windows-7
[3] http:/ / windowsteamblog. com/ blogs/ windows7/ archive/ 2009/ 07/ 21/ when-will-you-get-windows-7-rtm. aspx
[4] « Ciclo de vida de soporte Técnico de Microsoft (Windows 7 Professional) (http:/ / support. microsoft. com/ lifecycle/ ?p1=14481)».
Microsoft. Consultado el 30-09-2009.
[5] « Cnet: Next version of Windows: Call it 7 (http:/ / www. news. com/ 2100-1016_3-6197943. html)».
[6] Hoy sale a la venta, Windows 7, la nueva versión del sistema operativo de Microsoft (http:/ / www. publico. es/ ciencias/ 262706/ windows/
penultima/ oportunidad/ microsoft)
[7] « ¿Why 7? (6.1) (http:/ / windowsteamblog. com/ blogs/ windowsvista/ archive/ 2008/ 10/ 14/ why-7. aspx)».
[8] Nash, Mike (28 de octubre de 2008). « Windows 7 Unveiled Today at PDC 2008 (http:/ / windowsteamblog. com/ blogs/ windows7/ archive/
2008/ 10/ 28/ windows-7-unveiled-today-at-pdc-2008. aspx)». MicrosoftWindows Team Blog. Consultado el 11-11-2008.
[9] LeBlanc, Brandon (28 de octubre de 2008). « How Libraries & HomeGroup Work Together in Windows 7 (http:/ / windowsteamblog. com/
blogs/ windowsexperience/ archive/ 2008/ 10/ 28/ how-libraries-amp-homegroup-work-together-in-windows-7. aspx)». MicrosoftWindows
Team Blog. Consultado el 11-11-2008.
[10] Foley, Mary J (20-07-2007). Windows Seven: Think 2010 (http:/ / blogs. zdnet. com/ microsoft/ ?p=592). ZDNet. .
[11] David Flynn (May 17, 2007). « Vista will be the last version of Windows for Pentium 4 and Core Duo owners (http:/ / apcmag. com/ 6121/
windows_server_gets_vista_version_itis)».
[12] Windows 7 de Microsoft saldrá al mercado a fines de octubre (http:/ / lta. reuters. com/ article/ businessNews/ idLTASIE5511XV20090602)
[13] Desempeño de Arranque (en inglés) (http:/ / blogs. msdn. com/ e7/ archive/ 2008/ 08/ 29/ boot-performance. aspx)
[14] Futuras Mejoras del Control de Cuentas de Usuario (en inglés) (http:/ / blogs. msdn. com/ e7/ archive/ 2008/ 10/ 08/ user-account-control.
aspx)
[15] Actualización sobre el Plan de Desarrollo de Windows (http:/ / www. microsoft. com/ latam/ windows/ letter. mspx)
[16] http:/ / www. microsoft. com/ spain/ windows/ virtual-pc/ download. aspx
[17] LeBlance, Brandon (28 de octubre de 2008). « The Complete Windows Experience – Windows 7 + Windows Live (http:/ /
windowsteamblog. com/ blogs/ windowsexperience/ archive/ 2008/ 10/ 28/ the-complete-windows-experience-windows-7-windows-live.
aspx)». MicrosoftWindows Team Blog. Consultado el 11-11-2008.
[18] « Microsoft releases final Windows 7 system requirements (http:/ / blogs. zdnet. com/ microsoft/ ?p=2643)».
[19] « Windows 7 flies off virtual shelf (http:/ / news. bbc. co. uk/ 1/ hi/ technology/ 8151342. stm)», 15-07-2009. Consultado el 15-07-2009 (en
inglés).
[20] « Windows 7 set to break retail records (http:/ / www. guardian. co. uk/ technology/ 2009/ oct/ 21/ windows-7-launch)», 21-10-2009.
Consultado el 21-10-2009 (en inglés).
[21] « 64bit版Windows 7は人気でやや品薄、週明けには回復? (http:/ / akiba-pc. watch. impress. co. jp/ hotline/ 20091024/ etc_win75.
html)» (en japonés) (24-10-2009).
[22] « October 2009 OS stats: Windows 7 passes Snow Leopard, Linux (http:/ / arstechnica. com/ microsoft/ news/ 2009/ 11/
october-2009-os-stats-windows-7-passes-snow-leopard-linux-1. ars?utm_source=microblogging& utm_medium=arstch& utm_term=Main
Account& utm_campaign=microblogging)», 'ars technica', 2009-11-06. Consultado el 07-11-2009 (en inglés).
[23] « Windows 7 surpasses Snow Leopard in under two weeks (http:/ / www. neowin. net/ news/ main/ 09/ 11/ 06/
windows-7-surpasses-snow-leopard-in-under-two-weeks)», 07-11-2009. Consultado el 07-11-2009 (en inglés).
[24] Ina Fried (10-11-2009). CNET (ed.): « Windows 7 use continues to climb (http:/ / news. cnet. com/ 8301-10805_3-10394517-75. html)» (en
inglés). Consultado el 13-11-2009.
[25] Earnings take-away: Microsoft is still powered by Windows (http:/ / blogs. zdnet. com/ microsoft/ ?p=5079& tag=nl. e539)
[26] « Microsoft Windows 7 (Home Premium) Review - CNet (http:/ / reviews. cnet. com/ windows/ microsoft-windows-7-home/
4505-3672_7-33704139. html)», 31-07-2009 (en inglés).
[27] Michael Muchmore (22-10-2009). PC Magazine (ed.): « Microsoft Windows 7 (http:/ / www. pcmag. com/ article2/ 0,2817,2348899,00.
asp)» (en inglés). Consultado el 13-11-2009.
[28] Will Smith (19-10-2009). Maximum PC (ed.): « Windows 7 Review: XP vs Vista vs 7 in 80+ Benchmarks (http:/ / www. maximumpc. com/
article/ reviews/ windows_7_review)» (en inglés). Consultado el 13-11-2009.
[29] Nick Mediati (19-10-2009). PC World (ed.): « Windows 7 - Mucho más delgado y ligeramente más rápido (http:/ / www. pcworld. com/
article/ 172602/ windows_7_review. html)» (en español). Consultado el 13-11-2009.
[30] The PC World Editorial Team (19-10-2009). PC World (ed.): « The PC World 100: Best Products of 2009 (http:/ / www. pcworld. com/
article/ 174171-2/ the_pc_world_100_best_products_of_2009. html)» (en inglés). Consultado el 13-11-2009.
[31] Paul Miller (12-08-2009). Engadget (ed.): « Windows 7 review (http:/ / www. engadget. com/ 2009/ 08/ 12/ windows-7-review/ )» (en
inglés). Consultado el 13-11-2009.
[32] David Pogue (21-10-2009). New York Times (ed.): « Windows 7 Keeps the Good, Tries to Fix Flaws (http:/ / www. nytimes. com/ 2009/
10/ 22/ technology/ personaltech/ 22pogue. html)» (en inglés). Consultado el 13-11-2009.
[33] Edward C. Baig (21-10-2009). USA Today (ed.): « After Vista, Windows 7 is a giant leap for Microsoft (http:/ / www. usatoday. com/ tech/
products/ 2009-10-16-baig16_CV_N. htm)» (en inglés). Consultado el 13-11-2009.
Windows 7 100

[34] Walter S. Mossberg (08-10-2009). Wall Street Journal (ed.): « A Windows to Help You Forget (http:/ / online. wsj. com/ article/
SB10001424052748703298004574459293141191728. html)» (en inglés). Consultado el 13-11-2009.
[35] Matt Warman (20-10-2009). The Telegraph (ed.): « Microsoft Windows 7 review (http:/ / www. telegraph. co. uk/ technology/ microsoft/
6384509/ Microsoft-Windows-7-review. html)» (en inglés). Consultado el 13-11-2009.
[36] PC World.es (ed.): « Sietes se gradúa en Windows 7 (http:/ / www. idg. es/ pcworldtech/ mostrarnoticia. asp?id=86261&
seccion=actualidad)» (22-10-2009). Consultado el 07-06-2010.
[37] Sietes: un pueblo de expertos - Microsoft Windows 7 (http:/ / www. sietesunpueblodeexpertos. com/ )
[38] PC Actual (ed.): « Windows 7 (http:/ / www. laptopmag. com/ review/ software/ windows-7. aspx)» (02-03-2010). Consultado el
08-04-2010.
[39] Weiner, Kevin (24 de julio de 2009). Neowin (ed.): « Microsoft proposes "Browser Ballot Screen" to the EU (http:/ / www. neowin. net/
news/ main/ 09/ 07/ 24/ microsoft-propose-browser-ballot-screen-to-the-eu)» (en inglés). Consultado el 01-08-2009.
[40] Warren, Tom (1 de agosto de 2009). Neowin (ed.): « Microsoft scraps Windows 7 'E' version for Europe (http:/ / www. neowin. net/ news/
main/ 09/ 08/ 01/ microsoft-scraps-windows-7-e-version-for-europe)» (en inglés). Consultado el 01-08-2009.
[41] « Microsoft Store España - Windows 7 (http:/ / emea. microsoftstore. com/ es/ es-ES/ Microsoft/ Windows/ Windows-7/ ?WT.
mc_id=MSCOMUK_HomePage_Buy_Windowstab)» (en español). Consultado el 09-09-2009.
[42] Windows 7 Pecados - El caso en contra de Microsoft y el software privativo (http:/ / es. windows7sins. org/ )
[43] Windows 7 Pecados - Carta (http:/ / es. windows7sins. org/ letter/ )
[44] Windows 7 Pecados - Listado de compañías (http:/ / es. windows7sins. org/ companies. html)
[45] http:/ / windows. microsoft. com/ en-US/ windows7/ products/ windows-7
[46] http:/ / www. vivelive. com/ tour/
[47] http:/ / blogs. msdn. com/ e7/
[48] http:/ / windowsteamblog. com/
[49] http:/ / explorandowindows. spaces. live. com/
[50] http:/ / www. microsoft. com/ latam/ socios/ laboratoriowindows7/
[51] http:/ / blogs. technet. com/ daniel_levi/ archive/ 2009/ 07/ 01/ modo-xp-a-mi-modo. aspx
[52] http:/ / www. microsoft. com/ windows/ virtual-pc/ download. aspx

Unix
Unix (registrado oficialmente como UNIX®) es un sistema operativo portable, multitarea y multiusuario;
desarrollado, en principio, en 1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que
figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.[1] [2]
«después de treinta años de su creación, UNIX sigue siendo un fenómeno»
Dennis Ritchie[3]
Hasta 2009, el propietario de la marca UNIX® fue The Open Group, un consorcio de normalización industrial. A
partir de marzo de 2010 y tras una larga batalla legal, esta ha pasado nuevamente a ser propiedad de Novell, Inc.
Sólo los sistemas totalmente compatibles y que se encuentran certificados por la especificación Single UNIX
Specification pueden ser denominados "UNIX®" (otros reciben la denominación "similar a un sistema Unix" o
"similar a Unix"). En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o a un sistema
operativo que cuenta con las características de UNIX Versión 7 o UNIX System V.
Unix 101

Historia
A finales de 1960, el Instituto Tecnológico
de Massachusetts, los Laboratorios Bell de
AT&T y General Electric trabajaban en un
sistema operativo experimental llamado
Multics (Multiplexed Information and
Computing Service),[4] desarrollado para
ejecutarse en una computadora central
(mainframe) modelo GE-645. El objetivo
del proyecto era desarrollar un gran sistema
operativo interactivo que contase con
muchas innovaciones, entre ellas mejoras en
las políticas de seguridad. El proyecto
consiguió dar a luz versiones para Ken Thompson y Dennis Ritchie Creadores de Unix.
producción, pero las primeras versiones
contaban con un pobre rendimiento. Los laboratorios Bell de AT&T decidieron desvincularse y dedicar sus recursos
a otros proyectos.

Uno de los programadores del equipo de los laboratorios Bell, Ken Thompson, siguió trabajando para la
computadora GE-635[5] y escribió un juego llamado Space Travel,[6] [7] (Viaje espacial). Sin embargo, descubrió que
el juego era lento en la máquina de General Electric y resultaba realmente caro, algo así como 75 dólares de EE.UU.
por cada partida.
De este modo, Thompson escribió nuevamente el programa, con ayuda de Dennis Ritchie, en lenguaje ensamblador,
para que se ejecutase en una computadora DEC PDP-7. Esta experiencia, junto al trabajo que desarrolló para el
proyecto Multics, condujo a Thompson a iniciar la creación de un nuevo sistema operativo para la DEC PDP-7.[8]
Thompson y Ritchie lideraron un grupo de programadores, entre ellos a Rudd Canaday, en los laboratorios Bell, para
desarrollar tanto el sistema de ficheros como el sistema operativo multitarea en sí. A lo anterior, agregaron un
intérprete de órdenes (o intérprete de comandos) y un pequeño conjunto de programas. El proyecto fue bautizado
UNICS, como acrónimo Uniplexed Information and Computing System, pues sólo prestaba servicios a dos usuarios
(de acuerdo con Andrew Tanenbaum, era sólo a un usuario[9] ). La autoría de esta sigla se le atribuye a Brian
Kernighan, ya que era un hack de Multics. Dada la popularidad que tuvo un juego de palabras que consideraba a
UNICS un sistema MULTICS castrado (pues eunuchs, en inglés, es un homófono de UNICS), se cambió el nombre a
UNIX, dando origen al legado que llega hasta nuestros días.[10]
Hasta ese instante, no había existido apoyo económico por parte de los laboratorios Bell, pero eso cambió cuando el
Grupo de Investigación en Ciencias de la Computación decidió utilizar UNIX en una máquina superior a la PDP-7.
Thompson y Ritchie lograron cumplir con la solicitud de agregar herramientas que permitieran el procesamiento de
textos a UNIX en una máquina PDP-11/20, y como consecuencia de ello consiguieron el apoyo económico de los
laboratorios Bell. Fue así como por vez primera, en 1970, se habla oficialmente del sistema operativo UNIX[11]
ejecutado en una PDP-11/20. Se incluía en él un programa para dar formato a textos (runoff) y un editor de texto.
Tanto el sistema operativo como los programas fueron escritos en el lenguaje ensamblador de la PDP-11/20. Este
"sistema de procesamiento de texto" inicial, compuesto tanto por el sistema operativo como de runoff y el editor de
texto, fue utilizado en los laboratorios Bell para procesar las solicitudes de patentes que ellos recibían. Pronto, runoff
evolucionó hasta convertirse en troff, el primer programa de edición electrónica que permitía realizar composición
tipográfica. El 3 de noviembre de 1971 Thomson y Ritchie publicaron un manual de programación de UNIX (título
original en inglés: "UNIX Programmer's Manual").[12]
Unix 102

En 1972 se tomó la decisión de escribir nuevamente UNIX, pero esta vez en el lenguaje de programación C.[13] Este
cambio significaba que UNIX podría ser fácilmente modificado para funcionar en otras computadoras (de esta
manera, se volvía portable) y así otras variaciones podían ser desarrolladas por otros programadores. Ahora, el
código era más conciso y compacto, lo que se tradujo en un aumento en la velocidad de desarrollo de UNIX. AT&T
puso a UNIX a disposición de universidades y compañías, también al gobierno de los Estados Unidos, a través de
licencias.[14] Una de estas licencias fue otorgada al Departamento de Computación de la Universidad de California,
con sede en Berkeley.[14] En 1975 esta institución desarrolló y publicó su propio sucedáneo de UNIX, conocida
como Berkeley Software Distribution (BSD), que se convirtió en una fuerte competencia para la familia UNIX de
AT&T.
Mientras tanto, AT&T creó una división comercial denominada Unix Systems Laboratories para la explotación
comercial del sistema operativo. El desarrollo prosiguió, con la entrega de las versiones 4, 5 y 6[15] en el transcurso
de 1975. Estas versiones incluían los pipes o tuberías, lo que permitió dar al desarrollo una orientación modular
respecto a la base del código, consiguiendo aumentar aún más la velocidad de desarrollo. Ya en 1978, cerca de 600 o
más máquinas estaban ejecutándose con alguna de las distintas encarnaciones de UNIX.
La versión 7,[15] la última versión del UNIX original con amplia distribución, entró en circulación en 1979. Las
versiones 8, 9 y 10[15] se desarrollaron durante la década de 1980, pero su circulación se limitó a unas cuantas
universidades, a pesar de que se publicaron los informes que describían el nuevo trabajo. Los resultados de esta
investigación sirvieron de base para la creación de Plan 9 from Bell Labs, un nuevo sistema operativo portable y
distribuido, diseñado para ser el sucesor de UNIX en investigación por los Laboratorios Bell.
AT&T entonces inició el desarrollo de UNIX System
III, basado en la versión 7, como una variante de tinte
comercial y así vendía el producto de manera directa.
La primera versión se lanzó en 1981.[15] A pesar de lo
anterior, la empresa subsidiaria Western Electric seguía
vendiendo versiones antiguas de Unix basadas en las
distintas versiones hasta la séptima. Para finalizar con
la confusión con todas las versiones divergentes,
AT&T decidió combinar varias versiones desarrolladas
en distintas universidades y empresas, dando origen en
1983 al Unix System V Release 1.[15] Esta versión
presentó características tales como el editor Vi y la
biblioteca curses, desarrolladas por Berkeley Software
Distribution en la Universidad de California, Berkeley. Éste sería el aspecto de UNIX sobre los fines de la década de 1980
También contaba con compatibilidad con las máquinas utilizando X Window System creado por el MIT

VAX de la compañía DEC.

En 1993, la compañía Novell adquirió la división Unix Systems Laboratories de AT&T junto con su propiedad
intelectual.[16] Esto ocurrió en un momento delicado en el que Unix Systems Laboratories disputaba una demanda en
los tribunales contra BSD por infracción de los derechos de copyright, revelación de secretos y violación de marca
de mercado[cita requerida].
BSD no solamente ganó el juicio sino que cambiaron tornas descubriendo que grandes porciones del código de BSD
habían sido copiadas ilegalmente en UNIX System V. En realidad, la propiedad intelectual de Novell (recién
adquirida de Unix Systems Laboratories) se reducía a unos pocos ficheros fuente[cita requerida]. La correspondiente
contra-demanda acabó en un acuerdo extrajudicial cuyos términos permanecen bajo secreto a petición de Novell.
Aproximadamente por esa misma fecha, un estudiante de ciencias de la computación llamado Linus Torvalds
desarrolló un núcleo para computadoras con arquitectura de procesador Intel x86 que mimetizaba muchas de las
funcionalidades de UNIX y lo lanzó en forma de código abierto en 1991, bajo el nombre de Linux. En 1992, el
Unix 103

Proyecto GNU comenzó a utilizar el núcleo Linux junto a sus programas.


En 1995, Novell vendió su división UNIX comercial[16] (es decir, la antigua Unix Systems Laboratories) a Santa
Cruz Operation (SCO) reservándose, aparentemente, algunos derechos de propiedad intelectual sobre el software.[17]
SCO continúa la comercialización de System V en su producto UnixWare, que durante cierto tiempo pasó a
denominarse OpenUnix, aunque ha retomado de nuevo el nombre de UnixWare.

Familias
Como se puede deducir de esta breve reseña histórica, existen varias familias del sistema operativo UNIX, que han
evolucionado de manera independiente a lo largo de los años. Cada familia se distingue no tanto por sus diferencias
técnicas como por sus diferencias en propiedad intelectual. Se observa que todas las familias se han visto
contaminadas, directa o indirectamente, por otras familias.

Familias UNIX más


significativas
• AT&T: la familia que tuvo su
origen en el UNIX de AT&T.
Considerada la familia UNIX
"pura" y original. Sus sistemas
operativos más significativos son
UNIX System III y UNIX System
V.
• BSD: familia originada por el
licenciamiento de UNIX a Berkely.
BSD se reescribió para no
incorporar propiedad intelectual
originaria de AT&T en la versión 4. La primera implementación de los protocolos TCP/IP que dieron origen a
Internet son la pila (stack) TCP/IP BSD.
• AIX: Esta familia surge por el licenciamiento de UNIX System III a IBM.
• Xenix: familia derivada de la adquisición de los derechos originales de AT&T primero por parte de Microsoft y
de esta los vendió a SCO.
• GNU: En 1983, Richard Stallman anunció el Proyecto GNU, un ambicioso esfuerzo para crear un sistema similar
a Unix, que pudiese ser distribuido libremente. El software desarrollado por este proyecto -por ejemplo, GNU
Emacs y GCC - también han sido parte fundamental de otros sistemas UNIX.
• Linux: En 1991, cuando Linus Torvalds empezó a proponer el núcleo Linux y a reunir colaboradores, las
herramientas GNU eran la elección perfecta. Al combinarse ambos elementos, conformaron la base del sistema
operativo (basado en POSIX) que hoy se conoce como GNU/Linux. Las distribuciones basadas en el núcleo, el
software GNU y otros agregados entre las que se pueden mencionar a Slackware Linux, Red Hat Linux y Debian
GNU/Linux se han hecho populares tanto entre los aficionados a la computación como en el mundo empresarial.
Obsérvese que Linux tiene un origen independiente, por lo que se considera un 'clónico' de UNIX y no un UNIX
en el sentido histórico.
Las interrelaciones entre estas familias son las siguientes, aproximadamente en orden cronológico:
• La familia BSD surge del licenciamiento del UNIX original de AT&T.
• Xenix también surge por licenciamiento del UNIX original de AT&T, aunque aún no era propiedad de SCO.
• AIX surge por licenciamiento de UNIX System III, pero también incorpora propiedad intelectual de BSD.
• La familia original AT&T incorpora ilegalmente propiedad intelectual de BSD en UNIX System III r3.
Unix 104

• La familia AIX vuelve a incorporar propiedad intelectual de la familia AT&T, esta vez procedente de UNIX
System V.
• Linux incorpora propiedad intelectual de BSD, gracias a que éste también se libera con una licencia de código
abierto denominada Open-source BSD.
• Según SCO Group, Linux incorpora propiedad intelectual procedente de AIX, gracias a la colaboración de IBM
en la versión 2.4, más aún no está demostrado, hay un proceso judicial al respecto: Disputas de SCO sobre Linux.

La marca
UNIX es una marca registrada de The Open Group en Estados Unidos y otros países. Esta marca sólo se puede
aplicar a los sistemas operativos que cumplen la "Single Unix Specification" de esta organización y han pagado las
regalías establecidas.
En la práctica, el término UNIX se utiliza en su acepción de familia. Se aplica también a sistemas multiusuario
basados en POSIX (tales como GNU/Linux, Mac OS X [el cual, en su versión 10.5 ya ha alcanzado la certificación
UNIX], FreeBSD, NetBSD, OpenBSD), los cuales no buscan la certificación UNIX por resultar cara para productos
destinados al consumidor final o que se distribuyen libremente en Internet. En estos casos, el término se suele
escribir como "UN*X", "*NIX", o "*N?X".

Implementaciones más importantes


A lo largo de la historia ha surgido una gran multitud de implementaciones comerciales de UNIX. Sin embargo, un
conjunto reducido de productos han consolidado el mercado y prevalecen gracias a un continuo esfuerzo de
desarrollo por parte de sus fabricantes. Los más importantes son:
• Solaris de Sun Microsystems. Uno de los sistemas operativos
Unix más difundidos en el entorno empresarial y conocido por
su gran estabilidad. Parte del código fuente de Solaris se ha
liberado con licencia de fuentes abiertas (OpenSolaris).
• AIX de IBM. El UNIX "propietario" de IBM ha cumplido 20
años de vida en el 2006 y continúa en pleno desarrollo, con una
perceptible herencia del mainframe en campos como la
virtualización o la RAS de los servicios, heredada de sus
"hermanos mayores".
• HP-UX de Hewlett-Packard. Este sistema operativo también
nació ligado a las computadoras departamentales de este Solaris 10, un sistema operativo derivado de la rama
BSD
fabricante. También es un sistema operativo estable que
continua en desarrollo.
• Mac OS X. Curiosamente sus propios usuarios suelen desconocer que se trata de un UNIX completo, aprobado
por The Open Group. Su diferencia marcada es que posee una interfaz gráfica propietaria llamada Aqua, y es
principalmente desarrollada en Objective-C en lugar de C o C++.
Existen sistemas operativos basados en el núcleo Linux, y el conjunto de aplicaciones GNU (también denominado
GNU/Linux), entre las más utilizadas encontramos:
• Red Hat Enterprise Linux. Cuyo fabricante Red Hat es conocido por su amplia gama de soluciones y aportes al
desarrollo de software libre. Apoya el proyecto Fedora del cual se beneficia y de ella se derivan distribuciones
compatibles como Oracle Enterprise Linux y CentOS, también distribuciones como Mandriva Linux, se basó en
una de sus primeras versiones.
• SUSE Linux de Novell. Originalmente liberado por la compañía alemana SuSE. Es popular por sus herramientas
de administración centralizada. De manera análoga a Fedora con RedHat, Apoya el proyecto openSUSE.
Unix 105

• Debian GNU/Linux. Con una de las comunidades más grandes y antiguas del movimiento de software libre, es
base para distribuciones como Xandros, Mepis, Linspire y Ubuntu.
También son populares los sistemas operativos descendientes del 4.4BSD:
• FreeBSD. Quizá el sistema operativo más popular de la familia, de propósito múltiple. Con una implementación
SMP muy elaborada, es el sistema operativo utilizado por los servidores de Yahoo. Y base de muchos sistemas
operativos entre ellos Mac OS X de Apple.
• OpenBSD. Ampliamente reconocida por su seguridad proactiva y auditoría permanente del código fuente. Es
utilizada en ambientes donde la seguridad prima sobre todo, es usual encontrarlo instalado en servidores que
actúan como Firewall, VPN o Proxy.
• NetBSD . Se le conoce por su portabilidad, a octubre de 2008: 53 arquitecturas soportadas. La NASA lo ha
utilizado para la investigación en redes TCP/IP satelitales, al igual que para reciclar computadoras viejas con
software moderno.
Las siguientes implementaciones de UNIX tienen importancia desde el punto de vista histórico, no obstante,
actualmente están en desuso:
• Tru64 UNIX actualmente de Hewlett-Packard (antes de Compaq y originalmente de Digital Equipment
Corporation).
• UnixWare y SCO OpenServer anteriormente de Santa Cruz Operation y ahora de SCO Group.
• UX/4800 de NEC.
• IRIX de Silicon Graphics Inc..

Órdenes clásicas de UNIX


Algunos comandos básicos de UNIX son:
• Navegación/creación de directorios/archivos: ls cd pwd mkdir rm rmdir cp
• Edición/visión de archivos: touch more ed vi
• Procesamiento de textos: echo cat grep sort uniq sed awk tail head
• Comparación de archivos: comm cmp diff patch
• Administración del sistema: chmod chown ps find xargs sd w who
• Comunicación: mail telnet ssh ftp finger rlogin
• Shells: sh csh ksh
• Documentación: man.
Esta es una lista de los sesenta comandos de usuario de la sección 1 de la Primera Edición:
ar as b bas bcd boot cat chdir check chmod chown cmp cp date db dbppt dc df dsw dtf du ed find for form hup
lbppt ld ln ls mail mesg mkdir mkfs mount mv nm od pr rew rkd rkf rkl rm rmdir roff sdate sh stat strip su sum
tap tm tty type un wc who write
Otros comandos
• Tiempo: cal
Unix 106

Véase también
• Jerarquía de directorios en sistemas tipo UNIX
• The Open Group
• BSD
• Mac OS X
• GNU/Linux
• Lista de programas para Unix
• Plan 9 from Bell Labs

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Unix. Commons
Wikilibros
• Wikilibros alberga un libro o manual sobre Hacks para sistemas operativos Unix-like.
• Sistemas Unix del Open Group [18]
• Wiki sobre sistemas operativos UNIX [19] (PDF [20])
• Sistema Operativo UNIX - Monografías.com. Autor: Diego Martinoli [21]
• JavaScript/UIX Terminal [22]
• Solounix Argentina - La web del Unix en Argentina , Video tutoriales de Unix [23]
• webprogramacion.com - Shell Script UNIX [24]

Referencias
[1] Bell Labs. The Creation of the UNIX* Operating System (http:/ / www. bell-labs. com/ history/ unix/ ). (en inglés)
[2] Bell Labs. THE UNIX ORAL HISTORY PROJECT (http:/ / www. princeton. edu/ ~mike/ expotape. htm). Edited and Transcribed by Michael
S. Mahoney. Princeton University. Princeton, New Jersey. (en inglés)
[3] Bell Labs. It still remains a phenomenon (http:/ / www. bell-labs. com/ history/ unix/ phenomenon. html) The Creation of the UNIX*
Operating System. (en inglés)
[4] Bell Labs. Before Multics there was chaos, and afterwards, too (http:/ / www. bell-labs. com/ history/ unix/ chaos. html) The Creation of the
UNIX* Operating System. (en inglés)
[5] Bell Labs. The famous PDP-7 comes to the rescue (http:/ / www. bell-labs. com/ history/ unix/ pdp7. html) The Creation of the UNIX*
Operating System. (en inglés)
[6] Dennis M. Ritchie (September 1979) The Evolution of the Unix Time-sharing System (http:/ / cm. bell-labs. com/ cm/ cs/ who/ dmr/ hist.
html) Bell Labs. 1996. Lucent Technologies Inc.(en inglés)
[7] Dennis M. Ritchie Thompson's Space Travel Game (http:/ / cm. bell-labs. com/ cm/ cs/ who/ dmr/ spacetravel. html) Bell Labs. 2001. Lucent
Technologies Inc.(en inglés)
[8] Bell Labs. The UNIX system begins to take shape (http:/ / www. bell-labs. com/ history/ unix/ takeshape. html) The Creation of the LINUX IS
A YET* Operating System. (en inglés)
[9] Andrew S. Tanenbaum (20 May 2004) Some Notes on the "Who wrote Linux" Kerfuffle, Release 1.5 (http:/ / www. cs. vu. nl/ ~ast/ brown/ )
Departament of Computer Science, Vrije Universiteit, Amsterdam. (en inglés)
[10] Bell Labs. It looked like an operating system, almost (http:/ / www. bell-labs. com/ history/ unix/ almost. html) The Creation of the UNIX*
Operating System. (en inglés)
[11] Bell Labs. Porting UNIX for its first commercial application (http:/ / www. bell-labs. com/ history/ unix/ firstport. html) The Creation of the
UNIX* Operating System. (en inglés)
[12] Dennis M. Ritchie Unix Programmer's Manual, First Edition (1971) (http:/ / cm. bell-labs. com/ cm/ cs/ who/ dmr/ 1stEdman. html) Bell
Labs. Lucent Technologies Inc.(en inglés)
[13] Bell Labs. From B language to NB to C (http:/ / www. bell-labs. com/ history/ unix/ btoc. html) The Creation of the UNIX* Operating
System. (en inglés)
[14] Bell Labs. Sharing UNIX with the rest of the world (http:/ / www. bell-labs. com/ history/ unix/ sharing. html) The Creation of the UNIX*
Operating System. (en inglés)
[15] Bell Labs. Early versions of the UNIX* system (http:/ / www. bell-labs. com/ history/ unix/ versions. html) The Creation of the UNIX*
Operating System. (en inglés)
[16] Bell Labs. UNIX moves on (http:/ / www. bell-labs. com/ history/ unix/ moveson. html) The Creation of the UNIX* Operating System. (en
inglés)
Unix 107

[17] Novell, Inc. Press Release (20 September 1995) HP, Novell and SCO To Deliver High-Volume UNIX OS With Advanced Network And
Enterprise Services (http:/ / www. novell. com/ news/ press/ archive/ 1995/ 09/ pr95220. html) Novell, Inc. New York. (en inglés)
[18] http:/ / www. unix. org/
[19] http:/ / osl. uca. es/ wikiunix
[20] http:/ / forja. rediris. es/ docman/ view. php/ 739/ 1077/ wikiUNIX. pdf
[21] http:/ / www. monografias. com/ trabajos/ unix/ unix. shtml
[22] http:/ / www. masswerk. at/ jsuix/
[23] http:/ / www. solounix. com. ar/
[24] http:/ / www. webprogramacion. com/ 8/ sistemas-operativos/ shell-script-unix. aspx

GNU/Linux
GNU/Linux

Imagen que hace analogía con el nombre del sistema operativo


Desarrollador

Número de desarrolladores imposible de cuantificar

Información general

Modelo de desarrollo Software libre y código abierto

Núcleo Linux

Tipo de núcleo Monolítico

Licencia GNU GPL y otras

Estado actual En desarrollo

En español

GNU/Linux es uno de los términos empleados para referirse a la combinación del núcleo o kernel libre similar a
Unix denominado Linux, que es usado con herramientas de sistema GNU. Su desarrollo es uno de los ejemplos más
prominentes de software libre; todo su código fuente puede ser utilizado, modificado y redistribuido libremente por
cualquiera bajo los términos de la GPL (Licencia Pública General de GNU) y otra serie de licencias libres.[1]
A pesar de que Linux (núcleo) es, en sentido estricto, el sistema operativo,[2] parte fundamental de la interacción
entre el núcleo y el usuario (o los programas de aplicación) se maneja usualmente con las herramientas del proyecto
GNU o de otros proyectos como GNOME. Sin embargo, una parte significativa de la comunidad, así como muchos
medios generales y especializados, prefieren utilizar el término Linux para referirse a la unión de ambos proyectos.
Para más información consulte la sección "Denominación GNU/Linux" o el artículo "Controversia por la
denominación GNU/Linux".
A las variantes de esta unión de programas y tecnologías, a las que se les adicionan diversos programas de aplicación
de propósitos específicos o generales se las denomina distribuciones. Su objetivo consiste en ofrecer ediciones que
cumplan con las necesidades de un determinado grupo de usuarios. Algunas de ellas son especialmente conocidas
por su uso en servidores y supercomputadoras.[3] donde tiene la cuota mas importante del mercado. Según un
GNU/Linux 108

informe de IDC, GNU/Linux es utilizado por el 78% de los principales 500 servidores del mundo,[4] otro informe le
da una cuota de mercado de % 89 en los 500 mayores supercomputadores.[5] Con menor cuota de mercado el sistema
GNU/Linux también es usado en el segmento de las computadoras de escritorio, portátiles, computadoras de bolsillo,
teléfonos móviles, sistemas embebidos, videoconsolas y otros dispositivos.

Etimología
El nombre GNU, GNU's Not Unix (GNU no es Unix), viene de las herramientas básicas de sistema operativo
creadas por el proyecto GNU, iniciado por Richard Stallman en 1983 y mantenido por la FSF. El nombre Linux
viene del núcleo Linux, inicialmente escrito por Linus Torvalds en 1991.
La contribución de GNU es la razón por la que existe controversia a la hora de utilizar Linux o GNU/Linux para
referirse al sistema operativo formado por las herramientas de GNU y el núcleo Linux en su conjunto.[6] [7]

Historia
El proyecto GNU, fue iniciado en 1983 por Richard Stallman,[8] tiene
como objetivo el desarrollo de un sistema operativo Unix completo
compuesto enteramente de software libre. La historia del núcleo Linux
está fuertemente vinculada a la del proyecto GNU. En 1991 Linus
Torvalds empezó a trabajar en un reemplazo no comercial para MINIX[9]
que más adelante acabaría siendo Linux.

Cuando Torvalds liberó la primera versión de Linux, el proyecto GNU ya


había producido varias de las herramientas fundamentales para el manejo
del sistema operativo, incluyendo un intérprete de comandos, una Richard Matthew Stallman, iniciador del
proyecto GNU.
biblioteca C y un compilador, pero como el proyecto contaba con una
infraestructura para crear su propio sistema operativo, el llamado Hurd, y
este aún no era lo suficiente maduro para usarse, comenzaron a usar a
Linux a modo de continuar desarrollando el proyecto GNU, siguiendo la
tradicional filosofía de mantener cooperatividad entre desarrolladores. El
día en que se estime que Hurd es suficiente maduro y estable, será
llamado a reemplazar a Linux.

Entonces, el núcleo creado por Linus Torvalds, quien se encontraba por


entonces estudiando en la Universidad de Helsinki, llenó el "espacio"
final que había en el sistema operativo de GNU.

Componentes

Entorno gráfico
Linux puede funcionar tanto en entorno gráfico como en modo consola.
La consola es común en distribuciones para servidores, mientras que la
interfaz gráfica está orientada al usuario final tanto de hogar como
empresarial. Un escritorio es un conjunto de elementos conformado por Linus Torvalds, creador del núcleo Linux.

ventanas, iconos y similares que facilitan la utilización del computador.


Los escritorios más populares en Linux, en orden alfabético son GNOME, KDE, LXDE, Xfce y Xf.[cita requerida]
GNU/Linux 109

Como sistema de programación


La colección de utilidades para la programación de GNU es con diferencia la familia de compiladores más utilizada
en este sistema operativo. Tiene capacidad para compilar C, C++, Java, Ada, entre otros muchos lenguajes. Además
soporta diversas arquitecturas mediante la compilación cruzada, lo que hace que sea un entorno adecuado para
desarrollos heterogéneos.
Hay varios entornos de desarrollo integrados disponibles para GNU/Linux incluyendo, Anjuta, KDevelop,
Ultimate++, Code::Blocks, NetBeans IDE y Eclipse. También existen editores extensibles como Emacs o Vim.
GNU/Linux también dispone de capacidades para lenguajes de guión (script), aparte de los clásicos lenguajes de
programación de shell, o el de procesado de textos por patrones y expresiones regulares llamado awk, la mayoría de
las distribuciones tienen instalado Python, Perl, PHP y Ruby.

Aplicaciones de usuario
Las aplicaciones para Linux se distribuyen en dos formatos
principalmente .deb y .rpm, los cuales fueron creados por los
desarrolladores de Debian y Red Hat respectivamente.

Software de código cerrado para GNU/Linux


Durante la etapa temprana había pocas aplicaciones de código cerrado
para GNU/Linux. Con el tiempo se fueron portando programas no
Escritorio KDE 4.4
libres al sistema GNU/Linux, entre ellos Adobe Reader, Adobe Flash,
Google Picasa, Opera, entre otros.

Empresas que patrocinan su uso


Con la adopción por numerosas empresas fabricantes, un buen número
de computadoras se venden con distribuciones pre-instaladas, y
GNU/Linux ha comenzado a tomar su lugar en el vasto mercado de las
computadoras de escritorio.
Algunas de las empresas que colaboran en la difusión de este sistema
operativo ya sea trabajando en el núcleo Linux, proporcionando
Escritorio GNOME 2.28
soluciones de software o preinstalando el sistema operativo, son: Intel
,[10] [11] [12] Google,[13] [14] [15] [16] IBM,[17] AMD,[18] [19] [20] [21] Sun
Microsystems,[22] Dell,[23] [24]
Lenovo,[25] [26]
Asus,[27]
Hewlett-Packard (HP),[28] [29] [30] Silicon Graphics International
(SGI),[31] Renesas Technology,[32] Fujitsu,[33] Analog Devices,[34]
Freescale,[35] VIA Technologies,[36] Oracle,[37] Novell[38] y
RedHat,[39] entre otras.[40]

El respaldo de compañías de software también está presente, ya que,


entre otras aplicaciones, Nero, Java, Google Earth, Google Desktop,
Adobe Reader, Adobe Flash, RealPlayer y Yahoo! Messenger están
disponibles para GNU/Linux.
Escritorio XFCE 4.4
GNU/Linux 110

Cuota de mercado
Numerosos estudios cuantitativos sobre software de código abierto
están orientados a tópicos como la cuota de mercado y la fiabilidad,
muchos de estos estudios examinan específicamente a GNU/Linux.[41]

Ventajas
La creciente popularidad de GNU/Linux se debe, entre otras razones, a
su estabilidad, al acceso al código fuente (lo que permite personalizar Escritorio LXDE
el funcionamiento y auditar la seguridad y privacidad de los datos
tratados), a la independencia de proveedor, a la seguridad, a la rapidez con que incorpora los nuevos adelantos
tecnológicos (IPv6, microprocesadores de 64 bits), a la escalabilidad (se pueden crear clusters de cientos de
computadoras), a la activa comunidad de desarrollo que hay a su alrededor, a su interoperatibilidad y a la abundancia
de documentación relativa a los procedimientos.

Hay varias empresas que comercializan soluciones basadas en


GNU/Linux: IBM, Novell (SuSE), Red Hat (RHEL), Mandriva
(Mandriva Linux), Rxart, Canonical Ltd. (Ubuntu), así como miles de
PYMES que ofrecen productos o servicios basados en esta tecnología.

Aplicaciones

Supercomputadoras IBM Roadrunner, la supercomputadora más


potente de 2008, funciona bajo una distribución
Dentro del segmento de supercomputadoras, a noviembre de 2009, el Gnu/Linux
uso de este sistema ascendió al 89,2% de las computadoras más
potentes del mundo por su confiabilidad, seguridad y libertad para modificar el código.[42] De acuerdo con
TOP500.org, que lleva estadísticas sobre las 500 principales supercomputadoras del mundo, a noviembre de 2009:
446 usaban una distribución basada en GNU/Linux, 25 Unix, 23 mezclas, 1 BSD y solo el 1% (5) Windows.
Las primeras 19 supercomputadoras, incluidas la número 1 la Jaguar, Cray XT5-HE con 224,162 procesadores
utilizan distribuciones basadas en Gnu/Linux.[43]
GNU/Linux, además de liderar el mercado de servidores de Internet debido, entre otras cosas, a la gran cantidad de
soluciones que tiene para este segmento, tiene un crecimiento progresivo en computadoras de escritorio y portátiles.
Además, es el sistema base que se ha elegido para el proyecto OLPC: One Laptop Per Child.[44]
Para saber más sobre las arquitecturas soportadas, lea el artículo "Portabilidad del núcleo Linux y arquitecturas
soportadas".

Administración pública
Véase también: Software libre en la administración pública

Hay una serie de administraciones públicas que han mostrado su apoyo al software libre, sea migrando total o
parcialmente sus servidores y sistemas de escritorio, sea subvencionándolo. Como ejemplos se tiene a Alemania,
Argentina, Australia, Brasil, España, Chile, China, Cuba, México, Perú, República Dominicana, Ecuador, El
Salvador, Uruguay o Venezuela.
GNU/Linux 111

Denominación GNU/Linux
Parte de la comunidad y numerosos medios prefieren denominar a esta combinación como Linux, aunque
GNU/Linux (con las variantes GNU con Linux y GNU+Linux) es la denominación defendida por el Proyecto GNU y
la FSF junto con otros desarrolladores y usuarios para el conjunto que utiliza el sistema operativo Linux en conjunto
con las aplicaciones de sistema creadas por el proyecto GNU y por muchos otros proyectos de software.[45] [46]
Desde 1984, Richard Stallman y muchos voluntarios están intentando crear un sistema operativo libre con un
funcionamiento similar al UNIX, recreando todos los componentes necesarios para tener un sistema operativo
funcional. A comienzos de los años 90, unos seis años desde el inicio del proyecto, GNU tenía muchas herramientas
importantes listas, como editores de texto, compiladores, depuradores, intérpretes de comandos de órdenes etc.,
excepto por el componente central: el núcleo.
GNU tenía su propio proyecto de núcleo, llamado Hurd. Sin embargo, su desarrollo no continuó como se esperaba al
aparecer el núcleo Linux. De esta forma se completaron los requisitos mínimos y surgió el sistema operativo GNU
que utilizaba el núcleo Linux.
El principal argumento de los defensores de la denominación GNU/Linux es resolver la posible confusión que se
puede dar entre el núcleo (Linux) y gran parte de las herramientas básicas del resto del sistema operativo (GNU).
Además, también se espera que, con el uso del nombre GNU, se dé al proyecto GNU el reconocimiento por haber
creado las herramientas de sistema imprescindibles para ser un sistema operativo compatible con UNIX, y se
destaque la cualidad de estar compuesto sólo por software libre. La primera distribución que incluyó el GNU en su
nombre fue Yggdrasyl en 1992, donde aparecía como Linux/GNU/X. La FSF denominó a este sistema "Linux" hasta
al menos junio de 1994[47] y recién a partir de enero de 1995 empezó a llamarlo "GNU/Linux" (también GNU+Linux
y lignux, términos que han caído en desuso a instancias del propio Stallman).[48]

GNU / Linux

Algunas distribuciones apoyan esta denominación, e incluyen GNU/Linux en sus nombres, como Debian GNU/Linux
o GNU/LinEx, mientras que otras, como Slackware, Gentoo o Ubuntu, eligen denominarse basadas en Linux.[49] [50]
[51]

En ocasiones, el proyecto KDE ha utilizado una tercera denominación: GNU/Linux/X para enfatizar los tres
proyectos sobre los que se apoya su entorno de escritorio.

Véase también
• Portal:Linux. Contenido relacionado con Linux.
• GNU Hurd
• Núcleo Linux
• Historia de Linux
• Distribución GNU/Linux
• GNU
• Unix
• Linux-libre
• Categoría:Distribuciones GNU/Linux libres
• Software para Linux
• Controversia por la denominación GNU/Linux
• Lista de distribuciones GNU/Linux
GNU/Linux 112

Bibliografía
• Glyn Moody (en inglés). Glyn Moody: Rebel Code: Linux and the Open Source Revolution [52]. Perseus
Publishing. ISBN 0-7139-9520-3. Consultado el 2009.
• Gedda, R. (2004). «Linux breaks desktop barrier in 2004: Torvald [53]» (en inglés).
• Mackenzie, K. (2004). «Linux Torvalds Q&A [54]».
• Marcinkowski, A. (2003). «Linux needs reconsideration [55]» (en inglés).

Enlaces externos
• Free Software Foundation [56] (en inglés)
• The Linux Kernel Archives [57] - Sitio Oficial del núcleo de Linux (en inglés)
• Linux y el Proyecto GNU, por Richard Stallman [58]
• Preguntas frecuentes sobre GNU/Linux, por Richard Stallman [59]
• Historia de Linux [60] Documental en video (en español)

• Wikimedia Commons alberga contenido multimedia sobre GNU/Linux.Commons


Wikilibros
• Wikilibros alberga un libro o manual sobre Introducción a GNU/Linux.
• Wikiversidad alberga proyectos de aprendizaje sobre GNU/Linux.Wikiversidad
• Wikinoticias tiene noticias relacionadas con GNU/Linux.Wikinoticias

Referencias
[1] Linux.org. « Linux Online - About the Linux Operating System (http:/ / www. linux. org/ info)» (en inglés). Consultado el 9 de enero de
2009.
[2] The operating system interacts directly with the hardware, providing common services to programs and insulating them from hardware
idiosyncrasies. Viewing the system as a set of layers, the operating system is commonly called the system kernel, or just the kernel,
emphasizing its isolation from user programs. Because programs are independent of the underlying hardware, it is easy to move them between
UNIX systems running on different hardware if the programs do not make assumptions about the underlying hardware.Maurice J. Bach, "The
design of the unix operating system", Prentice/Hall, 1986, p. 4
[3] Lyons, Daniel. « Linux rules supercomputers (http:/ / www. forbes. com/ home/ enterprisetech/ 2005/ 03/ 15/ cz_dl_0315linux. html)» (en
inglés). Consultado el 8 de enero de 2009.
[4] « GNU/Linux es utilizado por el 78% de los principales 500 servidores del mundo (http:/ / www. tercerainformacion. es/ spip.
php?article15580)» (en español). Consultado el 5 de junio de 2010.
[5] « Operating system Family share for 11/2009 (http:/ / www. top500. org/ stats/ list/ 34/ osfam)» (en español). Consultado el 5 de junio de
2010.
[6] Richard Stallman. « ¿Por qué GNU/Linux (http:/ / www. gnu. org/ gnu/ why-gnu-linux. es. html)» (en castellano). Consultado el 8 de enero de
2009.
[7] Weeks, Alex (2004). « 1.1 (http:/ / www. tldp. org/ LDP/ sag/ html/ sag. html#GNU-OR-NOT)». Linux System Administrator's Guide (version
0.9 edición). . Consultado el 18-01-2007.
[8] Richard Stallman. « Acerca del Proyecto GNU - Anuncio Inicial (http:/ / www. gnu. org/ gnu/ initial-announcement. es. html)» (en
castellano).
[9] What would you like to see most in minix? (comp.os.minix) (http:/ / groups. google. com/ group/ comp. os. minix/ msg/ b813d52cbc5a044b)
[10] « Intel Linux Graphics (http:/ / intellinuxgraphics. org)».
[11] « Intel® Wireless WiFi Link drivers for Linux* (http:/ / intellinuxwireless. org)».
[12] « Intel claims No. 2 Linux contributor spot as hedge against Microsoft (http:/ / news. cnet. com/ 8301-13505_3-10288910-16. html)».
[13] « redhat.com (http:/ / www. redhat. com/ about/ presscenter/ 2000/ press_google. html)».
[14] « Centro de prensa - Google presenta el sistema operativo Google Chrome (http:/ / www. google. es/ intl/ es/ press/ pressrel/
20090708_chrom_os. html)».
[15] « Official Google Blog: Joining OIN (http:/ / googleblog. blogspot. com/ 2007/ 08/ joining-oin. html)».
[16] « Google Open Source Blog (http:/ / google-opensource. blogspot. com)».
[17] « IBM and Linux (http:/ / www-1. ibm. com/ linux)».
[18] « Barrapunto (http:/ / barrapunto. com/ article. pl?sid=07/ 05/ 14/ 1210256)».
[19] « Barrapunto (http:/ / softlibre. barrapunto. com/ article. pl?sid=08/ 05/ 28/ 1020208)».
GNU/Linux 113

[20] « Barrapunto (http:/ / softlibre. barrapunto. com/ article. pl?sid=08/ 12/ 30/ 1157204)».
[21] « Barrapunto (http:/ / softlibre. barrapunto. com/ article. pl?sid=09/ 03/ 31/ 1545259)».
[22] « Sun's GNU/Linux Offerings (http:/ / www. sun. com/ software/ linux)».
[23] « Dell - Dell Linux - Community Web (http:/ / linux. dell. com/ )».
[24] « Dell to expand Linux PC offerings, partner says (http:/ / www. reuters. com/ article/ technologyNews/ idUSN2622292420070726)».
[25] « Lenovo Support & downloads - Linux for Personal Systems (http:/ / www. lenovo. com/ think/ linux)».
[26] « :: Todo-Linux.com :: - Lenovo ya suministra portátiles con Linux (http:/ / www. todo-linux. com/ modules. php?name=News&
file=article& sid=7438)».
[27] « ASUS Eee PC - Specifications (http:/ / event. asus. com/ eeepc/ microsites/ 901_1000/ es/ specifications. html)».
[28] Open Source and Linux from HP (http:/ / www. hp. com/ wwsolutions/ linux/ )
[29] « BBC Mundo (http:/ / news. bbc. co. uk/ hi/ spanish/ business/ newsid_3533000/ 3533672. stm)».
[30] « HP Open Source and Linux - HP Linux Home (http:/ / h71028. www7. hp. com/ enterprise/ cache/ 309906-0-0-0-121. html)».
[31] « SGI - oss.sgi.com: Open Source Project List (http:/ / oss. sgi. com/ projects/ )».
[32] « Renesas Technology - Embedded Linux Distributions (http:/ / eu. renesas. com/ fmwk. jsp?cnt=emb_linux_root. jsp& fp=/ support/
superh_support/ operating/ emb_linux/ )».
[33] « linux Fujitsu (http:/ / ts. fujitsu. com/ solutions/ it_infrastructure_solutions/ linux/ )».
[34] « ADI - Analog Dialogue (http:/ / www. analog. com/ library/ analogDialogue/ archives/ 39-02/ open_source. html)».
[35] « Freescale Open Source (http:/ / opensource. freescale. com)».
[36] http:/ / linux. via. com. tw
[37] « Free and Open Source Software from Oracle (http:/ / oss. oracle. com)».
[38] « Linux OS (http:/ / www. novell. com/ linux)».
[39] « redhat.com (http:/ / www. redhat. com/ rhel)».
[40] Linux Kernel Development (http:/ / www. linuxfoundation. org/ publications/ whowriteslinux. pdf)
[41] Wheeler, David A. « Why Open Source Software/Free Software (OSS/FS)? Look at the Numbers! (http:/ / www. dwheeler. com/
oss_fs_why. html)» (en inglés). Consultado el 01-04-2006.
[42] « Operating system Family share for 11/2009 (http:/ / www. top500. org/ stats/ list/ 34/ osfam)».
[43] Anatomy of Jaguar (http:/ / www. nccs. gov/ jaguar/ #fragment-2)
[44] « One Laptop per Child (OLPC): Frequently Asked Questions (http:/ / www. laptop. org/ en/ vision/ mission/ faq. shtml)».
[45] Véase, por ejemplo, "linux is not gnu/linux" (http:/ / www. topology. org/ linux/ lingl. html).
[46] Véanse, por ejemplo, estas notas en los diarios País (España) (http:/ / www. elpais. com/ articulo/ internet/ Linux/ iPhone/ elpeputec/
20081201elpepunet_3/ Tes''El) o Clarín (Argentina) (http:/ / www. clarin. com/ suplementos/ informatica/ 2003/ 04/ 23/ f-549045. htm), o las
publicaciones especializadas LinuxWorld (http:/ / www. linuxworld. com), Linux Weekly News (http:/ / www. lwn. net), Linux Magazine,
[http://www.linuxgazette.net Linux Gazette (http:/ / www. linux-mag. com).
[47] GNU's Bulletin, vol. 1 no. 17, http:/ / www. gnu. org/ bulletins/ bull17. html .
[48] "GNU's Bulletin, vol. 1 no. 18". http:/ / www. gnu. org/ bulletins/ bull18. html .
[49] « About Us (http:/ / www. ubuntu. com/ aboutus)».
[50] « FAQ - FedoraProject (http:/ / fedoraproject. org/ wiki/ FAQ#What_is_Fedora. 3F)».
[51] « Gentoo Linux - Acerca de Gentoo (http:/ / www. gentoo. org/ main/ es/ about. xml)».
[52] http:/ / slashdot. org/ books/ 01/ 01/ 29/ 2037257. shtml
[53] http:/ / www. linux. org/ news/ 2004/ 01/ 15/ 0006. html
[54] http:/ / australianit. news. com. au/ articles/ 0,7204,8407881%5E15841%5E%5Enbv%5E,00. html
[55] http:/ / news. com. com/ 2009-1081_3-5060264. html
[56] http:/ / www. fsf. org/
[57] http:/ / www. kernel. org
[58] http:/ / www. gnu. org/ gnu/ linux-and-gnu. es. html
[59] http:/ / www. gnu. org/ gnu/ gnu-linux-faq. es. html
[60] http:/ / video. google. es/ videoplay?docid=6729008725344610785& hl=es#
Mac OS 114

Mac OS
Mac OS (del inglés Macintosh Operating System, en español Sistema Operativo de Macintosh) es el nombre del
sistema operativo creado por Apple para su línea de computadoras Macintosh. Es conocido por haber sido el primer
sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con
ventanas, Icono y menús.
Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de su línea
Macintosh procurando que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas
contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a
Bill Atkinson, Jef Raskin y Andy Hertzfeld.
Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984.
Su desarrollo se extendería en un modelo progresivo hasta la versión 9 del sistema, lanzada en 1999. A partir de Mac
OS X, el sistema es un derivado de Unix que mantiene en su interfaz gráfica muchos elementos de las versiones
anteriores.
Hay una gran variedad de puntos de vista sobre cómo fue desarrollado el Mac OS original y dónde se originaron las
ideas subyacentes. Mientras la conexión entre el proyecto Macintosh y el proyecto Alto de Xerox PARC ha sido
establecido por documentos históricos, las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line
System de Doug Engelbart también fueron significativas[cita requerida].

"Proyecto de Star Trek


Un aspecto interesante de la historia de Mac OS clásico fue un prototipo secreto relativamente desconocido en el que
Apple comenzó a trabajar en 1992, cuyo nombre en código fue "Proyecto de Star Trek". El objetivo de este proyecto
era crear una versión de Mac OS que se ejecutara en computadoras personales x86 compatibles con Intel. La
intención de la liberación en colaboración con Novell, era proporcionar compatibilidad DOS, en apoyo de las
aplicaciones DOS existentes en la plataforma. En ese momento, Novell DOS estaba perdiendo cuota de mercado ya
que los clientes se actualizaban a Windows. Una combinación de Mac OS y Novell DOS se consideró una
alternativa. El proyecto fue de corta duración, y se canceló sólo un año más tarde a principios de 1993, cuando el
nuevo CEO de Apple cambió de estrategia. El equipo fue capaz de hacer que el Macintosh Finder y algunas
aplicaciones básicas, como QuickTime, funcionen a la perfección en un PC. Parte del código de este esfuerzo fue
reutilizado más tarde cuando se trasladó el Mac OS a PowerPC.[1]
Quince años después del proyecto Star Trek, fue incluido oficialmente el soporte a la arquitectura x86 en el Mac OS,
y luego Apple trasladó todas las computadoras de escritorio para la arquitectura x86. Este no fue el resultado directo
de los anteriores esfuerzos del Proyecto Star Trek. El desarrollo Darwin utilizado en Mac OS X 10,0 y posteriores
incluyó soporte para la arquitectura x86. El restante de Mac OS no Darwin se dio a conocer oficialmente con la
introducción de los ordenadores Macintosh x86.
A pesar de que el software Star Trek nunca fue puesto en libertad, terceros emuladores como vMac, Basilisk II, y
Albacea, han permitido ejecutar el Mac OS clásico con PC basados en Intel. Estos emuladores se limitan a emular la
serie de procesadores 68000, y, como tal, no pueden correr la mayoría de las versiones del Mac OS que logró 8,1,
que requiere procesadores PowerPC. La mayoría también requiere un Mac ROM o una imagen de la interfaz de
hardware de una verdadera Mac chip ROM, las que requieren de una imagen son de dudoso valor jurídico como la
imagen ROM puede infringir en la propiedad intelectual de Apple.
Una excepción notable fue el albacea de software comercial de productos de Abacus de Investigación y Desarrollo,
el único producto que utiliza exclusivamente el 100% código de técnicas de ingeniería inversa, sin el uso de la
tecnología de Apple. Se corrió muy rápido pero nunca logró más de un menor subconjunto de la funcionalidad.
Pocos programas son completamente compatibles, y muchos son muy propensos a sufrir accidentes si se corrió en
Mac OS 115

absoluto. Albacea llenar un nicho de mercado para portar aplicaciones Mac 68000 clásico de las plataformas x86;
desarrollo cesado en el año 2002 y el proyecto está ahora extinta.
Lamentablemente la mayor parte de la base de usuarios de Mac ya había empezado a migrar a la plataforma
PowerPC, que ofreció una excelente compatibilidad con versiones anteriores de Mac clásico sobre 8.xx y 9.xx,
sistemas que operativos que junto con las herramientas del software permitieron ejecutar más rápido PowerPC. Esto
ayudó a facilitar la transición a PowerPC,mientras sólo aplicaciones obsoletas no soportaban 68000. Mientras, el
68000 Clásico apoyaba las aplicaciones mucho antes que estos emuladores se perfeccionaran lo suficiente como para
competir con una verdadera Mac.

Emulación de PowerPC
En el momento del desarrollo del emulador 68000, el soporte a PowerPC fue difícil de justificar no sólo debido al
código de emulación en sí, sino también el gran rendimiento previsto de una arquitectura emulada de PowerPC
frente a una verdadera Mac basada en PowerPC. Esto más tarde probaría ser correcto con el inicio del proyecto
PearPC incluso años después, a pesar de la disponibilidad de la 7ª y 8ª generación de procesadores x86 empleando
paradigmas de arquitectura similares a los presentes en PowerPC. Muchos desarrolladores de aplicaciones también
crearon y lanzaron versiones para 68000 Classic y PowerPC simultáneamente, ayudando a negar la necesidad de la
emulación de PowerPC. Usuarios de Mac con PowerPC que técnicamente podían ejecutar cualquiera de las dos
opciones, obviamente eligieron las aplicaciones de PowerPC más rápidas. Pronto Apple ya no vendía Macs basadas
en 68000, y la base instalada existente comenzó a evaporarse rápidamente. A pesar de la eventual excelente
tecnología de emulación 68000 disponible, probaron nunca ser ni siquiera una amenaza menor a Macs reales debido
a su retraso en la llegada e inmadurez incluso varios años después de la salida de Macs basadas en PowerPC mucho
más convincentes.
El emulador PearPC es capaz de emular los procesadores PowerPC requeridos por las nuevas versiones de Mac OS
(como Mac OS X). Por desgracia, todavía está en sus primeras etapas y, al igual que muchos emuladores, tiende a
ser mucho más lento que un sistema operativo nativo.
Durante la transición de PowerPC a los procesadores Intel, Apple se dio cuenta de la necesidad de incorporar un
emulador de PowerPC en Mac OS X con el fin de proteger las inversiones de sus clientes en software diseñado para
ejecutarse en el PowerPC. La solución de Apple es un emulador llamado Rosetta. Antes del anuncio de Rosetta, los
observadores de la industria asumieron que cualquier emulador de PowerPC, corriendo sobre un procesador x86
sufriría una excesiva merma de rendimiento (por ejemplo, PearPC es de bajo rendimiento). Rosetta tiene una merma
de rendimiento relativamente menor, por lo que tomó por sorpresa a muchos.
Otro emulador de PowerPC es SheepShaver, que ha estado con nosotros desde 1998 para BeOS en la plataforma
PowerPC pero en 2002 fue convertido a código abierto con el fin de conseguir que fuera ejecutable en otras
plataformas. Originalmente no estaba diseñado para su uso en plataformas x86 y requiería un procesador PowerPC
real presente en la máquina en que se ejecutaba de manera similar a un hypervisor. A pesar de que proporciona
soporte al procesador PowerPC, sólo puede ejecutar hasta Mac OS 9.0.4, ya que no emula una unidad de manejo de
memoria.
Otros ejemplos son ShapeShifter (por el mismo programador que concibió SheepShaver), Fusion y iFusion. Este
último corrió el Mac OS clásico con una tarjeta aceleradora "coprocesador" PowerPC. El uso de este método se ha
dicho que iguala o mejora la velocidad de un equipo Macintosh con el mismo procesador, en especial con respecto a
la serie m68k debido a Macs reales ejecutándose en modo de desvio de MMU, obstaculizando el desempeño.
Mac OS 116

Clones de Macintosh
Varios fabricantes de computadores a través de los años han hecho clones de Macintosh capaces de ejecutar Mac OS,
en particular Power Computing, UMAX y Motorola. Estas máquinas ejecutaron varias versiones del sistema
operativo clásico de Mac. En 1997 Steve Jobs cerró el programa de licencia clon al regresar a Apple.
En 2008 el fabricante estadounidense Psystar Corporation anunció un ordenador de bajo coste (499 USD) que
ejecutaba Mac OS X 10.5 Leopard. Amenazados por las batallas legales, Psystar denominó a su sistema OpenMac y
posteriormente Open Computer. Actualmente Apple sigue en litigio con esta compañía a la que pretende hacer pagar
por daños y perjuicios, por cada clon vendido y por los costes de la batalla legal.
En 2009 el fabricante HyperMegaNet UG lanzó un ordenador "Macintosh Compatible" bajo la marca comercial
PearC basándose en el hecho de que la Licencia de software no puede aceptarse al no poder ser leída antes de
adquirir el producto puesto que se encuentra dentro de la caja en la que viene el ordenador por lo que la parte que
apela a la no instalación de OS X en hardware que no sea Apple es nula a todos los efectos, al menos en Alemania.
En la práctica PearC también se vende fuera del país de origen del fabricante como es el caso en España.

Véase también
• Apple Macintosh
• System 6
• System 7
• Mac OS 8
• Mac OS 9
• Classic
• Mac OS X
• Interfaz gráfica de usuario
• Historia del Mac OS

Enlaces externos
• Página oficial de Apple [2] (en inglés)
• Página oficial de Apple en español [3]

Referencias
[1] Hormby (2005)
[2] http:/ / www. apple. com
[3] http:/ / www. apple. com/ es
Mac OS X 117

Mac OS X
Mac OS X

[1] [2] [3] [4]


Parte de la familia UNIX BSD

Desarrollador

Apple Inc.
[5]
apple.com/es/macosx

Información general

Modelo de desarrollo Código cerrado con componentes en código abierto (como Darwin y
WebKit)
Lanzamiento inicial 24 de marzo de 2001

Última versión estable 10.6.4 (Snow Leopard)


15 de junio de 2010

Escrito en [6] [7]


C, C++, Objective-C

Núcleo XNU basado en Mach y BSD

Tipo de núcleo Núcleo híbrido

Interfaz gráfica por Aqua


defecto

Plataformas soportadas • x86 y x86-64: desde la versión 10.4


• PowerPC: 32 & 64 bits hasta la versión 10.5

Método de actualización Actualización de software Apple

Licencia Propietaria / Apple CLUF

Idiomas Multilenguaje

En español

Mac OS X es un sistema operativo desarrollado y comercializado por Apple Inc. que ha sido incluido en su gama de
computadoras Macintosh desde 2002.[8] [9] Es el sucesor del Mac OS 9 (la versión final del Mac OS Classic), el
sistema operativo de Apple desde 1984.[10] Está basado en UNIX, y se construyó sobre las tecnologías desarrolladas
en NeXT entre la segunda mitad de los 80's y finales de 1996, cuando Apple adquirió esta compañía.[11] [12] Desde la
versión Mac OS X 10.5 Leopard para procesadores Intel, el sistema tiene la certificación UNIX 03.[13]
La primera versión del sistema fue Mac OS X Server 1.0 en 1999, y en cuanto al escritorio, fue Mac OS X v10.0
"Cheetah" (liberada el 24 de marzo de 2001).[14] Para dispositivos empotrados Apple produce versiones específicas:
el iOS para el iPhone y el iPod Touch[15] y el iPad, así como una versión sin nombre específico para el Apple TV.[16]
Los nombres de las versiones de Mac OS X tienen nombre de grandes felinos, por ejemplo: Mac OS X v10.6 es
denominado "Snow Leopard". En Mac OS X, la X denota el 10 en número romano y se constituye en parte
prominente de la identidad de la marca.[17]
La variante para servidores, Mac OS X Server, es arquitectónicamente idéntica a su contraparte para escritorio,
además de incluir herramientas para administrar grupos de trabajo y proveer acceso a los servicios de red. Estas
Mac OS X 118

herramientas incluyen un servidor de correo, un servidor Samba, un servidor LDAP y un servidor de dominio entre
otros. Viene preinstalada en Apple Xserve, aunque puede ser utilizado en la gran mayoría de computadores
actualmente distribuidos por el fabricante.

Historia
Mac OS X está basado en el núcleo Mach.[18] Ciertas partes de las implementaciones de UNIX por parte de
FreeBSD y NetBSD fueron incorporadas en NEXTSTEP, en el que se basó Mac OS X. Nextstep fue el sistema
operativo orientado a objetos desarrollado por Steve Jobs en NeXT después de dejar Apple en 1985.[19] Mientras
Jobs estaba afuera de Apple, la compañía intentó crear un sistema de "próxima generación" a través de los proyectos
Taligent, Copland y Gershwin, con poco éxito.[20]
Eventualmente, el sistema de NeXT (en ese entonces denominado OPENSTEP) fue seleccionado para ser la base del
próximo sistema operativo de Apple, por lo cual la compañía de Cupertino adquirió NeXT en su totalidad.[21] Steve
Jobs regreso a Apple como CEO interino, y luego asumió el cargo de lleno, acompañando la transformación de
OPENSTEP en un sistema que sería adoptado para el mercado primario de Apple, los usuarios de hogar y los
profesionales multimedia. El proyecto fue conocido inicialmente como Rhapsody y luego adoptó el nombre de Mac
OS X.[22]
Mac OS X Server 1.x era incompatible con el software diseñado para el Mac OS original y no disponía de soporte
para el puerto IEEE 1394 (FireWire). Mac OS X 10.x trajo consigo mayor compatibilidad y funcionalidad al incluir
la Carbon API al igual que soporte para FireWire. Con la evolución del sistema, abandonó el legado de Mac OS
hacia un énfasis de estilo de vida digital en las aplicaciones, tal como ocurrió con iLife, iWork y el media center
Front Row.[23] Cada versión incluía modificaciones a la interfaz general, como la apariencia metálica agregada en la
versión 10.3, la barra de títulos sin rayas en la versión 10.4 y la remoción en la versión 10.5 de la apariencia metálica
en favor de un estilo de ventana unificado en gradiente.[24] [25]

Descripción
Mac OS X es la décima versión del sistema operativo de Apple para
computadores Macintosh. Las versiones previas usaron una
numeración cardinal, p.j. Mac OS 8 y Mac OS 9. La letra X en el
nombre Mac OS X se refiere al 10 en números romanos. Por tal
motivo, la pronunciación correcta es "diez" en este contexto, aunque
pronunciarlo como "equis" es muy común.[8] [26] El centro del Mac OS
Equipos MacBook Pro late-2009 ejecutando Mac
X es compatible con POSIX construido sobre el núcleo XNU, con OS X Snow Leopard.
facilidades UNIX disponibles en la interfaz de línea de comandos
(terminal). Apple liberó esta familia de software como un sistema operativo libre y de código abierto, bajo el nombre
de Darwin, pero parcialmente se fue volviendo código cerrado. Sobre Darwin, Apple colocó varios componentes,
incluyendo la interfaz de usuario Aqua y el Finder, para completar la interfaz en la que estaba basado Mac OS X.[17]

Mac OS X introdujo un buen número de nuevas funciones para proveer una plataforma más viable y estable que su
predecesora, el Mac OS 9. Por ejemplo, la multitarea preventiva y la memoria protegida mejoraron la habilidad del
sistema para ejecutar múltiples aplicaciones simultáneamente sin interrupciones.[27] Muchos aspectos de la
arquitectura del Mac OS X se derivan de OpenStep, el cual fue diseñado para ser portable, con el objetivo de facilitar
la transición de una plataforma a otra. Por ejemplo, Nextstep fue portado de estaciones de trabajo Next basadas en
procesadores 68k a x86 y otras arquitecturas antes de que NeXT fuese adquirido por Apple, y OpenStep fue luego
portado a la arquitectura PowerPC como parte del proyecto Rhapsody.[28]
El cambio más visible fue la inclusión de la interfaz Aqua. La misma hacía uso de bordes suaves, colores
translucidos y rayas -similar al diseño del hardware de los primeros iMac- trajo más textura y color a la interfaz de
Mac OS X 119

usuario al ser comparado con el OS 9 o el OS X Server 1.0. Hubo recepciones encontradas respecto a la nueva
interfaz. Bruce Tognazzini (quien fundó el Apple Human Interface Group inicial) afirmó que la interfaz Aqua en
Mac OS X v10.0 representó un paso atrás en la usabilidad comparado con la interfaz original del Mac OS.[29] [30]
Mientras tanto, John Siracusa, uno de los editores de Ars Technica, dijo que la introducción de Aqua y su salida del
entonces convencional look fue un tremendo éxito.[31] A pesar la controversia por la nueva interfaz, los
desarrolladores de aplicaciones comenzaron a producir pieles para aplicaciones personalizadas para Mac y otros
sistemas operativos que imitaban a Aqua.

Seguridad
Tanto en la línea de comandos como en la interfaz gráfica los procesos requieren elevación para realizar
modificaciones. El acceso restringido a los archivos del sistema es responsable de gran parte de la seguridad. Sin
embargo, el sistema permite modificaciones cuando es requerido.[32] El ejemplo más obvio es el software instalador,
el cual requiere de una autorización administrativa para instalar software que afecta a más de un usuario. La
arquitectura de seguridad integrada en el Mac OS X, al igual que en otros sistemas Unix, es una de las principales
razones por las que los Mac están libres de malware.

Aplicaciones
Mac OS X v10.5 introdujo soporte seguro para aplicaciones y procesos firmados. Las aplicaciones y procesos
firmados incluyen una firma digital, la cual es usada por el sistema para verificar la autenticidad y la integridad del
software y sus recursos.[32] El código es verificado tanto en el disco como cuando se está ejecutando. De este modo,
si alguna parte del código de la aplicación o el proceso es inapropiadamente cambiado cuando está activo, el sistema
automáticamente lo desactiva. La autenticación de código es usado por los llaveros, la aplicación de firewall
personal, las preferencias de Control Parental y la configuración del gestor de clientes para verificar las aplicaciones
después de modificaciones.
Leopard también introdujo el servicio de aplicaciones en cuarentena, el cual muestra una advertencia cuando el
usuario intenta abrir una aplicación descargada de una fuente externa.[32] Esto da al usuario la oportunidad de
verificar que desea abrir una nueva aplicación, o cancelar la apertura si se sospecha sobre la seguridad de la misma.
Mac OS X v10.6 refuerza aún más esta característica con el mantenimiento de una lista de programas maliciosos
conocidos. Si intenta abrir cualquier software en esta lista, el sistema presentará un cuadro de diálogo de advertencia
que sugiere que tal archivo debe ser suprimido.

Estructura de permisos
Mac OS X distingue entre los usuarios (user), el administrador de sistema root (admin) y el superusuario
(superuser). El usuario no puede realizar cambios en el sistema y solo puede instalar software en su carpeta personal.
Las aplicaciones que ejecuten estos usuarios lo harán con los permisos propios de este tipo de usuario. Los usuarios
administradores tienen más permisos, aunque no pueden realizar modificaciones a la configuración general del
sistema, instalar software o tener acceso a varios directorios del sistema sin autenticarse.
Mac OS X v10.5 - Cuentas de usuario[33]
• Administrador: un administrador puede crear y eliminar cuentas, instalar software, modificar los ajustes del
sistema y cambiar la configuración de otros usuarios.
• Estándar: una cuenta de usuario típica. Un usuario estándar sólo puede instalar software para la cuenta de usuario
y no puede modificar las preferencias de sistema bloqueadas ni crear cuentas.
• Supervisada con controles parentales: una cuenta que tiene privilegios limitados, gestionados mediante Controles
parentales.
Mac OS X 120

• Sólo compartidos: sólo puede acceder a los archivos de una ubicación específica. No puede modificar los archivos
del ordenador ni iniciar sesión en la ventana de inicio de sesión.
• Grupo: una cuenta compuesta por los usuarios seleccionados.
No existe una cuenta root que tenga permanentemente los permisos del superusario, después de realizar la instalación
del sistema. Aunque hay un usuario "root" que está deshabilitado por defecto. Sin embargo, se han encontrado
lagunas que permiten a un usuario administrador ejecutar software de administración y tener control total sobre el
sistema.

Cortafuegos
Hasta el OS X 10.4, se utilizó el Cortafuegos orientado a paquetes ipfw para filtrar el tráfico entrante. Desde el OS X
10.5 un cortafuegos para aplicaciones establece que programas pueden recibir tráfico entrante.[34] Se puede instalar
una interfaz para ipfw mediante programas adicionales como WaterProof o Flying Buttress.
Pruebas iniciales demostraron que el cortafuegos del OS X v10.5 permitía el tráfico de datos aún cuando la opción
"Bloquear todas las conexiones" estaba activa.[35] En el OS X 10.5.1 estas vulnerabilidades fueron corregidas.[36] La
leyenda en la interfaz de usuario fue cambiada a "Permitir solo los servicios requeridos".
Las conexiones salientes no pueden ser monitoreadas por el cortafuegos incluido en el sistema. Para este propósito se
requieren programas complementarios como "Little Snitch" o "GlowWorm".[37]

Malware
De los troyanos conocidos para OS X en el 2010, solo 2 fueron calificados como peligrosos. Estos programas se
introducen al sistema mediante engaños o fraudes como lo son la descarga gratuita de una versión de OS X sin
licencia, sitios para adultos, solicitudes de descarga de códecs y situaciones similares.[38] [39] No existe evidencia de
la existencia de virus para el OS X. Los antivirus para OS X, sirven para que éste evite la multiplicación de virus que
fueron escritos para otros sistemas operativos.
A 2010, únicamente existen 9 prototipos de virus o gusanos malware para OS X conocidos. Esta estadística incluye
la publicación del primer virus de computador para Mac OS X 10-4 (PowerPC) sin embargo este malware debe ser
instalado voluntariamente por el usuario.[40]

Compatibilidad

Software
Las API que Mac OS X heredó de OpenStep no eran compatibles con
las versiones anteriores de Mac OS. Estas API's fueron creadas como
resultados de la colaboración entre NeXT y Sun Microsystems y ahora
se les denomina conjuntamente Cocoa. Esta herencia es altamente
visible para los desarrolladores de Cocoa, debido a que el prejifo "NS"
está en todas las partes del framework. La API oficial de OpenStep,
publicada en septiembre de 1994, fue la primera API entre la fundación
y el conjunto de aplicaciones, y la primera en usar el prefijo "NS".[28]
El proyecto Rhapsody habría requerido todo un nuevo desarrollo para
usar estas API's, causando gran indignación entre los desarrolladores Audacity, software de edición de audio
compatible con Mac OS X.
de software para Mac. Todos los programas que no recibieran una
completa reescritura hacia el nuevo framework funcionarían en el

equivalente entorno clásico. Para permitir una transición más limpia entre Mac OS 9 y Mac OS X, se creó el API
Carbon. Las aplicaciones escritas en Carbon podrían ser ejecutas nativamente en ambos sistemas, sin embargo esta
Mac OS X 121

API no fue incluida en la prima versión del Mac OS X, el Mac OS X Server 1.x.
Apple solía promover la plataforma Java como la mejor forma de desarrollar software para Mac OS X. En la práctica
esto significaba grandes ventajas, ya que cualquier aplicación escrita en Java funcionaría con propiedad, y la interfaz
gráfica escrita en Swing se vería muy similar a las interfaces nativas de Cocoa. Tradicionalmente, los programas
Cocoa han sido escritos en Objective-C, con Java como alternativa. Sin embargo, el 11 de junio de 2005, Apple
anunció que las características agregadas a Cocoa en las versiones posteriores a 10.4 no serían agregadas a la interfaz
de programación en Cocoa-Java.[41]
Debido a que Mac OS X es compatible con POSIX, la gran mayoría de
paquetes escritos para BSD y Linux pueden ser recompilados para ser
ejecutados en los computadores de Apple. Proyectos como Fink,
MacPorts y pkgsrc proveen paquetes precompilados para tal fin. Desde
la versión 10.3, Mac OS X incluye X11, la versión de Apple de la
interfaz gráfica X Window System para aplicaciones UNIX, como un
componente adicional durante la instalación.[42]

Desde Mac OS X v10.4 Tiger, la implentación de Apple estuvo basada


en la licencia XFree86 y la X11R6.6. Todas las versiones preinstaladas
de X11 poseen un administrador de ventanas muy similar en apariencia
Burn, software de grabación de discos. y uso a Mac OS X y tiene una buena integración con el sistema, usando
también el renderizador nativo del sistema Quartz. Las primeras
versiones de Mac OS X (donde X11 no venía preinstalado) podían ejecutar aplicaciones X11 usando XDarwin. Con
la introducción de la versión 10.5 Apple cambió a la variante X.org de X11.[43]

Hardware
Para las primeras versiones del Mac OS X, la plataforma estándar de hardware soportada era la línea completa de los
computadores Macintosh (portátiles, desktop's y servidores) basados en procesadores PowerPC G3, G4 y G5. Las
versiones que salieron más adelante discontinuaron el soporte para hardware antiguo; por ejemplo, Panther no
soporta el Power Macintosh G3, y Tiger no soporta sistemas anteriores a la inclusión del puerto FireWire (aunque los
puertos en sí mismos no son un requerimiento del sistema).[44] [45] Mac OS X v10.5 Leopard (introducido en octubre
de 2007) abandonó el soporte para todos los procesadores PowerPC G3 y para los procesadores PowerPC G4 con
velocidades de reloj menores a 867 MHz.[46] Mac OS X v10.6 "Snow Leopard" sólo soporta equipos con procesador
Intel, abandonando todo el soporte para los procesados PowerPC.
Herramientas como XpostFacto y diversos parches aplicados al disco de instalación han sido desarrollados por
terceras partes para permitir la instalación de versiones recientes de Mac OS X en sistemas no soportados
oficialmente por Apple. Esto incluye un número de sistemas Macintosh pre-G3 , que solo pueden ejecutar el Mac OS
X hasta la versión 10.2 Jaguar, todos los Macs basados en procesadores G3 que solo pueden ejecutar hasta el sistema
Tiger y los G4 con velocidad menor a 867 MHz se les puede instalar Leopard removiendo la restricción desde el
DVD de instalación o ingresando un comando en la interfaz Open Firmware para indicarle al instalador del sistema
que la velocidad del reloj es igual o superior 867 MHz. A excepción de las funcionalidades que requieren un
hardware específico (p.j. aceleración gráfica, grabación de DVD's), el sistema operativo ofrece las misma
funcionalidad que en un hardware soportado.
Las versiones PowerPC de Mac OS X anteriores a Leopard mantienen la compatibilidad con aplicaciones del Mac
OS mediante un entorno de emulación denominado Classic, el cual permite a los usuarios ejecutar Mac OS 9 como
un proceso en el Mac OS X, con el fin de que las aplicaciones antiguas funcionasen como si lo hicieran en el anterior
sistema operativo. Classic no está soportado en Macs Intel o en el Mac OS X v10.5 Leopard, aunque los usuarios que
requieran ejecutar aplicaciones Classic en Intel Macs pueden usar el emulador SheepShaver.
Mac OS X 122

Transición Apple-Intel
En abril de 2002, eWeek hizo público un rumor que afirmaba que
Apple tenía una versión de Mac OS X con nombre código Marklar, la
cual funcionaba en procesadores Intel x86. La idea detrás de Marklar
fue mantener al sistema Mac OS X funcionando en una plataforma
alternativa, debido que Apple se encontraba insatisfecha con el
progreso de los procesadores PowerPC.[47] Estos rumores
desaparecieron hasta que a finales de mayo de 2005, cuando varios
medios de comunicaciones, como el Wall Street Journal y CNET,
reportaron que Apple presentaría Marklar en los meses venideros.[48]
[49]

El 6 de junio de 2005, Steve Jobs confirmó estos rumores cuando


anunció en su discurso en el Wordwide Developers Conference que
Apple estaría trabajando en la transición de PowerPC a Intel desde
hacía 2 años y que Mac OS X soportaría ambas plataformas durante la
transición. Jobs también confirmó los rumores respecto a que Apple
MacBook Pro 2007, uno de los primeros
tenía versiones de Mac OS X funcionando en procesadores Intel con portátiles con procesador Intel.
las mismas funciones que la versión para PowerPC. La última vez que
Apple cambio la familia de procesadores fue del Motorola 68k al PowerPC. Apple incluyó un emulador de Motorola
68k en el nuevo sistema operativo, el cual hacía que todos los programas 68k funcionarán automáticamente en el
nuevo hardware. Apple soportó el emulador para 68k por 11 años, pero lo retiró durante su transición a las CPU de
Intel.

En las recientes versiones del sistema para equipos con procesador se incluye Rosetta, una de traducción binaria que
habilita al software compilado en PowerPC para ser ejecutado en computadores con procesador Intel. Sin embargo,
Apple abandonó el soporte para el modo clásico en los nuevos Mac basados en Intel. Software de emulación de
terceros como Mini vMac, Basilisk II y SheepShaver proveen soporte para algunas de las primeras versiones de Mac
OS. Una nueva versión de Xcode permite compilar software en binario universal, el cual funcionaría en cualquiera
de las dos arquitecturas.[50]
Los programas que están disponibles solo para PowerPC pueden ejecutarse sobre Rosetta, aunque dichas
aplicaciones podrían ser reescritas para que se ejecuten con propiedad en el OS X para Intel. Apple exhorta a los
desarrolladores a producir binarios universales para soporte tanto para PowerPC como x86.[51] Hay una penalidad en
el rendimiento cuando los binarios de PowerPC se ejecutan en un Mac Intel a través de Rosetta. Además, algunos
programas PowerPC, como las extensiones del núcleo y los complementos para el panel Preferencias del Sistema, no
están soportados en Intel Macs. Algunas aplicaciones PowerPC podrían no ejecutarse del todo en el OS X para Intel.
Los complementos para Safari necesitan ser compilados para la misma plataforma que Safari, de modo que cuando
Safari funciona en un Mac Intel requiere que los complementos hayan sido compilados para Intel o que sean binarios
universales, de modo que los complementos PowerPC no tienen soporte.[52] Mientras que los Mac Intel pueden
ejecutar programas compilados para PowerPC, x86 y binarios universales, los Mac PowerPC solo tendrán soporte
para los binarios universales y para las compilaciones PowerPC.
Mac OS X 123

El soporte la plataforma PowerPC se mantiene hasta el Mac OS X


versión 10.5. Dicha compatibilidad inter-plataforma ya existía en linaje
del Mac OS X; Openste fue portado a muchas arquitecturas,
incluyendo x86, y Darwin incluyo soporte tanto para PowerPC como
para x86. Aunque Apple estableció que Mac OS X no funcionaría en
computadores Intel de otros fabricantes, una versión modificada del
sistema compatible con hardware x86 convencional ha sido
desarrollada por la comunidad OSx86.

MSI Wind ejecutando Mac OS X. El 8 de junio de 2009, Apple anunció en su Worldwide Developers
Conference que el Mac OS X v10.6 Snow Leopard abandonaría el
soporte para los procesadores PowerPC y que solo estaría disponible para equipos Intel.[53] Sin embargo, Rosetta
está soportado todavía. En Snow Leopard, Rosetta no está instalado por defecto, pero está disponible en el DVD de
instalación.

Versiones
Con excepción del Mac OS X Server 1.0 y la beta pública original, las versiones del Mac OS X tienen nombres de
grandes felinos. Antes de su liberación, Mac OS X v10.0 tenía el nombre en código "Cheetah" internamente en
Apple, mientras que Mac OS X v10.1 tenía el nombre en código "Puma". Después de los grandes rumores que
rodearon la versión 10.2 con nombre en código "Jaguar", la publicidad de Apple empezó a utilizar los nombres en
código para promover su sistema operativo. El Mac OS X v10.3 fue comercializado como "Panther", Mac OS X
v10.4 como "Tiger" y el Mac OS X v10.5 como "Leopard". "Snow Leopard" es el nombre de la versión actual, Mac
OS X v10.6.
"Panther", "Tiger" y "Leopard" son marcas registradas de Apple, aunque "Cheetah", "Puma" y "Jaguar" no lo son.
Apple ha tomado también "Lynx" y "Cougar" como marcas registradas.[54] Tiger Direct demando a Apple por la
utilización del nombre "Tiger". El 16 de mayo de 2005 una corte federal de Estados Unidos en el Distrito Sur de la
Florida estableció que Apple no infringía directamente la marca registrada de Tiger Direct.[55]

Versión Nombre en código Anuncio Presentación Versión más reciente

Mac OS X Server 1.0 Hera 16 de marzo de 1999 1.2v3 (27 de octubre de 2000)

Beta pública Kodiak 13 de septiembre de 2000

10.0 Cheetah 24 de marzo de 2001 10.0.4 (22 de junio de 2001)

10.1 Puma [56] 25 de septiembre de 2001 10.1.5 (6 de junio de 2002)


18 de julio de 2001

10.2 Jaguar [57] 24 de agosto de 2002 10.2.8 (3 de octubre de 2003)


6 de mayo de 2002

10.3 Panther [58] 24 de octubre de 2003 10.3.9 (15 de abril de 2005)


23 de junio de 2003

10.4 Tiger [59] 29 de abril de 2005 10.4.11 (14 de noviembre de 2007)


4 de mayo de 2004

10.5 Leopard [60] 26 de octubre de 2007 10.5.8 (5 de agosto de 2009)


26 de junio de 2006

10.6 Snow Leopard [61] 28 de agosto de 2009 10.6.4 (15 de junio de 2010)
9 de junio de 2008
Mac OS X 124

Beta pública: "Kodiak"


Apple liberó al público, el 13 de septiembre del 2000, una versión preliminar del Mac OS X (internamente conocida
como Kodiak) para recibir observaciones y comentarios por parte de los usuarios.[62] Su precio era de USD 29.95 e
incluía una camiseta.[63] Esta versión incluía por primera vez la interfaz Aqua. La beta pública del Mac OS X expiró
y dejó de funcionar en la primavera de 2001.[64]

Versión 10.0: "Cheetah"


El 24 de marzo de 2001, Apple liberó el Mac OS X v10.0 (de nombre en código Chetah).[65] La versión inicial era
lenta, estaba incompleta y tenía muy pocas aplicaciones disponibles al momento de su lanzamiento, casi todas de
desarrolladores independientes. Mientras que muchos críticos dijeron que el sistema operativo no estaba listo para el
público, reconocieron la importancia del lanzamiento inicial como una base sobre la cual se puede progresar. La
mera liberación del Mac OS X fue recibido por la comunidad Macintosh como un gran acontecimiento. Después de
corregir algunos errores de software, los kernel panics se hicieron menos frecuentes.

Versión 10.1: "Puma"


Antes de que terminase el año, el 25 de septiembre de 2001, Apple lanzó esta nueva versión que incrementaba el
rendimiento del sistema a la vez que incorporaba algunas nuevas características tales como la reproducción de
DVD.[66] [67] Dada la pésima reputación de la versión 10.0, Apple lanzó la 10.1 en forma de un CD de actualización
gratuito para sus usuarios,[68] además de los 129$ que costaba para los usuarios que seguían utilizando Mac OS 9.
Esto ocasionó algunos quebraderos de cabeza a Apple cuando descubrió que los CD de actualización podían ser
utilizados también para hacer instalaciones completas en sistemas con Mac OS 9 con tan sólo eliminar un
determinado archivo.

Versión 10.2: "Jaguar"


El 23 de agosto de 2002, Apple presentó el Mac OS X v10.2 "Jaguar", la primera versión en usar su nombre en
código como parte de la marca.[69] [70]
Introdujo una mejora en el rendimiento, un aspecto más elegante y un numeroso grupo de mejoras (más de 150, de
acuerdo con Apple), incluyendo Quartz Extreme, un repositorio general para información de contactos en la nueva
Agenda, y un cliente de mensajería instantánea llamado iChat.[71] [72] El "Mac Feliz" (del inglés, Happy Mac) que
había aparecido durante la secuencia de arranque del Mac OS durante al menos 18 años fue reemplazado por un
logotipo a gran escala de Apple.

Versión 10.3: "Panther"


Mac OS X v10.3 "Panther" se lanzó el 24 de octubre de 2003. Además de tener un rendimiento mucho mayor,
incorporó la mayor actualización en la interfaz de usuario, y tantas o más mejoras que Jaguar el año anterior. Por otra
parte, en esta versión dejaron de soportarse algunos modelos antiguos G3.
Las nuevas mejoras de Panther incluyen:[73] Finder actualizado (que incorpora una interfaz metálica y búsqueda
rápida), Exposé (una nueva forma de manipular ventanas), cambio rápido de usuarios (permite tener sesiones con
diferentes usuarios abiertas al mismo tiempo y pasar de una a otra rápidamente), iChat AV (que añade soporte para
videoconferencia a iChat), renderización mejorada de PDF, soporte integrado de fax, interoperabilidad mejorada con
Microsoft Windows, FileVault (sistema de cifrado en tiempo real) e incremento de velocidad en todo el sistema con
un mayor soporte para los G5.
Mac OS X 125

Versión 10.4: "Tiger"


Mac OS X v10.4 "Tiger" se puso a la venta el 29 de abril de 2005. Contiene más de 150 nuevas mejoras, pero al
igual que con el lanzamiento de Panther, algunas máquinas antiguas dejaron de ser soportadas; en particular,
cualquier equipo Apple que no cuente con conexión FireWire no está ya soportado en Tiger.[74] [75] Como curiosidad
cabe comentar que Apple dispone a partir de Tiger, de una versión "paralela" compilada para procesadores Intel, si
bien, teóricamente, sólo podrá instalarse bajo ciertas restricciones de hardware y en procesadores con soporte SSE3.
Esta versión apareció oficialmente el día 10 de enero de 2006 con los primeros equipos "Mac Intel": El iMac Core
Duo (ex iMac G5), Mac mini Core Solo y Core Duo (ex Mac mini G4) además de los nuevos portátiles denominados
MacBook y MacBook Pro, ambos equipados con procesadores Intel Core Duo. También han existido versiones para
G4 de este sistema operativo, incluida al menos en los últimos PowerBook G4 a la venta.
Las aplicaciones incluidas en versiones anteriores fueron mejoradas.[76] Entre lo más destacable se tiene: Spotlight
(sistema de búsqueda basado en contenidos y metadatos), Dashboard (conjunto de miniaplicaciones para realizar
tareas comunes y ofrecen acceso instantáneo a la información), iChat (soporte para el códec de vídeo H.264 para la
realización de videoconferencias de hasta 4 personas. Además, también permite realizar audioconferencias de hasta
10 personas), QuickTime 7 (soporte para H.264 y una interfaz completamente rediseñada), Safari (incorpora soporte
para RSS, mayor velocidad y seguridad, etc.).
Se introdujeron los siguientes programas y tecnologías:[76] Automator (sistema que permite llevar a cabo de forma
eficaz y sencilla toda clase de tareas manuales y repetitivas de forma automática y sin necesidad de conocimientos de
programación), Core Image y Core Video (tecnologías avanzadas de procesamiento de imágenes en tiempo real),
soporte de memoria de 64 bits (para los nuevos G5, usando el sistema LP64), utilidades Unix actualizadas (como cp
y rsync, que pueden preservar los metadatos en HFS Plus y resource fork) y un sistema extendido de permisos
usando listas de control de acceso.

Versión 10.5: "Leopard"


Mac OS X v10.5 "Leopard" fue liberado el 26 de octubre de 2007. Fue llamado por Apple como "la mayor
actualización del Mac OS X". Trajo consigo más de 300 nuevas funciones.[77] Leopard soporta tanto procesadores
PowerPC como Intel; el soporte para procesadores G3 fue abandonado y el procesador G4 requiere una velocidad
mínima de 867 MHz, y 512 MB de RAM para permitir la instalación. El DVD de instalación funciona con todas las
arquitecturas soportadas (incluyendo maquinas de 64 bits). Las nuevas funciones incluyen una nueva apariencia, un
Finder actualizado, Time Machine (software para realizar copias de seguridad), Spaces, Boot Camp preinstalado,
soporte completo para aplicaciones de 64 bits, nuevas funciones en Mail e iChat, y nuevas características de
seguridad.[78] Leopard es un sistema UNIX certificado para la plataforma Intel. Es además el primer sistema
operativo basado en BSD en recibir la certificación UNIX 03.[79] Leopard abandonó el soporte para el Entorno
Classic y las aplicaciones del mismo.[80] Fue la última versión del Mac OS X con soporte para la arquitectura
PowerPC.

Versión 10.6: "Snow Leopard"


Mac OS X v10.6 "Snow Leopard" fue liberado el 28 de agosto de 2009. En lugar de incluir grandes cambios en la
apariencia y funcionalidades como ocurrió en las versiones anteriores de Mac OS X, Snow Leopard se enfocó en
cambios internos, como lo son: incrementar el rendimiento, la eficiencia y la estabilidad del sistema operativo. Para
la mayoría de usuarios, los cambios más notables son: la cantidad de espacio que ocupa una instalación limpia, un
Finder reescrito en Cocoa, copias de seguridad más rápidas en Time Machine, a una versión más completa de la
aplicación Vista Previa, al igual que mayor velocidad en el navegador de internet Safari.
Finder ahora toma las ventajas de la tecnología integrada de 64 bits al igual que de Grand Central Dispatch, permite
expulsar los discos de una forma más amigable (diversas cajas de dialogos le notifican al usuario si algún servicio o
programa está utilizando tal disco), y provee en general de una sensación de mejor respuesta.
Mac OS X 126

La nueva versión de Safari (4.0) mejora su rendimiento en JavaScript y HTML, lo que permite una navegación más
veloz. La mayoría de incremento en el rendimiento se debe a SquirrelFish (el nuevo interprete de JavaScript para
Webkit). Este intérprete incrementa la velocidad de renderizado en un 50%.[81] El nuevo Top Sites ahora muestra los
sitios web más visitados así como los favoritos en vista panorámica, permitiendo al usuario acceso a sus sitios
favoritos a la vez que ofrece la vista Cover Flow para el historial de navegación. El navegador ahora es más
resistente a los cuelgues, siendo capaz de aislar complementos que son la causa número de este tipo de
problemas.[82]
Mac OS X v10.6 también tiene soporte para Microsoft Exchange Server para Mail, iCal y Agenda, así como soporte
para mayores cantidades de memoria RAM, un QuickTime X totalmente renovado con una interfaz de usuario más
fresca y más funcionalidades para los usuarios de QuickTime Pro.
Los cambios internos incluyen soporte mejorado para procesadores de varios núcleos mediante Grand Central
Dispatch, el cual intenta facilitar el desarrollo de aplicaciones con soporte multi-núcleo, y así mejorar la utilización
de la CPU. Anteriormente los desarrolladores necesitaban reprogramar su software de forma que tomara
explícitamente ventaja de los múltiples núcleos, hecho que fácilmente se volvía tedioso y problemático,
especialmente en software complejo. También incluye rendimiento avanzado en la GPU con OpenCL (un estándar
abierto para plataformas GPGPU distinta de CUDA, DX11 Compute Shader o STREAM) al proveer apoyo a la labor
de descarga normalmente, sólo destinados a una CPU a la GPU de la tarjeta gráfica. Esto puede ser especialmente
útil en tareas que hacen que el computador se cuelgue fácilmente.
Snow Leopard soporta solo equipos con procesadores Intel, y requiere de 1 GB de memoria RAM para funcionar.
Esta versión abandona el soporte para la arquitectura PowerPC, sin embargo permite la ejecución de programas para
esta arquitectura tras instalar el traductor binario Rosetta.[83]

Versión 10.7: En desarrollo


Un par de meses después de la salida de Snow Leopard se rumoreó que Apple ya habría comenzado a desarrollar una
nueva versión de su sistema operativo. Todavía se desconocen mayores detalles.[84]

Críticas

Vulnerabilidades
En los años 2001-2002, cuando daba lugar la transición Mac OS-Mac OS X, el sistema recibió críticas por parte de
Microsoft y Corel respecto a la ausencia de estadísticas de adopción del nuevo sistema operativo por parte de los
usuarios.[85] En el 2001 también, Linus Torvalds importante figura del software libre y creador del núcleo de Linux
afirmó que el microkernel Mach en el que está basado el Mac OS X estaba repleto de errores de diseño.[86]
Un gran número de vulnerabilidades críticas han sido descubiertas en Safari. El 22 de febrero de 2006 se descubrió
una vulnerabilidad que permitía a un atacante la ejecución de scripts.[87] En marzo de 2010 se descubrieron 8
vulnerabilidades, las cuales pueden ser explotadas por un atacante para ejecutar código de manera remota.[88] [89]
Nuevo análisis elaborado por la compañía de seguridad informática Secunia indica que en 2007 Mac OS X presidió
la lista de vulnerabilidades graves, superando con amplio margen a Windows XP y Vista. Este año, Secunia ha
registrado un total de 237 vulnerabilidades críticas en Mac OS X, contra solo 23 en Windows XP y Vista. En
general, la plataforma Macintosh es considerada como más segura que Windows. Sin embargo, las estadísticas
demuestran lo contrario al haberse detectado más de cinco veces más vulnerabilidades en esa plataforma que en
Windows. Esto no significa, necesariamente, que Mac OS X sea más insegura que Windows. Según Apple, Mac Os
X Leopard (10.5) incorpora mayores mecanismos de seguridad que las versiones anteriores. Hasta ahora hay
relativamente pocos ejemplos de código diseñado específicamente para atacar la plataforma Macintosh, en tanto que
el malware para Windows está mucho más propagado.
Mac OS X 127

Precisamente el hecho de que la plataforma Macintosh no tenga el mismo grado de penetración que Windows
implica que hay menos interés por escribir malware específico para Mac. La conclusión parece ser que con su nivel
de vulnerabilidad, la plataforma Macintosh sería altamente insegura si tuviera el mismo número de usuarios que
Windows.
Sin embargo nuestra experiencia como empresa de soporte nos hace dudar de este estudio. MacOS es un sistema
operativo basado en una robusta plataforma; Unix. Windows, en cambio, tiene mucho camino recorrido en el arte de
ocultar sus deficiencias y solucionarlas mediante parches de seguridad. Habría que ver bajo qué parámetros están
haciendo las comparaciones entre estos sistemas operativos
Alberto Vieyra. Experto en seguridad.[90]
Respecto a Mac OS X v10.6 "Snow Leopard", el reconocido hacker Charlie Miller ha criticado que no se incluya
ninguna modificación relacionada con la forma en que el sistema asigna la memoria disponible de forma aleatoria,
una debilidad que ya era conocida en versiones anteriores de Mac OS y que en la última versión del sistema sigue
igual.[91]
Symantec, fabricante de software de seguridad para Microsoft Windows, Mac OS X y Linux afirma que la
característica de archivos en cuarentena solo ofrece protección básica contra malware.[92] "No es una solución
antivirus completa y no tiene la habilidad de remover malware del sistema" dijo textualmente la compañía.[92] "Las
firmas de malware son tan buenas como las definiciones, que requiere de Apple para proporcionar actualizaciones
regulares y oportunas".[92] Symantec también menciona que el software de actualización del Mac OS X no es
totalmente automático y carece de una interfaz de usuario que permita ver qué firmas han sido descargadas.[92]
Asimismo afirma que las mejoras en la seguridad de Apple no protegen al usuario de acceso no autorizado a los
archivos importantes ni bloquean la transferencia de información delicada. Igualmente afirma que el cortafuegos
predeterminado del Mac OS X está desactivado por defecto.[92]

Software
El catalogo de programas disponible para Mac OS X es menor si se le compara con Microsoft Windows.
Aplicaciones importantes como Microsoft Office, y Photoshop tienen versión nativa para Mac OS X.[93] [94] Entre
las carencias se destaca los programas desarrollados por Autodesk, principalmente AutoCAD y Revit.
Durante los cambios de sistema operativo y de tipo de procesador, Apple ha tenido traspiés en la compatibilidad del
software. Cuando se saltó del Mac OS al Mac OS X, el nuevo sistema pasó a ejecutar las aplicaciones mediante una
capa de compatibilidad. Esto hizo que el software se ejecutará de forma lenta, ya que utilizar un software "classic"
implica la carga del Mac OS 9 dentro del Mac OS X y que los dos funcionaran paralelamente.
En la transición PowerPC-Intel, los programas escritos para la plataforma anterior pasaron a ejecutarse nuevamente
en una capa de compatibilidad, aunque en este caso se trató de un software y no de un sistema operativo completo. El
programa encargado de hacer funcionar aplicaciones escritas para PowerPC se denomina Rosetta, el cual era
totalmente transparente. Su única desventaja era que no podía ejecutar programas de envergadura, tales como
Photoshop o Final Cut Pro.
Mac OS X 128

Otros
The Open Group criticó a Apple por utilizar el término "Unix" en la publicidad de Mac OS X pese a que este sistema
no disponía de la certificación oficial del sistema operativo y su uso podía suponer una violación de marca
registrada. Posteriormente y como respuesta a estas críticas, Mac OS X se certificó para la versión 10.5 (Leopard)
cuando comenzó a funcionar sobre procesadores Intel.[95]
Según la prensa especializada, Apple se ha centrado en los dispositivos móviles que fabrica (como los iPod, el
iPhone y el iPad) y ha relegado a los computadores Macintosh. Hecho que se nota en que los procesadores de los
equipos portátiles, concretamente los MacBook y los MacBook Pro están actualmente (marzo de 2010)
desactualizados respecto a la competencia.

Comparación con otras plataformas

Orígenes
Mac OS X es un sistema UNIX, motivo por el cual guarda especial relación con Linux. Esta relación se basa en el
cumplimiento de estándares, aunque el código de ambos es completamente distinto. Linux es un sistema tipo-UNIX,
mientras que Mac OS X es un sistema UNIX certificado. La relación Mac OS X-Linux es tan estrecha, que es
posible portar fácilmente un programa de Linux a Mac OS X y ejecutarlo en el subsistema X11. Un ejemplo claro de
esto es OpenOffice.org, el cual durante sus versiones iniciales para Mac OS X funcionó en X11 hasta que pasó a ser
una aplicación nativa. Por su parte, Windows no guarda relación alguna con Mac OS X o Linux. En noviembre de
2009, un ejecutivo de Microsoft admitió que Windows 7 había sido inspirado en Mac OS X.[96] [97]

Market Share y demografía del usuario


De acuerdo con Apple, los usuarios de Mac OS X eran casi 10 millones a principios de 2004,[98] habiendo un
incremento en la cuota de mercado del 2,06% al 2,88% con respecto al 2003.[99] En octubre de 2006, las firmas IDC
y Gartner reportaron que la cuota de mercado de Apple en los Estados Unidos se había incrementado en un 6%.[100]
Las cifras de diciembre de 2006, muestran una cuota de mercado de alrededor de un 6% (IDC) y un 6,1% (Gartner).
Estas se basan en un incremento de más del 30 por ciento en la venta de unidades desde 2005 a 2006. A marzo de
2010, Mac OS X ostenta una participación en el mercado global del 5.02%, mientras que en Microsoft Windows y
Linux es del 92.12% y 0.98% respectivamente.[101] El 24 de noviembre de 2009 ComputerWorld informó que
Windows 7 había superado a Mac OS X en número de usuarios.[102] [103]
Existen tres formas de tomar muestras en el mercado de los sistemas operativos: 1. accesos del navegador 2. las
ventas 3. equipos en operación. Si se mide mediante el navegador, el mercado de los Mac se ha incrementado
substancialmente desde 2007.[104] Sin embargo, los resultados de la cuota de mercado medido como porcentaje de
las ventas actuales proporciona resultados diferentes a los que se obtienen midiendo los equipos en funcionamiento.
La cantidad de computadores Mac en uso es difícil de determinar, con números que van entre el 5% (2009) y el 16%
(2005).[105] [106] La cuota del Mac OS X en el mercado de los sistemas operativos se incrementó de un 7.32% en
diciembre de 2007 a un 9.63% en diciembre de 2008, lo que implica un incremento en la cuota de mercado del 32%
durante el 2008, comparado con un incremento del 22% en 2007.
Expertos de la industria a menudo han llamado la atención sobre la cuota de mercado relativamente pequeña de Mac
para predecir la muerte inminente de Apple, en particular en la década de 1990, cuando el futuro de la empresa
parecía más sombrío. Otros argumentan que la cuota de mercado es una forma equivocada para medir el éxito del
Mac. Apple ha posicionado el Mac como un computador personal de alto rendimiento, de modo que sería erróneo
compararlo con un PC de bajo coste.[107] Debido a que el mercado global para los computadores personales ha
crecido rápidamente, los incrementos en las ventas de los Mac se ven opacados al compararse con sus competidores.
Entonces, la pequeña cuota de mercado de Apple da una falsa impresión en cuanto a que hay menos personas usando
Macs que anteriormente.[108] Otros tratan de hacer hincapié en la cuota de mercado, alegando que rara vez se ve tal
Mac OS X 129

contexto en otras industrias.[109] Independientemente de la cuota de mercado del Mac, Apple se ha mantenido
rentable desde el retorno de Steve Jobs y la posterior reorganización de la empresa.[110] Notablemente, un reporte
publicado en el primer cuarto del 2008 encontró que Apple tenía un 14% de share en el mercado de los
computadores personales en Estados Unidos, incluyendo el 66% de los equipos cuyo valor supera los 1.000
doláres.[111] Las investigaciones de mercado indican que la mayor parte de su base de clientes proviene de personas
con altos ingresos.[112]

Seguridad
Mac OS X, Microsoft Windows y Linux incluyen de fábrica utilidades de seguridad muy similares, como
cortafuegos y antispyware. Si bien ningún sistema operativo está exento de ser atacado o infectado por un virus, Mac
OS X está basado en UNIX y la cantidad de virus que lo afectan es reducida. Los pocos virus que se han detectado
para Mac OS X, son de aquellos que causan molestar cambiando el fondo de pantalla del usuario, modificando la
ubicación de sus archivos, pero ninguno que afecte al sistema.[113]
Cerca del 99.2% del malware tiene por objetivo Microsoft Windows.[114] Pese a la reducida cantidad de malware
destinada para el sistema de Apple, el Mac OS X fue denominado por IBM como el sistema operativo más
inseguro.[115] En ese mismo estudio, IBM califica su sistema AIX, como el más seguro. Es importante recalcar, que
tanto Mac OS X como AIX son sistemas UNIX.
Tanto Mac OS X como Microsoft Windows incluyen utilidades integradas para el cifrado de archivos. La de Mac OS
X se denomina FileVault, mientras que la de Microsoft Windows es BitLocker.[116] [117] Linux en la gran mayoría de
distribuciones no incluye un software de cifrado, aunque están disponibles un buen número de aplicaciones libres
para tal fin, como TrueCrypt o GnuPG.[118] [119]

Tabla

Sistema Windows 7 Windows Windows XP Windows Mac OS X Mac OS Debian Fedora SUSE Mandriva FreeBSD OpenBSD Solaris Plan 9

operativo Vista 2000 GNU/Linux (Linux) Linux Linux

Creador Microsoft Microsoft Microsoft Microsoft Apple Apple Proyecto Proyecto SuSE Mandriva Universidad de Theo de Sun Bell Labs

Debian Fedora (empresa) California Raadt

Año de 2009 2007 2001 2000 2001 1984 1993 2003 1994 1998 1993 1996 1989 1993

primera
distribución

Aspectos generales

Última 6.1 build 6.0 build 5.1 build 5.0 con Mac OS X 9.2 5.0 Lenny 13 11.2 2010.0 8 4.0 10 Fourth

versión 7600 6000 2600 con Service Pack v10.6 ("Snow Adelie Edition

estable Service Service Pack 4 Leopard")

Pack 2 3

Costo U$S 199.99 U$S 90 143,526€ $2 ? 29€ o [120] Gratuito Gratuito Gratuito Gratuito Gratuito Gratuito Gratuito Gratuito
Gratuito
(Home (Home 152.89 MX preinstalado
hasta 7.5.5, 9.2 cuesta
Premium) Basic) (Home)
15,60€ para dueños
299.99 179 217,593€ $3
de Mac OS X
(Professional) (Home 263.895

319.99 Premium) MX(Pro)

(Ultimate) 229

(Business)

349

(Ultimate)
Mac OS X 130

Licencia No Libre No Libre No Libre No Libre No Libre No Libre Libre: GPL Libre: GPL Libre: GPL Libre: GPL Libre: BSD Libre: No Libre Libre: LPL

Parcialmente BSD Semilibre:

software libre CDDL

Tipo de Hogar, Hogar, Hogar, Negocios Hogar, Hogar, diseño, Hogar, Hogar, Hogar, Hogar, Servidores Estaciones

usuario negocios y negocios negocios y diseño, negocios ciencia, ciencia, ciencia, ciencia, Servidores Servidores, de trabajo,

redes y redes redes negocios, servidores, servidores servidores servidores, negocios servidores,

servidores y redes, redes, embebido

redes negocios negocios, HPC

empresas,

Estaciones

de trabajo ,

escritorio

Aspectos técnicos

Tipo de Híbrido Híbrido Híbrido Híbrido Mach Ninguno/Micronúcleo Monolítico Monolítico Monolítico Monolítico Monolítico Monolítico Monolítico Monolítico

núcleo (Micronúcleo)

Arquitecturas Intel x86, Intel x86, Intel x86, Intel x86 x86, X86-64, PowerPC Intel Intel x86, Intel x86, Intel x86, Intel x86, IA64, Intel x86, Intel x86, Intel IA32,

de X86-64, X86-64, X86-64, PowerPC x86IA64, AMD64, AMD64, AMD64, AMD64, DEC AMD64, AMD64, PowerPC,

procesador IA64 IA64 IA64 AMD64, PowerPC PowerPC PowerPC Alpha, ARM, DEC Sparc, ARM,

soportadas DEC Alpha, MIPS, pc98 Alpha, UltraSparc, DEC

ARM, HP (NEC ARMISH, PowerPC Alpha,

PA-RISC, PC-98x1), HP300, (sólo en MIPS,

MIPS (big PowerPC, HP PA, versión Sparc,

endian), UltraSparc, Landisk, 2.5.1), Motorola

MIPS (little Sun4v Luna-88k, Sun4d, 68000

endian), (UltraSparc-T1), Mac68k, Sun4m

PowerPC, XBox PowerPC,

IMB S/390, (Microsoft Motorola

Sparc X-Box) VME 68k,

Motorola

VME 88k,

SGI,

Sparc,

UltraSparc,

VAX,

Zaurus

Sistema de NTFS NTFS NTFS/FAT32 NTFS/FAT32 HFS+/UFS HFS/HFS+ ext3 ext4 ReiserFS ext4 Berkeley FFS Berkeley UFS/ZFS fossil/venti,

archivos por Hasta 32 GB Hasta 32 GB FFS 9P2000,

defecto kfs, ext2,

FAT, ISO

9660

Soporte de No No Sí Sí No Sí ? Sí ? ? Sí ? ?

sistemas de

archivo de 16

bits

Soporte de Sí Sí Sí Sí Sí Sí Sí Sí Sí Sí Sí Sí Sí Sí

sistemas de

archivo de 32

bits

Soporte de Si Si Si No Sí No Sí Sí Sí Sí ? ? ?

sistemas de

archivo de 64

bits
Mac OS X 131

Herramienta Windows Windows Windows Windows Software Software Update apt yum YaST urpmi y Fuentes Fuentes pkgadd

de Update Update Update Update Update RPMDrake replica/pull

actualización

por defecto

Aspectos gráficos

Entorno Basado en el Basado en Basado en el Basado en el Basado en el Basado en el núcleo Aplicación: Aplicación: Aplicación: Aplicación: Aplicación: X Aplicación: Aplicación:

gráfico¹ núcleo el núcleo núcleo núcleo núcleo X Window X Window X Window X Window Window X Window X Window Aplicación:

(Quartz) System System System System System System System rio

Sistema de Standard Standard Standard Standard OS X Finder Macintosh Finder GNOME GNOME KDE KDE y ? N/A CDE o rio

ventanas por Windows Windows Windows Windows GNOME GNOME

defecto

Estilo de Aero Aero Estilo Luna Estilo clásico Aqua Platinum Metacity Metacity kwin con Metacity ? fvwm dtwm con rio

Interfaz interfaz con tema tema con tema CDE,

gráfica de ClearLooks plastik La ora Metacity

usuario con

GNOME

Véase también
• Apple Computer
• Apple Macintosh
• Mac OS 9
• Mac OS 8
• Mac OS
• iLife
• MobileMe

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Mac OS X. Commons
• Mac OS X en el sitio web de Apple [121]
• Aplicaciones para Mac OS X en el sitio web de Apple [122]
• Noticias y Aplicaciones Mac OS X [123]
• Software para el sistema operativo Mac OS X [124]

Referencias
[1] NEXTSTEP tiene influencias de BSD 4.3, Mac OS X Server tiene influencias de BSD 4.4 y de NetBSD 1.3 y Mac OS X tiene influencias de
FreeBSD 3.2
[2] The Open Group (ed.): « Mac OS X 10.5 on Intel-based Macintosh computers (http:/ / www. opengroup. org/ openbrand/ register/ brand3555.
htm)» (en inglés). Consultado el 22 de noviembre de 2009.
[3] The Open Group (ed.): « Mac OS X 10.6 on Intel-based Macintosh computers (http:/ / www. opengroup. org/ openbrand/ register/ brand3581.
htm)» (en inglés). Consultado el 7 de abril de 2010.
[4] Apple Inc (ed.): « Apple page on UNIX (http:/ / www. apple. com/ server/ macosx/ technology/ unix. html)» (en inglés). Consultado el 5 de
noviembre de 2008.
[5] http:/ / www. apple. com/ es/ macosx/
[6] Apple Inc (ed.): « Apple Developer: Cocoa Overview (http:/ / developer. apple. com/ Cocoa/ overview. html)» (en inglés). Consultado el 9 de
abril de 2010.
[7] Apple Inc (ed.): « Apple Developer: Mac OS X Technology Overview (http:/ / developer. apple. com/ mac/ library/ documentation/ MacOSX/
Conceptual/ OSX_Technology_Overview/ OSX_Technology_Overview. pdf)». Consultado el 9 de abril de 2010.
[8] « What is an operating system (OS)? (http:/ / support. apple. com/ kb/ TA22541)». Apple Inc (15 de julio de 2004). Consultado el 20 de
diciembre de 2006. «The current version of Mac OS is Mac OS X (pronounced "Mac O-S ten").».
Mac OS X 132

[9] « Apple’s Mac OS X to Ship on March 24 (http:/ / www. apple. com/ pr/ library/ 2001/ jan/ 09macosx. html)». Apple Inc. (9 de enero de
2001). Consultado el 27 de febrero de 2010.
[10] « Historia y evolución del Sistema Operativo Mac OS (http:/ / www. maestrosdelweb. com/ editorial/
historia-y-evolucion-del-sistema-operativo-mac-os/ )». Maestros del Web (26 de octubre de 2007). Consultado el 15 de marzo de 2010.
[11] « NeXTstep, el abuelo del OSX (http:/ / www. planetamac. es/ nextstep-el-abuelo-del-osx)». PlantetMac (18 de diciembre de 2006).
Consultado el 27 de febrero de 2010.
[12] « NeXTstep, el abuelo del OSX (http:/ / news. cnet. com/ Apple-acquires-Next,-Jobs/ 2100-1001_3-256914. html)». CNET (20 de diciembre
de 1996). Consultado el 27 de febrero de 2010.
[13] « Apple’s Mac OS X to Ship on March 24 (http:/ / www. opengroup. org/ openbrand/ register/ brand3555. htm)». The Open Group (18 de
mayo de 2007). Consultado el 27 de febrero de 2010.
[14] « Mac OS X Hits Stores This Weekend (http:/ / www. apple. com/ pr/ library/ 2001/ mar/ 21osxstore. html)». Mac OS X Hits Stores This
Weekend (21 de marzo de 2001). Consultado el 27 de febrero de 2010.
[15] Haslam, Karen (Enero de 2007). « Macworld Expo: Optimised OS X sits on 'versatile' flash (http:/ / www. macworld. co. uk/ ipod-itunes/
news/ index. cfm?newsid=16927)». Macworld. Consultado el 13 de enero de 2007.
[16] Mossberg, Walter S. (21 de marzo de 2007). « From PC to TV - via Apple (http:/ / solution. allthingsd. com/ 20070321/ pc-tv-via-apple/ )».
All Things Digital. Consultado el 18 de mayo de 2008.
[17] « Mac OS X for UNIX Users (http:/ / images. apple. com/ macosx/ pdf/ L355785A_UNIX_TB. pdf)» (PDF). Apple Inc (19 de marzo).
Consultado el 14 de septiembre de 2009.
[18] « Leopard OS Foundations Overview (http:/ / developer. apple. com/ leopard/ overview/ osfoundations. html)». Apple Inc (26 de octubre de
2007). Consultado el 15 de diciembre de 2008.
[19] Singh, Amit. « Architecture of Mac OS X (http:/ / www. kernelthread. com/ mac/ osx/ arch. html)». What is Mac OS X?. Consultado el 7 de
abril de 2006.
[20] « Apple Facts (http:/ / www. theapplemuseum. com/ index. php?id=44)». The Apple Museum. Consultado el 15 de diciembre de 2008. «a
joint venture with IBM, called Taligent, but was discontinued soon thereafter».
[21] Markoff, John.« Why Apple Sees Next as a Match Made in Heaven (http:/ / query. nytimes. com/ gst/ fullpage.
html?res=9F06E1D71331F930A15751C1A960958260)», The New York Times, 23 de diciembre de 1996, p. D1.
[22] Anguish, Scott (9 de julio de 1998). « Apple Renames Rhapsody, now Mac OS X Server (http:/ / www. stepwise. com/ Articles/ Business/
RhapsodyRenamed. html)». Consultado el 20 de diciembre de 2006.
[23] Spolsky, Joel (13 de junio de 2004). « How Microsoft Lost the API War (http:/ / www. joelonsoftware. com/ articles/ APIWar. html)».
Consultado el 15 de abril de 2009. «The developers of the Macintosh OS at Apple have always been in this camp [i.e. not trying to be
backwards compatible no matter what]. It's why so few applications from the early days of the Macintosh still work...».
[24] W., Jeff (27 de mayo de 2008). « Mac OS X (10.5) - User Interface Changes (http:/ / helpdesk. wisc. edu/ page. php?id=6609)». University
of Wisconsin. Consultado el 15 de abril de 2009.
[25] Rizzo, John (12 de noviembre de 2003). « Mac OS X 10.3 Panther (http:/ / www. builderau. com. au/ news/ soa/ Mac-OS-X-10-3-Panther/
0,339028227,320280883,00. htm)». Consultado el 15 de abril de 2009. «Al reiniciar, notarás que Apple habrá cambiado el interfaz airy Aqua
por el brushed-metal de iTunes, de aspecto más oscuro y mayor peso.».
[26] Siracusa, John (24 de marzo de 2006). « Five years of Mac OS X (http:/ / arstechnica. com/ apple/ reviews/ 2006/ 03/ osx-fiveyears. ars)».
Ars Technica. Consultado el 15 de abril de 2009. «Even Steve Jobs still says "ecks" instead of "ten" sometimes.».
[27] Raymond, Eric Steven. « The Elements of Operating-System Style (http:/ / www. faqs. org/ docs/ artu/ ch03s01. html#id2892085)».
Consultado el 5 de noviembre de 2008.
[28] « Cocoa Fundamentals Guide: A Bit of History (http:/ / developer. apple. com/ documentation/ Cocoa/ Conceptual/ CocoaFundamentals/
WhatIsCocoa/ chapter_2_section_6. html#/ / apple_ref/ doc/ uid/ TP40002974-CH3-SW12)». ADC Reference Library. Apple Developer
Connection. Consultado el 15 de diciembre de 2008.
[29] Tognazzini, Bruce (Febrero de 2000). « OS X: A First Look (http:/ / www. asktog. com/ columns/ 034OSX-FirstLook. html)». Consultado el
5 de noviembre de 2008.
[30] Thomas, Matthew Paul (16 de febrero de 2004). « My first 48 hours enduring Mac OS X (http:/ / mpt. net. nz/ archive/ 2004/ 02/ 16/ os-x)».
Consultado el 5 de noviembre de 2008.
[31] Siracusa, John (28 de octubre de 2007). « Mac OS X 10.5 Leopard: the Ars Technica review (http:/ / arstechnica. com/ reviews/ os/
mac-os-x-10-5. ars/ 3)». Ars Technica. Consultado el 16 de diciembre de 2008.
[32] White, Kevin (2009) (en Inglés). Apple Training Essentials. Estados Unidos: Peachpit Press. ISBN 0321635345.
[33] http:/ / docs. info. apple. com/ article. html?path=Mac/ 10. 5/ es/ 15191. html
[34] « Mac OS X 10.5 Leopard: Acerca del cortafuegos de aplicaciones (http:/ / support. apple. com/ kb/ HT1810?viewlocale=es_ES)». Apple
Inc. (21 de noviembre de 2008). Consultado el 22 de marzo de 2010.
[35] « Problemas con el cortafuegos de Leopard (http:/ / www. blogdeapple. com/ 2007/ 10/ 31/ problemas-con-el-firewall-de-leopard/ )». Blog
de Apple (31 de octubre de 2007). Consultado el 22 de marzo de 2010.
[36] « La primera actualización de Leopard corregirá más de 20 errores del sistema (http:/ / www. applesfera. com/ aplicaciones/
la-primera-actualizacion-de-leopard-corregira-mas-de-20-errores-del-sistema)». Weblogs SL (8 de noviembre de 2007). Consultado el 22 de
marzo de 2010.
Mac OS X 133

[37] « GlowWorm, herramienta de seguridad en internet (http:/ / www. applesfera. com/ aplicaciones/
glowworm-herramienta-de-seguridad-en-internet)». Weblogs SL (26 de enero de 2007). Consultado el 22 de marzo de 2010.
[38] « Trojaner-Lockmittel: Snow Leopard kostenlos (http:/ / www. fscklog. com/ 2009/ 08/ trojaner-lockmittel-snow-leopard-kostenlos. html)».
Fscklog (27 de agosto de 2009). Consultado el 20 de marzo de 2010.
[39] « OSX.RSPlug.A: Integos legitime Trojaner-Warnung (http:/ / www. fscklog. com/ 2007/ 10/ osxrspluga-inte. html)». Fscklog (27 de agosto
de 2009). Consultado el 20 de marzo de 2010.
[40] « Virus für Mac OS X aufgetaucht (http:/ / www. heise. de/ newsticker/ meldung/ Virus-fuer-Mac-OS-X-aufgetaucht-176181. html)». heise
online (15 de febrero de 2006). Consultado el 20 de marzo de 2010.
[41] « Introduction to Cocoa-Java Integration Guide (http:/ / developer. apple. com/ documentation/ Cocoa/ Conceptual/ LanguageIntegration/
index. html)». ADC Reference Library. Apple Developer Connection. Consultado el 8 de abril de 2006.
[42] « X11 for Mac OS X 1.0 (http:/ / support. apple. com/ downloads/ X11_for_Mac_OS_X_1_0)». Apple Inc (28 de octubre de 2003).
Consultado el 15 de diciembre de 2008.
[43] Ben Byer (27 de octubre de 2007). « Re: X11 in Leopard: xterm on start-up (http:/ / lists. apple. com/ archives/ x11-users/ 2007/ Oct/
msg00065. html)». Apple's x11-users mailing list. Consultado el 18 de enero de 2008.
[44] « Mac OS X: System Requirements (http:/ / docs. info. apple. com/ article. html?artnum=106163)». Apple Inc (28 de abril de 2005).
Consultado el 20 de diciembre de 2006.
[45] « Mac OS X 10.4: System Requirements (http:/ / support. apple. com/ kb/ HT1514)». Apple Inc (28 de abril de 2005). Consultado el 19 de
marzo de 2010.
[46] « Mac OS X 10.5: Requerimiento de sistema (http:/ / support. apple. com/ kb/ HT3759?viewlocale=es_ES)». Apple Inc (28 de abril de
2005). Consultado el 19 de marzo de 2010.
[47] Rothenbourg, Matthew; dePlume, Nick (30 de agosto de 2002). « Apple Keeps x86 Torch Lit with 'Marklar' (http:/ / www. eweek. com/ c/ a/
Past-News/ Apple-Keeps-x86-Torch-Lit-with-Marklar)». eWeek.com. Consultado el 3 de octubre de 2005.
[48] Clark, Don; Wingfield, Nick (23 de mayo de 2005). « Apple Explores Use Of Chips From Intel For Macintosh Line (http:/ / online. wsj.
com/ article/ SB111680203134440188. html)». Wall Street Journal. Consultado el 8 de febrero de 2009.
[49] Kanellos, Michael (23 de mayo de 2005). « Apple to Intel: Some advantage, lots of risk (http:/ / www. news. com/ 2100-1006_3-5716696.
html)». CNet. Consultado el 28 de abril de 2006.
[50] « Apple to Use Intel Microprocessors Beginning in 2006 (http:/ / www. apple. com/ pr/ library/ 2005/ jun/ 06intel. html)», Apple Inc, 6 de
junio de 2005. Consultado el 8 de abril de 2006.
[51] « Adopting Universal Binaries (http:/ / developer. apple. com/ macosx/ adoptinguniversalbinaries. html)». Apple Inc (Enero de 2006).
Consultado el 20 de diciembre de 2006.
[52] Landau, Ted (Mayo de 2006). « OS X First Aid (http:/ / www. macworld. com/ article/ 50339/ 2006/ 04/ firstaidintel. html)». Macworld.
Consultado el 8 de febrero de 2009.
[53] Stevens, Tim (10 de junio de 2009). « Snow Leopard officially puts PowerPC Macs on endangered species list (http:/ / www. engadget. com/
2009/ 06/ 10/ snow-leopard-officially-puts-powerpc-macs-on-endangered-species/ )». Engadget. Consultado el 15 de junio de 2009.
[54] Trademark #78257226 for Panther, #78269988 for Tiger, #78270003 for Leopard, #78271630 for Cougar and #78271639 for Lynx, all
registered in 2004 by Apple Computer, Inc. « United States Patent and Trademark Office (http:/ / www. uspto. gov/ index. html)». Consultado
el 20 de diciembre de 2006.
[55] Kasper, Jade. « Court sides with Apple over "Tiger" trademark dispute (http:/ / www. appleinsider. com/ articles/ 05/ 05/ 13/
court_sides_with_apple_over_tiger_trademark_dispute. html)». AppleInsider. Consultado el 25 de abril de 2006.
[56] « Apple Previews Next Version of Mac OS X (http:/ / www. apple. com/ pr/ library/ 2001/ jul/ 18macosx. html)». Apple.com (18 de julio de
2001). Consultado el 11 de marzo de 2010.
[57] « Apple Previews “Jaguar,” the Next Major Release of Mac OS X (http:/ / www. apple. com/ pr/ library/ 2002/ may/ 06jaguar. html)».
Apple.com (6 de mayo de 2002). Consultado el 11 de marzo de 2010.
[58] « Apple Previews Mac OS X “Panther” (http:/ / www. apple. com/ pr/ library/ 2003/ jun/ 23panther. html)». Apple.com (23 de junio de
2003). Consultado el 11 de marzo de 2010.
[59] Apple Computer, Inc.. « Steve Jobs to Kick Off Apple’s Worldwide Developers Conference 2004 with Preview of Mac OS X "Tiger" (http:/
/ www. apple. com/ pr/ library/ 2004/ may/ 04wwdc. html)». Apple.com. Consultado el 11 de marzo de 2010.
[60] Apple Computer, Inc.. « Apple.com (http:/ / www. apple. com/ pr/ library/ 2006/ jun/ 26wwdc. html)». Apple.com. Consultado el 11 de
marzo de 2010.
[61] Apple Computer, Inc. (9 de junio de 2008). « Apple.com (http:/ / www. apple. com/ pr/ library/ 2008/ 06/ 09snowleopard. html)».
Apple.com. Consultado el 11 de marzo de 2010.
[62] « Makefile (http:/ / www. opensource. apple. com/ darwinsource/ DevToolsJun2005/ gas-590/ Makefile)». Apple Inc (Junio de 2005).
Consultado el 15 de diciembre de 2008. «RC Release is Kodiak (Public Beta)».
[63] John Siracusa. « Mac OS X Beta — Page 1 - (10/2000) (http:/ / arstechnica. com/ reviews/ 4q00/ macosx-pb1/ macos-x-beta-1. html)». Ars
Technica. Consultado el 11 de marzo de 2010.
[64] « Mac OS X Public Beta Expires Today | News (http:/ / www. macobserver. com/ tmo/ article/ Mac_OS_X_Public_Beta_Expires_Today/ )».
The Mac Observer. Consultado el 11 de marzo de 2010.
[65] Aunque la versión ahora es llamada Cheetah por los usuarios, rara evidencia puede encontrarse que puebe que así fue llamada internamente.
Existe un FAQ creado en 2005 que menciona lo menciona.« Technical Q&A (http:/ / developer. apple. com/ qa/ qa2004/ qa1378. html)».
Mac OS X 134

Apple Inc (4 de octubre de 2005). Consultado el 20 de diciembre de 2006.


[66] « Mac OS X v10.1 Puma (http:/ / arstechnica. com/ apple/ reviews/ 2001/ 10/ macosx-10-1. ars)». Apple Inc (15 de Octubre de 2001).
Consultado el 27 de febrero de 2010.
[67] « Mac OS X v10.1 Puma (http:/ / en. allexperts. com/ e/ m/ ma/ mac_os_x_v10. 1. htm)». All Experts (Agosto de 2002). Consultado el 27 de
febrero de 2010.
[68] « The Disaster-Free Upgrade to Mac OS 10.1 (http:/ / onlamp. com/ pub/ a/ mac/ 2001/ 09/ 28/ disasterfree_tenone. html)». OnLamp
(Agosto de 2002). Consultado el 27 de febrero de 2010.
[69] « Jaguar "Unleashed" at 10:20 p.m. Tonight (http:/ / www. apple. com/ pr/ library/ 2002/ aug/ 23jaguar. html)». Apple Inc (23 de agosto de
2002). Consultado el 15 de diciembre de 2008.
[70] Los titulares de prensa mencionan el término "Jaguar", mientras que este no era mencionado en las primeras versiones. Léase la nota de
prensa de "Jaguar" Apple.com (http:/ / www. apple. com/ pr/ library/ 2002/ may/ 06jaguar. html) y compárese con Mac OS X v10.0 press
release (http:/ / www. apple. com/ pr/ library/ 2001/ jan/ 09macosx. html) and Mac OS X v10.1 press release (http:/ / www. apple. com/ pr/
library/ 2001/ sep/ 25osx_available. html)
[71] « Wayback Machine's Cache of the OS X 10.2 Product Information Page (http:/ / web. archive. org/ web/ 20020829042532/ www. apple.
com/ macosx/ )». Apple Inc (29 de agosto de 2002). Consultado el 12 de junio de 2008.
[72] « Apple Previews "Jaguar," the Next Major Release of Mac OS X (http:/ / www. apple. com/ pr/ library/ 2002/ may/ 06jaguar. html)». Apple
Inc (6 de mayo de 2002). Consultado el 20 de diciembre de 2006.
[73] « Installation and Setup Guide - Mac OS X v10.3 Panther (http:/ / download. info. apple. com/ Apple_Support_Area/ Manuals/ mac_os/
MacOSX10. 3_Install_Setup. pdf)». Apple Inc. (Octubre de 2003). Consultado el 27 de febrero de 2010.
[74] « Apple Unleashes "Tiger Friday at 6:00 p.m. (http:/ / www. apple. com/ pr/ library/ 2005/ apr/ 28tiger. html)». Apple Inc (28 de abril de
2005). Consultado el 11 de enero de 2007.
[75] « Mac OS C v10.4: requisitos del sistema (http:/ / support. apple. com/ kb/ HT1514?viewlocale=es_ES)». Apple Inc (18 de noviembre de
2009). Consultado el 22 de marzo de 2010.
[76] « Welcome to Mac OS X v10.4 Tiger (http:/ / manuals. info. apple. com/ en/ Welcome_to_Mac_OS_X_v10. 4_Tiger. pdf)». Apple Inc (15
de Octubre de 2001). Consultado el 27 de febrero de 2010.
[77] « Apple — Mac OS X Leopard — Features – 300+ New Features (http:/ / www. apple. com/ macosx/ features/ 300. html)». Apple Inc
(2008). Consultado el 13 de junio de 2008.
[78] « Apple — BootCamp (http:/ / www. apple. com/ macosx/ bootcamp/ )». Apple Inc (2006). Consultado el 5 de junio de 2006.
[79] « Mac OS X Leopard — Technology — UNIX (http:/ / www. apple. com/ server/ macosx/ technology/ unix. html)». Leopard Technology
Overview. Apple Inc. Consultado el 26 de octubre de 2007. «Leopard is now an Open Brand UNIX 03 Registered Product, conforming to the
SUSv3 and POSIX 1003.1 specifications for the C API, Shell Utilities, and Threads.».
[80] « Do Classic applications work with Mac OS X 10.5 or Intel-based Macs? (http:/ / docs. info. apple. com/ article. html?artnum=303137)».
Knowledge Base. Apple Inc. (13 de enero de 2006). Consultado el 25 de octubre de 2007.
[81] « OS X Snow Leopard Hot News (http:/ / www. apple. com/ macosx/ snowleopard/ ?sr=hotnews)». Apple Inc (9 de junio de 2008).
Consultado el 10 de junio de 2008.
[82] « Apple - Mac OS X - What is Mac OS X - Safari (http:/ / www. apple. com/ macosx/ what-is-macosx/ safari. html)». Apple Inc (22 de
octubre de 2009). Consultado el 22 de octubre de 2009.
[83] Lynch, Steven (12 de junio de 2008). « Mac OS X Snow Leopard Drops PowerPC Support (http:/ / www. hardocp. com/ news.
html?news=MzI5ODMsLCxoZW50aHVzaWFzdCwsLDE=)». HardOCP. Consultado el 11 de junio de 2008.
[84] Markoff, John (19 de octubre de 2009). Apple ya esta trabajando e Mac OS X 10.7 "Lion" (http:/ / www. fayerwayer. com/ 2009/ 11/
apple-ya-esta-trabajando-en-mac-os-x-10-7/ ). . Consultado el 19 de octubre de 2009.
[85] « Microsoft critica el ritmo de migración a Mac OS X (http:/ / www. macuarium. com/ macuarium/ actual/ noticias/
2002_07_15_dedoenelojosx. shtml)». MacAcuarium (15 de julio de 2002). Consultado el 14 de marzo de 2010.
[86] « El creador de Linux critica el Mac OS X (http:/ / www. noticias. com/ el-creador-de-linux-critica-el-mac-os-x. 66065)». Noticias.com (11
de abril de 2001). Consultado el 14 de marzo de 2010.
[87] « El creador de Linux critica el Mac OS X (http:/ / www. consumer. es/ web/ es/ tecnologia/ 2006/ 02/ 22/ 149615. php)». Consumer (23 de
marzo de 2010). Consultado el 14 de marzo de 2010.
[88] « Reportan ocho vulnerabilidades de alto riesgo en Safari (http:/ / www. opensecurity. es/
reportan-ocho-vulnerabilidades-de-alto-riesgo-en-safari/ )». OpenSecurity (3 de marzo de 2010). Consultado el 14 de marzo de 2010.
[89] « Reportan ocho vulnerabilidades de alto riesgo en Safari (http:/ / blogs. zdnet. com/ security/ ?p=5568)». ZDNet (1 de marzo de 2010).
Consultado el 14 de marzo de 2010.
[90] « Microsoft Office para Mac hasta 2010 (http:/ / www. txsolutions. com/ modules. php?name=News& file=article& sid=13)». TX Solutions
(14 de enero de 2006). Consultado el 13 de marzo de 2008.
[91] « Snow Leopard sería más inseguro que Windows 7 (http:/ / www. fayerwayer. com/ 2009/ 09/
snow-leopard-seria-mas-inseguro-que-windows-7/ )». FayerWayer (20 de septiembre de 2009). Consultado el 13 de marzo de 2008.
[92] « Snow Leopard sería más inseguro que Windows 7 (http:/ / www. informationweek. com/ news/ hardware/ mac/ showArticle.
jhtml?articleID=219500492)». InformationWeek (23 de marzo de 2009). Consultado el 13 de marzo de 2008.
[93] « Microsoft Office para Mac hasta 2010 (http:/ / www. neoteo. com/ microsoft-office-para-mac-hasta-2010. neo)». ABC.es (14 de enero de
2006). Consultado el 14 de marzo de 2010.
Mac OS X 135

[94] « Adobe Photoshop CS4 - System Requirements (http:/ / www. adobe. com/ products/ photoshop/ photoshop/ systemreqs/
?promoid=DRHXB)». ABC.es (1 de noviembre de 2008). Consultado el 14 de marzo de 2010.
[95] « The Disaster-Free Upgrade to Mac OS 10.1 (http:/ / www. apple. com/ es/ macosx/ technology/ unix. html)». Apple Inc. (2001).
Consultado el 14 de marzo de 2010.
[96] « Ejecutivo de Microsoft admite que Windows 7 fue “inspirado” en Mac (http:/ / es. engadget. com/ 2009/ 11/ 11/
microsoft-admite-que-windows-7-esta-inspirado-en-mac/ )». Engadget (11 de noviembre de 2009). Consultado el 14 de marzo de 2010.
[97] « Ejecutivo de Microsoft admite que Windows 7 fue “inspirado” en Mac (http:/ / www. fayerwayer. com/ 2009/ 11/
ejecutivo-de-microsoft-admite-que-windows-7-fue-inspirado-en-mac/ )». Betazeta (11 de noviembre de 2009). Consultado el 14 de marzo de
2010.
[98] « Mac OS X v10.1 Puma (http:/ / latam. apple. com/ pr/ articulo/ ?id=603)». Apple Inc. (6 de enero de 2010). Consultado el 6 de marzo de
2004.
[99] Dalrymple, Jim (20 de abril de 2005). « Apple desktop market share on the rise; will the Mac mini, iPod help? (http:/ / www. macworld.
com/ news/ 2005/ 03/ 20/ marketshare/ index. php)». Macworld. Consultado el 24 de abril de 2006.
[100] Dalrymple, Jim (19 de octubre de 2006). « Apple's Mac market share tops 5 percent with over 30 percent growth (http:/ / www. macworld.
com/ news/ 2006/ 10/ 19/ marketshare/ index. php)». Macworld. Consultado el 22 de dieimbre de 2006.
[101] « Operating system market share (http:/ / marketshare. hitslink. com/ operating-system-market-share. aspx?qprid=8)». NetMarketShare (6
de marzo de 2010). Consultado el 6 de marzo de 2010.
[102] « Windows 7 passes Mac OS X in market share race (http:/ / www. computerworld. com/ s/ article/ 9141424/
Windows_7_passes_Mac_OS_X_in_market_share_race?taxonomyId=89)». ComputerWorld (24 de noviembre de 2009). Consultado el 6 de
marzo de 2010.
[103] « Windows 7 ya supera a Mac OS X (http:/ / www. genbeta. com/ actualidad/ windows-7-ya-supera-a-mac-os-x)». Weblogs SL (27 de
noviembre de 2009). Consultado el 6 de marzo de 2010.
[104] « Trends in Mac market share (http:/ / arstechnica. com/ journals/ apple. ars/ 2007/ 04/ 05/ trends-in-mac-market-share)». Ars Technica (5
de abril de 2009). Consultado el 27 de agosto de 2009.
[105] MacDailyNews (15 de junio de 2005). « 16-percent of computer users are unaffected by viruses, malware because they use Apple Macs
(http:/ / macdailynews. com/ index. php/ weblog/ comments/ 5933/ )». Consultado el 24 de abril de 2006.
[106] « Operating System Market Share (http:/ / marketshare. hitslink. com/ operating-system-market-share. aspx?qprid=8)». Hitslink (Julio de
2009). Consultado el 27 de agosto de 2009.
[107] Gruber, John (23 de julio de 2003). « Market Share (http:/ / daringfireball. net/ 2003/ 07/ market_share)». Daring Fireball. Consultado el 24
de abril de 2006.
[108] Brockmeier, Joe (13 de mayo de 2003). « What Will It Take To Put Apple Back on Top? (http:/ / www. newsfactor. com/ perl/ story/
21499. html)». NewsFactor Magazine online. Consultado el 24 de abril de 2006.
[109] Toporek, Chuck (22 de agosto de 2001). « Apple, Market Share, and Who Cares? (http:/ / www. oreillynet. com/ mac/ blog/ 2001/ 08/
apple_market_share_and_who_car. html)». O'Reilly macdevcenter.com. Consultado el 24 de abril de 2006.
[110] Spero, Ricky (14 de julio de 2004). « Apple Posts Profit of $61 million; Revenue Jumps 30 Percent (http:/ / www. macobserver. com/
stockwatch/ 2004/ 07/ 14. 1. shtml)». The Mac Observer. Consultado el 24 de abril de 2006.
[111] Wilcox, Joe. « Macs Defy Windows' Gravity (http:/ / blogs. eweek. com/ applewatch/ content/ channel/ macs_defy_windows-gravity.
html)». Apple Watch. Consultado el 19 de mayo de 2008.
[112] Fried, Ian (12 de julio de 2002). « Are Mac users smarter? (http:/ / news. com. com/ 2100-1040-943519. html)». news.com. Consultado el
24 de abril de 2006.
[113] « Mac OS X v10.1 Puma (http:/ / www. appleismo. com/ aparece-el-primer-virus-real-para-mac-os/ )». Appleismo (28 de diciembre de
2007). Consultado el 14 de marzo de 2010.
[114] « 99.2% del malware es para Windows (http:/ / www. rompecadenas. com. ar/ articulos/ 2159. php)». Rompecadenas (n/a). Consultado el
14 de marzo de 2010.
[115] « IBM dice que Mac OS X es el sistema operativo más inseguro (http:/ / www. muymac. com/ 2009/ 02/ 12/
ibm-dice-que-mac-os-x-es-el-sistema-operativo-mas-inseguro/ )». Rompecadenas (n/a). Consultado el 14 de marzo de 2010.
[116] « FileVault, ¿qué es? y ¿cómo funciona? (http:/ / www. applesfera. com/ apple/ filevault-que-es-y-como-funciona)». Applesfera (25 de
enero de 2010). Consultado el 15 de marzo de 2010.
[117] « Windows BitLocker Drive Encryption Frequently Asked Questions (http:/ / technet. microsoft. com/ en-us/ library/ cc766200(WS. 10).
aspx#BKMK_WhatIsBitLocker)». Microsoft Corp. (10 de julio de 2009). Consultado el 15 de marzo de 2010.
[118] « TrueCrypt. Documentation (http:/ / www. truecrypt. org/ docs/ )». TrueCrypt (n/a). Consultado el 15 de marzo de 2010.
[119] « GnuPG. Características (http:/ / www. gnupg. org/ features. es. html)». GnuPG (3 de noviembre de 2004). Consultado el 15 de marzo de
2010.
[120] http:/ / www. info. apple. com/ support/ oldersoftwarelist. html
[121] http:/ / www. apple. es/ macosx
[122] http:/ / www. apple. com/ es/ macosx/ applications/
[123] http:/ / applediario. com/ tag/ mac-os-x/
[124] http:/ / www. toomac. net/
136

Ensamblaje de PC

Placa base
La placa base, placa madre, tarjeta madre o board (en inglés motherboard, mainboard) es una tarjeta de circuito
impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de circuitos integrados,
entre los que se encuentra el chipset, que sirve como centro de conexión entre el procesador, la memoria RAM, los
buses de expansión y otros dispositivos.
Va instalada dentro de una caja que por lo general está hecha de chapa y tiene un panel para conectar dispositivos
externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas, como
pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema
operativo.

Componentes de la placa base


Una placa base típica admite los siguientes componentes:
• Uno o varios conectores de alimentación: por estos conectores,
una alimentación eléctrica proporciona a la placa base los
diferentes voltajes e intensidades necesarios para su
funcionamiento.
• El zócalo de CPU (del inglés socket): es un receptáculo que
recibe el micro-procesador y lo conecta con el resto de
componentes a través de la placa base.
• Las ranuras de memoria RAM (en inglés memory slot), en
número de 2 a 6 en las placas base comunes.
• El chipset: una serie de circuitos electrónicos, que gestionan las
transferencias de datos entre los diferentes componentes de la
computadora (procesador, memoria, tarjeta gráfica,unidad de
almacenamiento secundario, etc.).
Se divide en dos secciones, el puente norte (Northbridge) y el
puente sur (Southbridge). El primero gestiona la interconexión
entre el procesador, la memoria RAM y la GPU; y el segundo
entre los periféricos y los dispositivos de almacenamiento, como
los discos duros o las unidades de estado sólido. Las nuevas líneas
de procesadores de escritorio tienden a integrar el propio
controlador de memoria en el interior del procesador.

• Un reloj: regula la velocidad de ejecución de las instrucciones


Diagrama de una placa base típica.
del microprocesador y de los periféricos internos.
• La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo,
fecha y hora), mientras el equipo no está alimentado por electricidad.
• La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste
último no se apague perdiendo la serie de configuraciones guardadas.
Placa base 137

• La BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace
tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de
bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR
(Master Boot Record), registradas en un disco duro o SSD, cuando arranca el sistema operativo.
• El bus (también llamado bus interno o en inglés (Front Side Bus (FSB)): conecta el microprocesador al chipset.
• El bus de memoria conecta el chipset a la memoria temporal.
• El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida y a las
ranuras de expansión.
• Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores incluyen:
• Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor del USB
• Los puertos serie, por ejemplo para conectar dispositivos antiguos.
• Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras.
• Los puertos USB (en inglés Universal Serial Bus), por ejemplo para conectar periféricos recientes.
• Los conectores RJ45, para conectarse a una red informática.
• Los conectores VGA, DVI, HDMI o Displayport para la conexión del monitor de la computadora.
• Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros,
unidades de estado sólido y lectores ópticos.
• Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.
• Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se
utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, un tarjeta gráfica se
puede añadir a un ordenador para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA (interfaz
antigua), PCI (en inglés Peripheral Component Interconnect) y, los más recientes, PCI Express.
Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como
circuitos electrónicos para la gestión del vídeo IGP (en inglés Integrated Graphic Processor), de sonido o de redes
(10/100 Mbps/1 Gbps), evitando así la adición de tarjetas de expansión.

Tipos de Bus
Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la
computadora.
Los Buses Generales son los siguientes:
• Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del
microprocesador.
• Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la
dirección de memoria del dato o dispositivo al que se hace referencia.
• Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la
unidad central y los periféricos.
• Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y
el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal.
• Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos
tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2.
La velocidad de tranferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del mínimo.
Placa base 138

Placa multi-procesador
Este tipo de placa base puede acoger a varios procesadores
(generalmente de 2, 4, 8 o más). Estas placas base multiprocesador
tienen varios zócalos de micro-procesador (socket), lo que les permite
conectar varios micro-procesadores físicamente distintos (a diferencia
de los de procesador de doble núcleo).
Cuando hay dos procesadores en una placa base, hay dos formas de
manejarlos:
• El modo asimétrico, donde a cada procesador se le asigna una tarea
diferente. Este método no acelera el tratamiento, pero puede asignar
una tarea a una CPU, mientras que la otra lleva a cabo a una tarea
diferente.
• El modo simétrico, llamado PSM (en inglés Symmetric
MultiProcessing), donde cada tarea se distribuye de forma simétrica
entre los dos procesadores.
Linux fue el primer sistema operativo en gestionar la arquitectura de
Una placa con dos procesadores.
doble procesador en x86.[cita requerida] Sin embargo, la gestión de
varios procesadores existía ya antes en otras plataformas y otros
sistemas operativos. Linux 2.6.x maneja multiprocesadores simétricos, y las arquitecturas de memoria no
uniformemente distribuida
Algunos fabricantes proveen placas base que pueden acoger hasta 8 procesadores (en el caso de socket 939 para
procesadores AMD Opteron y sobre socket 604 para procesadores Intel Xeon).

Tipos
La mayoría de las placas de PC vendidas después de 2001 se pueden clasificar en dos grupos:
• Las placas base para procesadores AMD
• Slot A Duron, Athlon
• Socket A Duron, Athlon, Athlon XP, Sempron
• Socket 754 Athlon 64, Mobile Athlon 64, Sempron, Turion
• Socket 939 Athlon 64, Athlon FX , Athlon X2, Sempron, Opteron
• Socket 940 Opteron y Athlon 64 FX
• Socket AM2 Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom
• Socket F Opteron
• Socket AM2 + Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom
• Socket AM3 Phenom II X2/X3/X4.
• Socket AM4 Phenom III X3/X4/X5
• Las placas base para procesadores Intel
• Slot 1: Pentium II, Pentium III, Celeron
• Socket 370: Pentium III, Celeron
• Socket 423: Pentium 4
• Socket 478: Pentium 4, Celeron
• Socket 775: Pentium 4, Celeron, Pentium D (doble núcleo), Core 2 Duo, Core 2 Quad Core 2 Extreme, Xeon
• Socket 603 Xeon
• Socket 604 Xeon
Placa base 139

• Socket 771 Xeon


• LGA1366 Intel Core i7, Xeon
• LGA1156 Intel Core i3, Intel Core i5, Intel Core i7

Formatos
Las tarjetas madre necesitan tener dimensiones compatibles con las cajas que las contienen, de manera que desde los
primeros computadores personales se han establecido características mecánicas, llamadas factor de forma. Definen la
distribución de diversos componentes y las dimensiones físicas, como por ejemplo el largo y ancho de la tarjeta, la
posición de agujeros de sujeción y las características de los conectores.
Con los años, varias normas se fueron imponiendo:
• XT: es el formato de la placa base del PC de IBM modelo 5160, lanzado en 1983. En este factor de forma se
definió un tamaño exactamente igual al de una hoja de papel tamaño carta y un único conector externo para el
teclado.
• 1984 AT 305 × 305 mm ( IBM)
• Baby AT: 216 × 330 mm
• AT: uno de los formatos más grandes de toda la historia del PC (305 × 279–330 mm), definió un conector de
potencia formado por dos partes. Fue usado de manera extensa de 1985 a 1995.
• 1995 ATX 305 × 244 mm (Intel)
• MicroATX: 244 × 244 mm
• FlexATX: 229 × 191 mm
• MiniATX: 284 × 208 mm
• ATX: creado por un grupo liderado por Intel, en 1995 introdujo las conexiones exteriores en la forma de un panel
I/O y definió un conector de 20 pines para la energía. Se usa en la actualidad en la forma de algunas variantes, que
incluyen conectores de energía extra o reducciones en el tamaño.
• 2001 ITX 215 × 195 mm ( VIA)
• MiniITX: 170 × 170 mm
• NanoITX: 120 × 120 mm
• PicoITX: 100 × 72 mm
• ITX: con rasgos procedentes de las especificaciones microATX y FlexATX de Intel, el diseño de VIA se centra
en la integración en placa base del mayor número posible de componentes, además de la inclusión del hardware
gráfico en el propio chipset del equipo, siendo innecesaria la instalación de una tarjeta gráfica en la ranura AGP.
• 2005 [BTX] 325 × 267 mm (Intel)
• Micro bTX: 264 × 267 mm
• PicoBTX: 203 × 267 mm
• RegularBTX: 325 × 267 mm
• BTX: retirada en muy poco tiempo por la falta de aceptación, resultó prácticamente incompatible con ATX, salvo
en la fuente de alimentación. Fue creada para intentar solventar los problemas de ruido y refrigeración, como
evolución de la ATX.
• 2007 DTX 248 × 203 mm ( AMD)
• Mini-DTX: 170 × 203 mm
• Full-DTX: 243 × 203 mm
• DTX: destinadas a PCs de pequeño formato. Hacen uso de un conector de energía de 24 pines y de un conector
adicional de 2x2.
Placa base 140

• Formato propietario: durante la existencia del PC, mucha marcas han intentado mantener un esquema cerrado de
hardware, fabricando tarjetas madre incompatibles físicamente con los factores de forma con dimensiones,
distribución de elementos o conectores que son atípicos. Entre las marcas mas persistentes está Dell, que rara vez
fabrica equipos diseñados con factores de forma de la industria.

Escalabilidad
Hasta la mitad de la década de 1990, los PC fueron equipados con una placa en la que se soldó el microprocesador
(CPU). Luego vinieron las placas base equipadas con soporte de microprocesador (socket) «libre», que permitía
acoger el microprocesador de elección (de acuerdo a sus necesidades y presupuesto). Con este sistema (que pronto se
hizo más generalizado y no ha sido discutido), es teóricamente posible equipar el PC con una CPU más potente, sin
sustituir la placa base, pero a menor costo.
De hecho, esta flexibilidad tiene sus límites porque los microprocesadores son cada vez más eficientes, e
invariablemente requieren placas madre más eficaces (por ejemplo, capaces de manejar flujos de datos cada vez más
importantes).

Fabricantes
Varios fabricantes se reparten el mercado de placas base, tales como Abit, Albatron, Aopen, ASUS, ASRock, Biostar
, Chaintech,Dell, DFI, Elite, Epox, Foxconn, Gigabyte Technology, Intel, MSI, QDI, Sapphire Technology, Soltek,
Super Micro, Tyan, Via , XFX, Pc Chips
Algunos diseñan y fabrican uno o más componentes de la placa base, mientras que otros ensamblan los componentes
que terceros han diseñado y fabricado.

Véase también
• Backplane
• Chipset
• Memoria de acceso aleatorio
• Doble canal
• Tarjeta gráfica

• Portal:Informática. .
CPU 141

CPU
1. REDIRECCIÓN Unidad central de procesamiento

Procesador
El término "procesador" puede referirse a los siguientes artículos:
• Microprocesador, un circuito integrado que contiene todos los elementos de la CPU.
• CPU, el elemento que interpreta las instrucciones y procesa los datos de los programas de computadora.
• Graphics Processing Unit o Unidad de Procesamiento Gráfico, es un procesador dedicado exclusivamente a
procesamiento de gráficos.
• Physics processing unit o Unidad de Procesamiento Físico es un microprocesador dedicado, diseñado para
manejar cálculos físicos.
• Procesador digital de señal (DSP), un sistema digital generalmente dedicado a interpretar señales analógicas a
muy alta velocidad.
• Front end processor es un pequeño computador que sirve de a un computador host como interfaz para un
número de redes.
• Data Processor es un sistema que procesa datos.
• Procesador de textos, un software informático destinado a la creación y edición de documentos de texto.
• Procesador de audio analógico, un aparato frecuentemente utilizado en los estudios de grabación y estaciones de
radio.
• Procesador de alimentos, un electrodoméstico de cocina también llamado multiprocesador.

Enlaces externos
• Wikcionario tiene definiciones para procesador.Wikcionario

Esta es una página de desambiguación, una ayuda a la navegación que cataloga páginas que de otra forma compartirían un mismo título.
[1]
Si llegaste aquí a través de un enlace interno , regresa por favor para corregirlo de modo que apunte al artículo apropiado.

Referencias
[1] http:/ / en. wikipedia. org/ wiki/ Especial%3Aloqueenlazaaqu%C3%AD%2Fprocesador
Memoria de acceso aleatorio 142

Memoria de acceso aleatorio


La memoria de acceso aleatorio (en inglés:
random-access memory cuyo acrónimo es
RAM) es la memoria desde donde el
procesador recibe las instrucciones y guarda
los resultados.

Nomenclatura
La frase memoria RAM se utiliza
frecuentemente para referirse a los módulos
de memoria que se usan en los computadores
personales y servidores. En el sentido estricto,
los modulos de memoria contienen un tipo,
entre varios de memoria de acceso aleatorio,
Módulos de memoria instalados de 256 MB cada uno en un sistema con doble
ya que las ROM, memorias Flash, caché
canal.
(SRAM), los registros en procesadores y otras
unidades de procesamiento también poseen la
cualidad de presentar retardos de acceso
iguales para cualquier posición. Los módulos
de RAM son la presentación comercial de este
tipo de memoria, que se compone de circuitos
integrados soldados sobre un circuito impreso,
en otros dispositivos como las consolas de
videojuegos, esa misma memoria va soldada
sobre la placa principal.

Historia
La historia está marcada por la necesidad del
volumen de datos. Originalmente, los datos
eran programados por personas físicas (en el
contexto de personas materiales) con
Integrado de silicio de 64 bits sobre un sector de memoria de núcleo (finales de
movimientos de interruptores. Se puede decir los 60).
que el movimiento de datos era bit a bit. Las
necesidades apuntaron a una automatización y se crearon lo que se denomina byte de palabra. Desde una consola
remota, se trasladaban los interruptores asignándoles valores de letra, que correspondían a una orden de
programación al microprocesador. Así, si se deseaba programar una orden NOT con dos direcciones distintas de
memoria, solo se tenía que activar el grupo de interruptores asociados a la letra N, a la letra O y a la letra T.
Seguidamente, se programaban las direcciones de memoria sobre las cuales recibirían dicho operador lógico, para
después procesar el resultado. Los interruptores evolucionaron asignándoles una tabla de direccionamiento de 16x16
bytes, en donde se daban 256 valores de byte posibles (la actual tabla ASCII). En dicha tabla, se traducen lo que
antes costaba activar 8 interruptores por letra, a una pulsación por letra (de cara al recurso humano, un ahorro en

tiempos. Una sola pulsación, predisponía 1 byte en RAM... o en otras palabras, cambiaba la posición de 8
interruptores con una sola pulsación). Se usó el formato de máquina de escribir, para representar todo el alfabeto
Memoria de acceso aleatorio 143

latino, necesario para componer palabras en inglés; así como los símbolos aritméticos y lógicos que permitían la
escritura de un programa directamente en memoria RAM a través de una consola o teclado.
En origen, los programadores no veían en tiempo real lo que tecleaban, teniendo que imprimir de cuando en cuando
el programa residente en memoria RAM y haciendo uso del papel a la hora de ir modificando o creando un nuevo
programa. Dado que el papel era lo más accesible, los programas comenzaron a imprimirse en un soporte de celulosa
más resistente, creando lo que se denominó Tarjeta perforada. Así pues, los programas constaban de una o varias
tarjetas perforadas, que se almacenaban en archivadores de papel con las típicas anillas de sujeción. Dichas
perforaciones, eran leídas por un dispositivo de entrada, que no era muy diferente al teclado y que constaba de
pulsadores que eran activados o desactivados, dependiendo de si la tarjeta en la posición de byte, contenía una
perforación o no. Cada vez que se encendía la máquina, requería de la carga del programa que iba a ejecutar.
Dado que los datos en memoria son de 0 o 1, que esas posiciones físicamente representan el estado de un
conmutador, que la estimulación del conmutador evolucionó a pulsos electromagnéticos, el almacenamiento de los
programas era cuestión de tiempo que su almacenamiento pasara del papel a un soporte lógico, tal como las cintas de
almacenamiento. Las cintas eran secuenciales, y la composición de la cinta era de un material magnetoestático;
bastaba una corriente Gauss para cambiar las polaridades del material. Dado que el material magnético puede tener
polaridad norte o sur, era ideal para representar el 0 o el 1. Así, ahora, cargar un programa no era cuestión de estar
atendiendo un lector de tarjetas en el cual se debían de ir metiendo de forma interminable tarjetas perforadas que
apenas podían almacenar apenas unos bytes. Ahora, los dispositivos electromagnéticos secuenciales requerían la
introducción de la cinta y la pulsación de una tecla para que se cargara todo el programa de inicio a fin, de forma
secuencial. Los accesos aleatorios no aparecieron hasta la aparición del disco duro y el Floppy. Con estos medios, un
cabezal lector se deslizaba por la superficie en movimiento, si dicho movimiento tenía como consecuencia la lectura
de un valor N-N (norte-norte) no generaba corriente, tampoco si era S-S (Sur-Sur), por el contrario, si era N-S o S-N
sí creaba una corriente, que era captada por el circuito que mandaba el dato a la memoria RAM.
Toda esta automatización requiso del diseño de un sistema operativo, o de un área de gestión del recurso para su
automatización. Estos sistemas requerían de un área de memoria reservada, en origen de 64 Kb (Capacidades de
representación de texto en monitor monocromo), para irse ampliando a 128 Kb (Monocromo con capacidades
gráficas), 256 (Texto y gráficos a dos colores), 512 (Texto y gráficos a 4 colores) y los tradicionales 640 Kb (Texto y
gráficos a 16 colores). Esa memoria se denominó memoria base.
Es en esta parte del tiempo, en donde se puede hablar de un área de trabajo para la mayor parte del software de un
computador. La RAM continua siendo volátil por lo que posee la capacidad de perder la información una vez que se
agote su fuente de energía.[1] Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta
sólo es una copia (de acceso rápido) de la memoria principal (típicamente discos duros) almacenada en los módulos
de RAM.[1]
La denominación “de Acceso aleatorio” surgió
para diferenciarlas de las memoria de acceso
secuencial, debido a que en los comienzos de
la computación, las memorias principales (o
primarias) de las computadoras eran siempre
de tipo RAM y las memorias secundarias (o
masivas) eran de acceso secuencial (cintas o
tarjetas perforadas). Es frecuente pues que se
hable de memoria RAM para hacer referencia
a la memoria principal de una computadora,
4MB de memoria RAM para un computador VAX de finales de los 70. Los
pero actualmente la denominación no es
integrados de memoria DRAM están agrupados arriba a derecha e izquierda.
precisa.
Memoria de acceso aleatorio 144

Uno de los primeros tipos de memoria RAM


fue la memoria de núcleo magnético,
desarrollada entre 1949 y 1952 y usada en
muchos computadores hasta el desarrollo de
circuitos integrados a finales de los años 60 y
principios de los 70. Antes que eso, las
computadoras usaban relés y líneas de retardo
de varios tipos construidas con tubos de vacío
para implementar las funciones de memoria
principal con o sin acceso aleatorio.
Módulos de memoria tipo SIPP instalados directamente sobre la placa base.
En 1969 fueron lanzadas una de las primeras
memorias RAM basadas en semiconductores
de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una
memoria DRAM de 1 Kibibyte, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser
comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En
comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un
desempeño mayor que la memoria de núcleos.

En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias
DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4Kb
en un empaque de 16 pines,[2] mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema
de direccionamiento[3] se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de
DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban
directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito
impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la
miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de
la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando
unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los
módulos SIPP y los primeros SIMM tienen la misma distribución de pines.
A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido,
dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie
de mejoras en el direccionamiento como las siguientes:
Memoria de acceso aleatorio 145

• FPM-RAM (Fast Page Mode RAM)


Inspirado en técnicas como el "Burst Mode" usado en
procesadores como el Intel 486,[4] se implantó un modo
direccionamiento en el que el controlador de memoria envía una
sola dirección y recibe a cambio esa y varias consecutivas sin
necesidad de generar todas las direcciones. Esto supone un ahorro
de tiempos ya que ciertas operaciones son repetitivas cuando se
desea acceder a muchas posiciones consecutivas. Funciona como
si deseáramos visitar todas las casas en una calle: después de la
primera vez no seria necesario decir el número de la calle
únicamente seguir la misma. Se fabricaban con tiempos de acceso
de 70 ó 60 ns y fueron muy populares en sistemas basados en el
486 y los primeros Pentium.
Módulos formato SIMM de 30 y 72 pines, los últimos
• EDO-RAM (Extended Data Output RAM) fueron utilizados con integrados tipo EDO-RAM.

Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía


una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona
la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una
eliminación de estados de espera, manteniendo activo el buffer de salida hasta que comienza el próximo ciclo de
lectura.
• BEDO-RAM (Burst Extended Data Output RAM)
Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria
que usaba generadores internos de direcciones y accedía a mas de una posición de memoria en cada ciclo de reloj, de
manera que lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado que Intel y otros
fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento
MOSTEK, agregan funcionalidades distintas como señales de reloj.

Arquitectura base
En origen, la memoria RAM se componía de hilos de cobre que atravesaban toroides de ferrita, la corriente polariza
la ferrita. Mientras esta queda polarizada, el sistema puede invocar al procesador accesos a partes del proceso que
antes (en un estado de reposo) no es posible acceder. En sus orígenes, la invocación a la RAM, producía la
activación de contactores, ejecutando instrucciones del tipo AND, OR y NOT. La programación de estos elementos,
consistía en la predisposición de los contactores para que, en una línea de tiempo, adquiriesen las posiciones
adecuadas para crear un flujo con un resultado concreto. La ejecución de un programa, provocaba un ruido
estruendoso en la sala en la cual se ejecutaba dicho programa, por ello el área central de proceso estaba separada del
área de control por mamparas insonorizadas.
Con las nuevas tecnologías, las posiciones de la ferrita se ha ido sustituyendo por, válvulas de vacío, transistores y en
las últimas generaciones, por un material sólido dieléctrico. Dicho estado estado sólido dieléctrico tipo DRAM
permite que se pueda tanto leer como escribir información.
Memoria de acceso aleatorio 146

Uso por el sistema


Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde
se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso
aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier
posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.

Módulos de memoria RAM


Los módulos de memoria RAM son tarjetas de circuito impreso
que tienen soldados integrados de memoria DRAM por una o
ambas caras. La implementación DRAM se basa en una topología
de Circuito eléctrico que permite alcanzar densidades altas de
memoria por cantidad de transistores, logrando integrados de
decenas o cientos de Megabits. Además de DRAM, los módulos
poseen un integrado que permiten la identificación del mismos
ante el computador por medio del protocolo de comunicación
SPD.

La conexión con los demás componentes se realiza por medio de


un área de pines en uno de los filos del circuito impreso, que
permiten que el modulo al ser instalado en un zócalo apropiado de Formato SO-DIMM.
la placa base, tenga buen contacto eléctrico con los controladores
de memoria y las fuentes de alimentación. Los primeros módulos comerciales de memoria eran SIPP de formato
propietario, es decir no había un estándar entre distintas marcas. Otros módulos propietarios bastante conocidos
fueron los RIMM, ideados por la empresa RAMBUS.

La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al
establecimiento de estándares de la industria como los JEDEC.
• Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus de datos de 16 o 32 bits
• Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits.
• Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM.

Relación con el resto del sistema


Dentro de la jerarquía de memoria la RAM se encuentra en un nivel después de los
registros del procesador y de las cachés. Es una memoria relativamente rápida y de una
capacidad media: sobre el año 2010), era fácil encontrar memorias con velocidades de más
de 1 Ghz, y capacidades de hasta 8 GB por módulo, llegando a verse memorias pasando la
barrera de los 3 Ghz por esa misma fecha mediante overclock. La memoria RAM contenida
en los módulos, se conecta a un controlador de memoria que se encarga de gestionar las
señales entrantes y salientes de los integrados DRAM. Algunas señales son las mismas que
se utilizan para utilizar cualquier memoria: Direcciones de las posiciones, datos
almacenados y señales de control.
Diagrama de la
El controlador de memoria debe ser diseñado basándose en una tecnología de memoria, por
arquitectura de un
lo general soporta solo una, pero existen excepciones de sistemas cuyos controladores ordenador.
soportan dos tecnologías (por ejemplo SDR y DDR o DDR1 y DDR2), esto sucede en las
Memoria de acceso aleatorio 147

épocas transitorias de una nueva tecnología de RAM. Los controladores de memoria en sistemas como PC y
servidores se encuentran embebidos en el llamado "North Bridge" o "Puente Norte" de la placa base; o en su defecto,
dentro del mismo procesador (en el caso de los procesadores desde AMD Athlon 64 e Intel Core i7) y son los
encargados de manejar la mayoría de información que entra y sale del procesador.
Las señales básicas en el módulo están divididas en dos buses y un conjunto misceláneo de líneas de control y
alimentación. Entre todas forman el bus de memoria:
• Bus de datos: Son las líneas que llevan información entre los integrados y el controlador. Por lo general están
agrupados en octetos siendo de 8,16,32 y 64 bits, cantidad que debe igualar el ancho del bus de datos del
procesador. En el pasado, algunos formatos de modulo, no tenían un ancho de bus igual al del procesador.En ese
caso había que montar módulos en pares o en situaciones extremas, de a 4 módulos, para completar lo que se
denominaba banco de memoria, de otro modo el sistema no funciona. Esa es la principal razón de haber
aumentar el número de pines en los módulos, igualando el ancho de bus de procesadores como el Pentium de 64
bits a principios de los 90.
• Bus de direcciones: Es un bus en el cual se colocan las direcciones de memoria a las que se requiere acceder. No
es igual al bus de direcciones del resto del sistema, ya que está multiplexado de manera que la dirección se envía
en dos etapas.Para ello el controlador realiza temporizaciones y usa las líneas de control. En cada estándar de
módulo se establece un tamaño máximo en bits de este bus, estableciendo un límite teórico de la capacidad
máxima por módulo.
• Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss) que se encargan de entregar potencia
a los integrados. Están las líneas de comunicación para el integrado de presencia que da información clave acerca
del módulo. También están las líneas de control entre las que se encuentran las llamadas RAS (row address
strobe) y CAS (column address strobe) que controlan el bus de direcciones y las señales de reloj en las memorias
sincrónicas SDRAM.
Entre las características sobresalientes del controlador de memoria, está la capacidad de manejar la tecnología de
canal doble (Dual Channel), tres canales, o incluso cuatro para los procesadores venideros; donde el controlador
maneja bancos de memoria de 128 bits. Aunque el ancho del bus de datos del procesador sigue siendo de 64 bits, el
controlador de memoria puede entregar los datos de manera intercalada, optando por uno u otro canal, reduciendo las
latencias vistas por el procesador. La mejora en el desempeño es variable y depende de la configuración y uso del
equipo. Esta característica ha promovido la modificación de los controladores de memoria, resultando en la aparición
de nuevos chipsets (la serie 865 y 875 de Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal
doble , reemplazo el 754 de canal sencillo). Los equipos de gama media y alta por lo general se fabrican basados en
chipsets o zócalos que soportan doble canal o superior.

Tecnologías de memoria
La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de
manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y
EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que
permiten construir integrados que funcionen a una frecuencia superior a 66 Mhz (A día de hoy, se han superado con
creces los 1600 Mhz).
Memoria de acceso aleatorio 148

SDR SDRAM
Memoria síncrona, con tiempos de acceso
de entre 25 y 10 ns y que se presentan en
módulos DIMM de 168 contactos. Fue
utilizada en los Pentium II y en los Pentium
III , así como en los AMD K6, AMD Athlon
K7 y Duron. Está muy extendida la creencia
de que se llama SDRAM a secas, y que la
denominación SDR SDRAM es para
diferenciarla de la memoria DDR, pero no
Memorias RAM con tecnologías usadas en la actualidad.
es así, simplemente se extendió muy rápido
la denominación incorrecta. El nombre
correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos
disponibles son:

• PC100: SDR SDRAM, funciona a un máx de 100 MHz.


• PC133: SDR SDRAM, funciona a un máx de 133 MHz.

DDR SDRAM
Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del
bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos.
Los tipos disponibles son:
• PC2100 o DDR 266: funciona a un máx de 133 MHz.
• PC2700 o DDR 333: funciona a un máx de 166 MHz.
• PC3200 o DDR 400: funciona a un máx de 200 MHz.

DDR2 SDRAM
Las memorias DDR 2 son una mejora de las memorias DDR (Double
Data Rate), que permiten que los búferes de entrada/salida trabajen al
doble de la frecuencia del núcleo, permitiendo que durante cada ciclo
de reloj se realicen cuatro transferencias. Se presentan en módulos
DIMM de 240 contactos. Los tipos disponibles son:
• PC2-4200 o DDR2-533: funciona a un máx de 533 MHz.
• PC2-5300 o DDR2-667: funciona a un máx de 667 MHz.
• PC2-6400 o DDR2-800: funciona a un máx de 800 MHz.
• PC2-8600 o DDR2-1066: funciona a un máx de 1066 MHz. SDRAM DDR2.
Memoria de acceso aleatorio 149

DDR3 SDRAM
Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento
en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM
DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles,
debido a una ubicación diferente de la muesca. Los tipos disponibles son:
• PC3-8600 o DDR3-1066: funciona a un máx de 1066 MHz.
• PC3-10600 o DDR3-1333: funciona a un máx de 1333 MHz.
• PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.

RDRAM (Rambus DRAM)


Memoria de gama alta basada en un protocolo propietario creado por la empresa Rambus, lo cual obliga a sus
compradores a pagar regalías en concepto de uso. Esto ha hecho que el mercado se decante por la tecnología DDR,
libre de patentes, excepto algunos servidores de grandes prestaciones (Cray) y la consola PlayStation 3. La RDRAM
se presenta en módulos RIMM de 184 contactos.

Detección y corrección de errores


Existen dos clases de errores en los sistemas de memoria, las fallas (Hard fails) que son daños en el hardware y los
errores (soft errors) provocados por causas fortuitas. Los primeros son relativamente fáciles de detectar (en algunas
condiciones el diagnóstico es equivocado), los segundos al ser resultado de eventos aleatorios, son más difíciles de
hallar. En la actualidad la confiabilidad de las memorias RAM frente a los errores, es suficientemente alta como para
no realizar verificación sobre los datos almacenados, por lo menos para aplicaciones de oficina y caseras. En los usos
más críticos, se aplican técnicas de corrección y detección de errores basadas en diferentes estrategias:
• La técnica del bit de paridad consiste en guardar un bit adicional por cada byte de datos, y en la lectura se
comprueba si el número de unos es par (paridad par) o impar (paridad impar), detectándose así el error.
• Una técnica mejor es la que usa ECC, que permite detectar errores de 1 a 4 bits y corregir errores que afecten a un
sólo bit esta técnica se usa sólo en sistemas que requieren alta fiabilidad.
Por lo general los sistemas con cualquier tipo de protección contra errores tiene un costo más alto, y sufren de
pequeñas penalizaciones en desempeño, con respecto a los sistemas sin protección. Para tener un sistema con ECC o
paridad, el chipset y las memorias debe tener soportar esas tecnologías. La mayoría de placas base no poseen dicho
soporte.
Para los fallos de memoria se pueden utilizar herramientas de software especializadas que realizan pruebas integrales
sobre los módulos de memoria RAM. Entre estos programas uno de los más conocidos es la aplicación Memtest86+
que detecta fallos de memoria.

Memoria RAM registrada


Es un tipo de módulo usado frecuentemente en servidores y equipos especiales. Poseen circuitos integrados que se
encargan de repetir las señales de control y direcciones. Las señales de reloj son reconstruidas con ayuda del PLL
que está ubicado en el módulo mismo. Las señales de datos pasan directamente del bus de memoria a los CI de
memoria DRAM.
Estas características permiten conectar múltiples módulos de memoria (más de 4) de alta capacidad sin que haya
perturbaciones en las señales del controlador de memoria, haciendo posible sistemas con gran cantidad de memoria
principal (8 a 16 GiB). Con memorias no registradas, no es posible, debido a los problemas surgen de sobrecarga
eléctrica a las señales enviadas por el controlador, fenómeno que no sucede con las registradas por estar de algún
modo aisladas.
Memoria de acceso aleatorio 150

Entre las desventajas de estos módulos están el hecho de que se agrega un ciclo de retardo para cada solicitud de
acceso a una posición no consecutiva y por supuesto el precio, que suele ser mucho más alto que el de las memorias
de PC. Este tipo de módulos es incompatible con los controladores de memoria que no soportan el modo registrado,
a pesar de que se pueden instalar físicamente en el zócalo. Se pueden reconocer visualmente porque tienen un
integrado mediano, cerca del centro geométrico del circuito impreso, además de que estos módulos suelen ser algo
más altos.[5]

Véase también
• Circuito • DRAM • Memoria principal • SPD Serial Presence Detect • Dual Channel
integrado • SRAM • Memoria ROM • FRAM Memoria Ram • Memoria
• Circuito • Acceso • FB-DIMM Nuevo formato de Ferromagnetica (informática)
impreso aleatorio memoria • VRAM Memoria Ram de Video • Memoria volátil
• JEDEC

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Memoria RAM.Commons
• Explícame: ¿Para qué sirve la memoria RAM? [6]
• Tomshardware: Tutorial sobre RAM de 1998 [7] (en inglés)

Referencias
[1] [ |Mueller, Scott (http:/ / www. informit. com/ authors/ bio. aspx?a=96F57ED8-2FAA-4E08-BD72-5DCACD2B103A)] (2005). Upgrading
and Reparing PC (http:/ / books. google. com/ books?id=E1p2FDL7P5QC& dq=Scott+ mueller& printsec=frontcover& source=bl&
ots=M1niG634hB& sig=oYl9HC5uOjVNkZfcgFAd33xu2rw& hl=en& sa=X& oi=book_result& resnum=25& ct=result) (13 edición). QUE. .
[2] « Mostek Firsts (http:/ / www. mindspring. com/ ~mary. hall/ mosteklives/ history/ 10Ann/ firsts. html)».
[3] « Datasheet & Application Note Database, PDF, Circuits, Datasheets (http:/ / www. datasheetarchive. com/ pdf-datasheets/ DataBooks/
Book273-277. html)».
[4] « The HP Vectra 486 memory controller (http:/ / findarticles. com/ p/ articles/ mi_m0HPJ/ is_/ ai_11405923)».
[5] http:/ / download. micron. com/ pdf/ datasheets/ modules/ ddr2/ HTJ_S36C512_1Gx72. pdf
[6] http:/ / www. explicame. org/ content/ view/ 50/ 1/
[7] http:/ / www. tomshardware. com/ reviews/ ram-guide,89-14. html
Fuente eléctrica 151

Fuente eléctrica
Circuitos eléctricos

Electricidad

Conceptos

Resistencia · Tensión · Corriente · Potencia · Capacitancia · Inductancia · Reactancia · Impedancia · Admitancia · Susceptancia

Componentes

Fuente eléctrica · Resistor ·


Inductor ·

Leyes y teoremas fundamentales

Ley de Ohm · Ley de Joule · Leyes


de Kirchhoff  · Thévenin  · Norton
 · Kennelly  · Principio de Millman
 ·

Técnicas de análisis de circuitos

Análisis de nodos · Análisis de


mallas · Teorema de
superposición  · Divisor de
tensión · Divisor de corriente

Análisis de circuitos

Circuitos resistivos · Circuitos


de primer orden  · circuitos de
corriente alterna

En electricidad se entiende por fuente al elemento activo que es capaz de generar una diferencia de potencial (d. d.
p.) entre sus bornes o proporcionar una corriente eléctrica. A continuación se indica una posible clasificación de las
fuentes eléctricas:
Fuente eléctrica 152

Fuentes ideales
Las fuentes ideales son elementos utilizados en la teoría
de circuitos para el análisis y la creación de modelos
que permitan analizar el comportamiento de
componentes electrónicos o circuitos reales. Pueden ser
independientes, si sus magnitudes (tensión o corriente)
son siempre constantes, o dependientes en el caso de
que dependan de otra magnitud (tensión o corriente).

En este punto se tratarán las fuentes independientes,


dejando las dependientes para el final. Sus símbolos
pueden observarse en la figura 1. El signo + en la
fuente de tensión, indica el polo positivo o ánodo
siendo el extremo opuesto el cátodo y E el valor de su
fuerza electromotriz (fem). En la fuente de intensidad,
Figura 1: Símbolos de las fuentes ideales de tensión, a), e intensidad,
el sentido de la flecha indica el sentido de la corriente
b).
eléctrica e I su valor. A continuación se dan sus
definiciones:

• Fuente de tensión ideal: aquella que genera una d. d. p. entre sus terminales constante e independiente de la
carga que alimente. Si la resistencia de carga es infinita se dirá que la fuente está en circuito abierto, y si fuese
cero estaríamos en un caso absurdo, ya que según su definición una fuente de tensión ideal no puede estar en
cortocircuito.
• Fuente de intensidad ideal: aquella que proporciona una intensidad constante e independiente de la carga que
alimente. Si la resistencia de carga es cero se dirá que la fuente está en cortocircuito, y si fuese infinita
estaríamos en un caso absurdo, ya que según su definición una fuente de intensidad ideal no puede estar en
circuito abierto.
Fuente eléctrica 153

Fuentes reales
A diferencia de las fuentes ideales, la
d. d. p. que producen o la corriente que
proporcionan fuentes reales, depende
de la carga a la que estén conectadas.

Fuentes de tensión
Una fuente de tensión real se puede
considerar como una fuente de tensión
ideal, Eg, en serie con una resistencia
Rg, a la que se denomina resistencia
interna de la fuente (figura 2). En
Figura 2: símbolos de las fuentes reales de tensión, a), e intensidad, b).
circuito abierto, la tensión entre los
bornes A y B (VAB) es igual a Eg
(VAB=Eg), pero si entre los mencionados bornes se conecta una carga, RL, la tensión pasa a ser:

que como puede observarse depende de la carga conectada. En la práctica las cargas deberán ser mucho mayores que
la resistencia interna de la fuente (al menos diez veces) para conseguir que el valor en sus bornes no difiera mucho
del valor en circuito abierto.
La potencia se determina multiplicando su fem por la corriente que proporciona. Se considera positiva si la corriente
sale por el ánodo y negativa en caso contrario.
Como ejemplos de fuentes de tensión real podemos enumerar los siguientes:
• Batería
• Pila
• Fuente de alimentación
• Célula fotoeléctrica

Fuentes de intensidad
De modo similar al anterior, una fuente de corriente real se puede considerar como una fuente de intensidad ideal, Is,
en paralelo con una resistencia, Rs, a la que se denomina resistencia interna de la fuente (figura 2b). En cortocircuito,
la corriente que proporciona es igual a Is, pero si se conecta una carga, RL, la corriente proporcionada a la misma,
, pasa a ser:

que como puede observarse depende de la carga conectada. En la práctica las cargas deberán ser mucho menores que
la resistencia interna de la fuente (al menos diez veces) para conseguir que la corriente suministrada no difiera
mucho del valor en cortocircuito.
La potencia se determina multiplicando su intensidad por la diferencia de potencial en sus bornes. Se considera
positiva si el punto de mayor potencial está en el terminal de salida de la corriente y negativa en caso contrario.
Al contrario que la fuente de tensión real, la de intensidad no tiene una clara realidad física, utilizándose más como
modelo matemático equivalente a determinados componentes o circuitos.
Fuente eléctrica 154

Rendimiento
Una fuente real no puede entregar toda
la potencia a la carga que alimente
debido a su resistencia interna. En la
fuente real de tensión de la figura 3a),
la potencia total entregada viene dada
por:

Figura 3: Fuentes reales con carga, de tensión, a), e intensidad, b).

Parte de esta potencia se disipa en la resistencia interna Rg de la propia fuente, de manera que la potencia útil, ,
generada, esto es, la entregada a la carga RL será:

Se denomina rendimiento, , de la fuente a la relación entre esta potencia y la total:

De donde se deduce que el rendimiento será mayor cuanto menor sea la resistencia interna Rg respecto a RL.
Razonando de forma análoga con la fuente de intensidad real de la figura 3b), se obtendría:

De donde se deduce que el rendimiento será mayor cuanto mayor sea la resistencia interna Rs respecto a RL.
En aquellos circuitos con varias fuentes, podría darse el caso que la corriente de alguno saliese por su cátodo, es
decir, en sentido contrario a como debería crearla. En este caso la fuente no funciona como tal ya que está
absorbiendo potencia, y por lo tanto no se puede hablar de su rendimiento.

Equivalencia
Se dice que dos fuentes reales, una de tensión y otra de intensidad, son equivalentes, cuando conectadas a la misma
carga, RL, le suministran la misma corriente.
Para determinar qué condiciones deben cumplir dos fuentes reales, como las mostradas en la figura 3, para que sean
equivalentes, se igualan las corrientes que circulan por RL en ambos circuitos:

Operando matemáticamente:

Se llega a una ecuación del tipo que debe cumplirse para cualquier valor de a, es decir de RL/Rs, por lo
que la única solución posible es , esto es
Fuente eléctrica 155

lo que implica
y
que son las condiciones de equivalencia.

Asociación de fuentes
En general, un circuito podrá tener varias fuentes de excitación conectadas en serie, en paralelo o de forma mixta, de
forma similar a las asociaciones de resistencias. A continuación se indica como determinar la fuente equivalente de
una asociación de fuentes ideales y reales. También se mostrará la forma de determinar la fuente equivalente de un
circuito respeto de dos puntos.

Ideales
Cuando dos o más fuentes ideales de tensión se conectan en serie, la fem resultante es igual a la suma algebraica de
las fems de cada una de las fuentes. Cuando la conexión se realiza en paralelo, las fems de las fuentes han de ser
iguales, ya que en caso contrario se estaría en un caso absurdo.
Cuando dos o más fuentes ideales de intensidad se conectan en paralelo, la corriente resultante es igual a la suma
algebraica de las corrientes de cada una de las fuentes. Cuando la conexión se realiza en serie, las corrientes de las
fuentes han de ser iguales, ya que en caso contrario se estaría en un caso absurdo.

Reales
Es posible obtener la fuente equivalente de una asociación de varias fuentes reales. A continuación se describen los
casos posibles:
Fuentes de tensión
• En serie: la fem equivalente se obtiene del mismo modo que en las fuentes ideales y la resistencia equivalente
como suma de las resistencia de cada fuente puesto que están en serie.
• En paralelo: se transforman en fuentes de intensidad y se opera como se indica más abajo.
Fuentes de intensidad
• En serie: se transforman en fuentes de tensión y se opera como se ha indicado más arriba.
• En paralelo: la intensidad equivalente se obtiene del mismo modo que en las fuentes ideales y la resistencia
equivalente como la inversa de la suma de las inversas de las resistencia de cada fuente puesto que están en
paralelo.
Fuente eléctrica 156

Fuente equivalente
Mediante la transformación de fuentes
y la simplificación, es posible obtener
en determinados circuitos, la fuente de
tensión o intensidad equivalente
respecto de dos puntos del mismo. Esto
es lo mismo que proporcionan los
teoremas de Thevenin y Norton
respectivamente.para una fuente es
necesario utilizar comillas o punto y
coma
Figura 4: Circuito ejemplo.
Sea el circuito ejemplo de la figura 4
del cual se desea obtener la fuente equivalente respecto de los puntos A y B. Para ello se debe seguir el siguiente
criterio: para simplificar fuentes en serie deben ser de tensión, mientras que para simplificar fuentes en paralelo
deben ser de intensidad. De acuerdo con ello transformaremos a fuente de tensión o de intensidad según se vaya
necesitando en el proceso de simplificación del circuito. Dicho proceso puede apreciarse en la figura 5.

Véase también
• Generador eléctrico
• Fuente de alimentación
• Teoría de circuitos

Enlaces externos
• Fuentes de corriente [1]

Figura 5: fuentes equivalentes del circuito ejemplo de la figura 4.


Fuente eléctrica 157

Referencias
[1] http:/ / knol. google. com/ k/ max-iskram/ electronic-circuits-design-for/ 1f4zs8p9zgq0e/ 18

Tarjeta de sonido
Una tarjeta de sonido o placa de sonido es
una tarjeta de expansión para computadoras
que permite la entrada y salida de audio bajo
el control de un programa informático
llamado controlador (en inglés driver). El
típico uso de las tarjetas de sonido consiste
en proveer mediante un programa que actúa
de mezclador, que las aplicaciones
multimedia del componente de audio suenen
y puedan ser gestionadas. Estas aplicaciones
multimedia engloban composición y edición
de video o audio, presentaciones multimedia
y entretenimiento (videojuegos). Algunos
equipos tienen la tarjeta ya integrada,
mientras que otros requieren tarjetas de
expansión. En el 2010 el hecho de que un
equipo no incorpore tarjeta de sonido, puede Tarjeta de sonido Sound Blaster Live! 5.1.

observarse en computadores que por


circunstancias profesionales no requieren de
dicho servicio.

Características generales
Una tarjeta de sonido típica, incorpora un
chip de sonido que por lo general contiene el
Conversor digital-analógico, el cual cumple
con la importante función de "traducir"
formas de ondas grabadas o generadas
digitalmente en una señal analógica y La AdLib Music Synthesizer Card, la primera tarjeta de
viceversa. Esta señal es enviada a un sonido popular
conector (para auriculares) en donde se
puede conectar cualquier otro dispositivo como un amplificador, un altavoz, etc. Para poder grabar y reproducir
audio al mismo tiempo con la tarjeta de sonido debe poseer la característica "full-duplex" para que los dos
conversores trabajen de forma independiente.
Tarjeta de sonido 158

Los diseños más avanzados tienen más de un chip de sonido, y


tienen la capacidad de separar entre los sonidos sintetizados
(usualmente para la generación de música y efectos especiales en
tiempo real utilizando poca cantidad de información y tiempo del
microprocesador y quizá compatibilidad MIDI) y los sonidos
digitales para la reproducción.

Esto último se logra con DACs (por sus siglas en inglés


Digital-Analog-Conversor o Conversor-Digital-Analógico), que
tienen la capacidad de reproducir múltiples muestras digitales a
diferentes tonos e incluso aplicarles efectos en tiempo real como el Tarjeta basada en el chipset VIA Envy
filtrado o distorsión. Algunas veces, la reproducción digital de
multi-canales puede ser usado para sintetizar música si es
combinado con un banco de instrumentos que por lo general es
una pequeña cantidad de memoria ROM o flash con datos sobre el
sonido de distintos instrumentos musicales. Otra forma de
sintetizar música en las PC es por medio de los "códecs de audio"
los cuales son programas diseñados para esta función pero
consumen mucho tiempo de microprocesador. Esta también nos
sirve para teléfonos móviles en la tecnología celular del mundo
moderno de tal modo que estos tengan una mayor capacidad de
Indigo IO PCMCIA de 24 bits y 96 kHz estéreo
bulla. La mayoría de las tarjetas de sonido también tienen un
fabricada por Echo Digital Audio Corporation
conector de entrada o "Line In" por el cual puede entrar cualquier
tipo de señal de audio proveniente de otro dispositivo como
micrófonos, reproductores de casetes entre otros y luego así la tarjeta de sonido puede digitalizar estas ondas y
guardarlas en el disco duro del computador.

Otro conector externo que tiene una tarjeta de sonido típica es el conector para micrófono. Este conector está
diseñado para recibir una señal proveniente de dispositivos con menor voltaje al utilizado en el conector de entrada
"Line-In".

Funcionalidades
Las operaciones básicas que permiten las tarjetas de sonido convencionales son las siguientes:
• Grabación:La señal acústica procedente de un micrófono u otras fuentes se introduce en la tarjeta por los
conectores. Esta señal se transforma convenientemente y se envía al computador para su almacenamiento en un
formato específico.
• Reproducción:La información de onda digital existente en la máquina se envía a la tarjeta. Tras cierto procesado
se expulsa por los conectores de salida para ser interpretada por un altavoz u otro dispositivo.
• Síntesis:El sonido también se puede codificar mediante representaciones simbólicas de sus características (tono,
timbre, duración...), por ejemplo con el formato MIDI. La tarjeta es capaz de generar, a partir de esos datos, un
sonido audible que también se envía a las salidas.
Aparte de esto, las tarjetas suelen permitir cierto procesamiento de la señal, como compresión o introducción de
efectos. Estas opciones se pueden aplicar a las tres operaciones.
Tarjeta de sonido 159

Componentes
La figura siguiente muestra un diagrama simplificado de los
componentes típicos de una tarjeta de sonido. En él se indica cuál es la
información que viaja por cada enlace.

Interfaz con placa madre

Sirve para transmitir información entre la tarjeta y el computador.


Puede ser de tipo PCI, ISA, PCMCIA, USB, etc.
Esquema de una tarjeta de sonido.

Buffer
La función del buffer es almacenar temporalmente los datos que viajan entre la máquina y la tarjeta, lo cual permite
absorber pequeños desajustes en la velocidad de transmisión. Por ejemplo, si la CPU no envía un dato a tiempo, la
tarjeta puede seguir reproduciendo lo que tiene en el buffer; si lo datos llegan demasiado rápido, se van guardando.
Lo mismo pasa en sentido inverso. Muchos ordenadores realizan la transmisión por DMA. Esto permite transportar
los datos entre la tarjeta y la memoria directamente, sin la intervención de la CPU, lo cual le ahorra trabajo.

DSP (Procesador de señal digital)


Procesador de señal digital. Es un pequeño microprocesador que efectúa cálculos y tratamientos sobre la señal de
sonido, liberando así a la CPU de ese trabajo. Entre las tareas que realiza se incluye compresión (en la grabación) y
descompresión (en la reproducción) de la señal digital. También puede introducir efectos acústicos tales como coros,
reverberación, etc., a base de algoritmos.
Los DSP suelen disponer de múltiples canales para procesar distintos flujos de señal en paralelo. También pueden
ser full-duplex, lo que les permite manipular datos en ambos sentidos simultáneamente.

ADC (Conversor analógico-digital)


Conversor analógico-digital. Se encarga de transformar la señal de sonido analógica en su equivalente digital. Esto
se lleva a cabo mediante tres fases: muestreo, cuantificación y codificación. Como resultado se obtiene una
secuencia de valores binarios que representan el nivel de tensión en un momento concreto.
El número de bits por muestra es fijo, y suele ser 16. La frecuencia de muestreo se puede controlar desde el PC, y
normalmente es una fracción de 44.1kHz.

DAC (Conversor digital-analógico)


Conversor digital-analógico. Su misión es reconstruir una señal analógica a partir de su versión digital. Para ello el
circuito genera un nivel de tensión de salida de acuerdo con los valores que recibe, y lo mantiene hasta que llega el
siguiente. En consecuencia se produce una señal escalonada, pero con la suficiente frecuencia de muestreo puede
reproducir fielmente la original.

Sintetizador FM (modulación de frecuencia)


La síntesis por modulación de frecuencias implementa uno de los métodos de sintetizar sonido a partir de
información simbólica (MIDI). Su funcionamiento consiste en variar la frecuencia de una onda portadora sinusoidal
en función de una onda moduladora. Con esto se pueden conseguir formas de onda complejas con múltiples
armónicos, que son lo que define el timbre. El tono y volumen del sonido deseado los determinan la frecuencia
fundamental y la amplitud de la onda. Los primeros sintetizadores FM generaban una señal analógica. Sin embargo,
posteriormente se han desarrollado versiones que trabajan digitalmente. Esto da más flexibilidad y por tanto más
Tarjeta de sonido 160

expresividad a la generación de ondas, a la vez que permite someter la señal a tratamiento digital.

Sintetizador por Tabla de Ondas


La síntesis mediante tabla de ondas es un método alternativo al FM. En vez de generar sonido de la nada, utiliza
muestras grabadas de los sonidos de instrumentos reales. Estas muestras están almacenadas en formato digital en una
memoria ROM incorporada, aunque también pueden estar en memoria principal y ser modificables. El sintetizador
busca en la tabla el sonido que más se ajusta al requerido en cada momento.
Antes de enviarlo realiza algunos ajustes sobre la muestra elegida, como modificar el volumen, prolongar su
duración mediante un bucle, o alterar su tono a base de aumentar o reducir la velocidad de reproducción. Este
componente puede tener una salida analógica o digital, aunque es preferible la segunda. En general el sonido
resultante es de mayor calidad que el de la síntesis FM. Alternativamente, este proceso puede ser llevado a cabo
enteramente por software, ejecutado por la CPU con muestras almacenadas en disco y un algocoste de la tarjeta.

Mezclador
El mezclador tiene como finalidad recibir múltiples entradas, combinarlas adecuadamente, y encaminarlas hacia las
salidas. Para ello puede mezclar varias señales (por ejemplo, sacar por el altavoz sonido reproducido y sintetizado) o
seleccionar alguna de ellas (tomar como entrada el micrófono ignorando el Line-In). Este comportamiento se puede
configurar por software.
Tanto las entradas como las salidas pueden proceder de la tarjeta o del exterior. El mezclador suele trabajar con
señales analógicas, aunque también puede manejar digitales (S/PDIF).

Conectores
Son los elementos físicos en los que deben conectarse los dispositivos externos, los cuales pueden ser de entrada o de
salida. Casi todas las tarjetas de sonido se han adaptado al estándar PC 99 de Microsoft que consiste en asignarle un
color a cada conector externo, de este modo:

Color Función

Rosa Entrada analógica para micrófono.

Azul Entrada analógica "Line-In"

Verde Salida analógica para la señal estéreo principal (altavoces frontales).

Negro Salida analógica para altavoces traseros.

Plateado Salida analógica para altavoces laterales.

Naranja Salida Digital SPDIF (que algunas veces es utilizado como salida analógica para altavoces centrales).

Los conectores más utilizados para las tarjetas de sonido a nivel de usuario son los minijack al ser los más
económicos. Con los conectores RCA se consigue mayor calidad ya que utilizan dos canales independientes, el rojo
y el blanco, uno para el canal derecho y otro para el izquierdo. A nivel profesional se utilizan las entras y salidas
S/PDIF, también llamadas salidas ópticas digitales, que trabajan directamente con sonido digital eliminando las
pérdidas de calidad en las conversiones. Para poder trabajar con dispositivos MIDI se necesita la entrada y salida
MIDI.
Tarjeta de sonido 161

Aspectos de la señal

Muestreo de sonido
Para producir un sonido el altavoz necesita una posición donde golpear, que genera, dependiendo del lugar golpeado,
una vibración del aire diferente que es la que capta el oído humano. Para determinar esa posición se necesita una
codificación. Por lo tanto cuanto mayor número de bits se tenga, mayor número de posiciones diferentes se es capaz
de representar.
Por ejemplo, si la muestra de sonido se codifica con 8 bits se tienen 256 posiciones diferentes donde golpear. Sin
embargo con 16 bits se conseguirían 65536 posiciones. No se suelen necesitar más de 16 bits, a no ser que se quiera
trabajar con un margen de error que impida que la muestra cambie significativamente.

Frecuencia de muestreo
Las tarjetas de sonido y todos los dispositivos que trabajan con señales digitales lo pueden hacer hasta una frecuencia
límite, mientras mayor sea esta mejor calidad se puede obtener. Las tarjetas de sonido que incluían los primeros
modelos de Apple Macintosh tenían una frecuencia de muestreo de 22050 Hz (22,05 KHz) de manera que su banda
de frecuencias para grabar sonido y reproducirlo estaba limitada a 10 KHz con una precisión de 8 bits que
proporciona una relación señal sobre ruido básica de solo 40 dB, las primeras tarjetas estereofónicas tenían una
frecuencia de muestreo de 44100 Hz (igual que los reproductores de CD) con lo que la banda útil se extendió hasta
los 20 KHz (alta calidad) pero se obtiene un sonido más claro cuando se eleva un poco esta frecuencia pues hace que
los circuitos de filtrado funcionen mejor, por lo que los DAT (digital audio tape) tienen una frecuencia de conversión
en sus convertidores de 48 KHz, con lo cual la banda se extiende hasta los 22 KHz.
Debe recordarse que la audición humana está limitada a los 16 ó 17 KHz, pero si los equipos se extienden más allá
de este límite se tiene una mejor calidad, también que la frecuencia de muestreo (del convertidor) debe ser de más
del doble que la banda que se pretende utilizar (teorema de Nyquist en la práctica). Finalmente los nuevos formatos
de alta definición usan frecuencias de muestreo de 96 KHz (para tener una banda de 40 KHz) y hasta 192 KHz, no
porque estas frecuencias se puedan oír, sino porque así es más fácil reproducir las que si se oyen.

Canales de sonido y polifonía


Otra característica importante de una tarjeta de sonido es su polifonía. Es el número de distintas voces o sonidos que
pueden ser tocados simultánea e independientemente. El número de canales se refiere a las distintas salidas
eléctricas, que corresponden a la configuración del altavoz, como por ejemplo 2.0 (estéreo), 2.1 (estéreo y
subwoofer), 5.1, etc. En la actualidad se utilizan las tarjetas de sonido envolvente (surround), principalmente Dolby
Digital 8.1 o superior. El número antes del punto (8) indica el número de canales y altavoces satélites, mientras que
el número después del punto (1) indica la cantidad de subwoofers. En ocasiones los términos voces y canales se usan
indistintamente para indicar el grado de polifonía , no la configuración de los altavoces.

Historia de las tarjetas de sonido para la arquitectura del IBM PC


Las tarjetas de sonido eran desconocidas para los ordenadores basados en el IBM PC hasta 1988, siendo el altavoz
interno del PC el único medio para producir sonido del que se disponía. El altavoz estaba limitado a la producción de
ondas cuadradas, que generaba sonidos descritos como "beeps". Algunas compañías, entre las que destacaba Access
Software, desarrollaron técnicas para la reproducción del sonido digital en el altavoz del PC.
El audio resultante, aunque funcional, sufría distorsiones, tenía un volumen bajo y normalmente requería de los
recursos destinados al resto de procesos mientras los sonidos eran reproducidos. Otros modelos de ordenadores
domésticos de los años 80 incluían soporte hardware para la reproducción de sonido digital y/o síntesis musical,
dejando al IBM PC en desventaja cuando aparecieron las aplicaciones multimedia como la composición de música o
los juegos.
Tarjeta de sonido 162

Es importante destacar que el diseño inicial y el planteamiento de marketing de las tarjetas de sonido de la
plataforma IBM PC no estaban dirigidas a los juegos, pero sí que se encontraban en aplicaciones de audio específicas
como composición de música o reconocimiento de voz. Esto llevó al entorno de Sierra y otras compañías en 1988 a
cambiar el enfoque de las tarjetas hacia los videojuegos.

Véase también
• Audio digital
• Creative Labs
• Mezclador de la tarjeta de sonido
• Sound Blaster
• Conversor analógico-digital
• Conversor digital-analógico
• MIDI
• PC 99

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Tarjeta de sonido.Commons
• ¿Qué es... una tarjeta de sonido? [1]
• Guía sobre las tarjetas de sonido. [2]

Referencias
[1] http:/ / www. conozcasuhardware. com/ quees/ tsonido1. htm
[2] http:/ / pchardware. org/ sonido. php
Tarjeta gráfica 163

Tarjeta gráfica
Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla,
es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la
CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o
televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC,
debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.
Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU
integradas en la placa base.
Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV,
decodificación MPEG-2[1] y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.
Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los
Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo
SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.

Historia
La historia de las tarjetas gráficas da comienzo a finales de los
años 1960, cuando se pasa de usar impresoras como elemento
de visualización a utilizar monitores. Las primeras tarjetas sólo
eran capaces de visualizar texto a 40x25 u 80x25, pero la
aparición de los primeros chips gráficos como el Motorola
6845 permiten comenzar a dotar a los equipos basados en bus
S-100 o Eurocard de capacidades gráficas. Junto con las
tarjetas que añadían un modulador de televisión fueron las
primeras en recibir el término tarjeta gráfica.

El éxito del ordenador doméstico y las primeras videoconsolas


hacen que por abaratamiento de costos (principalmente son PCI S3 ViRGE
diseños cerrados), esos chips vayan integrados en la placa base.
Incluso en los equipos que ya vienen con un chip gráfico se
comercializan tarjetas de 80 columnas, que añadían un modo
texto de 80x24 u 80x25 caracteres, principalmente para
ejecutar soft CP/M (como las de los Apple II y Spectravideo
SVI-328).

Curiosamente la tarjeta gráfica que viene con el IBM PC, que IBM XGA-2 MCA

con su diseño abierto herencia de los Apple II popularizará el


concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo texto. La MDA (Monochrome Display Adapter),
desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en
pantalla. Contaba con una memoria VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se
usaba con monitores monocromo, de tonalidad normalmente verde.[2]

A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla adjunta.[3] [4] [5] [6]
Tarjeta gráfica 164

Apple Display Card 24AC NuBus

Cirrus Logic VESA

AVIEW2E EISA

EGA Paradise Bus ISA


Tarjeta gráfica 165

Año Modo texto Modo gráficos Colores Memoria

MDA 1981 80*25 - 1 4 KB


CGA 1981 80*25 640*200 4 16 KB
HGC 1982 80*25 720*348 1 64 KB
EGA 1984 80*25 640*350 16 256 KB
IBM 1987 80*25 1024*768 256 -
8514
MCGA 1987 80*25 320*200 256 -
VGA 1987 720*400 640*480 256 256 KB
SVGA 1989 80*25 1024*768 256 1 MB
XGA 1990 80*25 1024*768 65K 2 MB

VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre
dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super VGA). Con dicho
estándar se alcanzaron los 2 MB de memoria VRAM, así como resoluciones de 1024 x 768 pixels a 256 colores.
La competencia de los PC, Commodore Amiga 2000 y Apple Macintosh reservaron en cambio esa posibilidad a
ampliaciones profesionales, integrando casi siempre la GPU (que batía en potencia con total tranquilidad a las
tarjetas gráficas de los PC del momento) en sus placas base. Esta situación se perpetúa hasta la aparición del Bus
PCI, que sitúa a las tarjetas de PC al nivel de los buses internos de sus competidores, al eliminar el cuello de botella
que representaba el Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3 ViRGE, lo que en un
PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional en los Commodore Amiga con ranura Zorro
III), la fabricación masiva (que abarata sustancialmente los costes) y la adopción por otras plataformas del Bus PCI
hace que los chips gráficos VGA comiencen a salir del mercado del PC.
La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D,
fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero
incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como
nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de
lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por
dichas tarjetas fue tal, que el puerto PCI donde se conectaban se quedó corto de ancho de banda. Intel desarrolló el
puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el
procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (comprando
incluso la mayoría de bienes de 3dfx)[7] con su gama GeForce. En ese período, las mejoras se orientaron hacia el
campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también
necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las
capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.
La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos derivados de los más potentes
aceleradores 3D de su momento. Los Apple Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y
los modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU.
En 2006, NVIDIA y ATI (ese mismo año comprada por AMD) se repartían el liderazgo del mercado[8] con sus series
de chips gráficos GeForce y Radeon, respectivamente.
Tarjeta gráfica 166

Componentes

GPU
La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico»— es un
procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del
procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D.
La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de
la GPU, pues constituye la parte más importante de la tarjeta. Tres de las más importantes de dichas características
son la frecuencia de reloj del núcleo, que en 2010 oscilaba entre 500 MHz en las tarjetas de gama baja y 850 MHz en
las de gama alta, el numero de procesadores shaders y el número de pipelines (vertex y fragment shaders),
encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.

Memoria RAM Gráfica

Tecnología Frecuencia (MHz) Ancho de banda (GB/s)

GDDR 166 - 950 1,2 - 30,4


GDDR2 533 - 1000 8,5 - 16
GDDR3 700 - 1700 5,6 - 54,4
GDDR4 1600 - 1800 64 - 86,4
GDDR5 3200 - 7000 24 - 448

Según la tarjeta gráfica esté integrada en la placa base (normalmente de bajas prestaciones) o no, utilizará la
memoria RAM propia del ordenador o dispondrá de una dedicada. Dicha memoria es la memoria de vídeo o VRAM.
Su tamaño oscila actualmente entre 256 MB y 4 GB. La memoria empleada en 2010 estaba basada en tecnología
DDR, destacando GDDR2, GDDR3,GDDR4 y GDDR5, en especial GDDR2, GDDR3 y GDDR5. La frecuencia de
reloj de la memoria se encontraba entre 400 MHz y 4,5 GHz (efectivos).
Samsung ha conseguido desarrollar memorias GDDR5 a 7GHZ, gracias al proceso de reducción de 50 nm,
permitiendo un gran ancho de banda en buses muy pequeños (incluso de 64 bits)
Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas
de profundidad de las imágenes en los gráficos 3D.

RAMDAC
El RAMDAC es un conversor de señal digital a analógico de memoria RAM. Se encarga de transformar las señales
digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de
bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes
velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, nunca con menos de 60).[9] Dada la
creciente popularidad de los monitores digitales el RAMDAC está quedando obsoleto, puesto que no es necesaria la
conversión analógica si bien es cierto que muchos conservan conexión VGA por compatibilidad.
Tarjeta gráfica 167

Salidas
Los sistemas de conexión más
habituales entre la tarjeta gráfica y el
dispositivo visualizador (como un
monitor o un televisor) son:
• DA-15 conector RGB usado
mayoritariamente en los Apple
Salidas SVGA, S-Video y DVI de una tarjeta gráfica
Macintosh
• Digital TTL DE-9 : usado por las primitivas tarjetas de IBM (MDA, CGA y variantes, EGA y muy contadas
VGA)
• SVGA/Dsub-15: estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y
distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor.
• DVI: sustituto del anterior, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales
como los LCD o proyectores. Evita la distorsión y el ruido al corresponder directamente un píxel a representar
con uno del monitor en la resolución nativa del mismo.
• S-Video: incluido para dar soporte a televisores, reproductores de DVD, vídeos, y videoconsolas.
Otras no tan extendidas en 2010 son:
• S-Video implementado sobre todo en tarjetas con sintonizador TV y/o chips con soporte de video NTSC/PAL
• Vídeo Compuesto: Es bastante antiguo y equiparable al euroconector, es analógico de muy baja resolución
mediante conector RCA.
• Vídeo por componentes: utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de
tres clavijas (Y, Cb y Cr).
• HDMI: tecnología de audio y vídeo digital cifrado sin compresión en un mismo cable.
• Display Port: Puerto para Tarjetas gráficas creado por VESA y rival del HDMI, transfiere video a alta resolución
y audio. Sus ventajas son que está libre de patentes, y por ende de regalías para incorporarlo a los aparatos,
tambien dispone de unas pestañitas impidiendo que se desconecte el cable accidentalmente.

Interfaces con la placa base

Bus Anchura Frecuencia Ancho Puerto


(bits) (MHz) de banda
(MB/s)
ISA XT 8 4,77 8 Paralelo
ISA AT 16 8,33 16 Paralelo
MCA 32 10 20 Paralelo
EISA 32 8,33 32 Paralelo
VESA 32 40 160 Paralelo
PCI 32 - 64 33 - 100 132 - 800 Paralelo
AGP 1x 32 66 264 Paralelo
AGP 2x 32 133 528 Paralelo
AGP 4x 32 266 1000 Paralelo
AGP 8x 32 533 2000 Paralelo
PCIe x1 1*32 25 / 50 100 / 200 Serie
PCIe x4 1*32 25 / 50 400 / 800 Serie
Tarjeta gráfica 168

PCIe x8 1*32 25 / 50 800 / 1600 Serie


PCIe 1*32 25 / 50 1600 / 3200 Serie
x16

En orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la placa base han sido, principalmente:
• Slot MSX : bus de 8 bits usado en los equipos MSX
• ISA: arquitectura de bus de 16 bits a 8 MHz, dominante durante los años 1980; fue creada en 1981 para los IBM
PC.
• Zorro II usado en los Commodore Amiga 2000 y Commodore Amiga 1500.
• Zorro III usado en los Commodore Amiga 3000 y Commodore Amiga 4000
• NuBus usado en los Apple Macintosh
• Processor Direct Slot usado en los Apple Macintosh
• MCA: intento de sustitución en 1987 de ISA por IBM. Disponía de 32 bits y una velocidad de 10 MHz, pero era
incompatible con los anteriores.
• EISA: respuesta en 1988 de la competencia de IBM; de 32 bits, 8.33 MHz y compatible con las placas anteriores.
• VESA: extensión de ISA que solucionaba la restricción de los 16 bits, duplicando el tamaño de bus y con una
velocidad de 33 MHz.
• PCI: bus que desplazó a los anteriores a partir de 1993; con un tamaño de 32 bits y una velocidad de 33 MHz,
permitía una configuración dinámica de los dispositivos conectados sin necesidad de ajustar manualmente los
jumpers. PCI-X fue una versión que aumentó el tamaño del bus hasta 64 bits y aumentó su velocidad hasta los
133 MHz.
• AGP: bus dedicado, de 32 bits como PCI; en 1997 la versión inicial incrementaba la velocidad hasta los 66 MHz.
• PCIe: interfaz serie que desde 2004 empezó a competir contra AGP, llegando a doblar en 2006 el ancho de banda
de aquel. No debe confundirse con PCI-X, versión de PCI.
En la tabla adjunta[10] [11] se muestran las características más relevantes de algunos de dichos interfaces.

Dispositivos refrigerantes
Debido a las cargas de trabajo a las que son
sometidas, las tarjetas gráficas alcanzan
temperaturas muy altas. Si no es tenido en
cuenta, el calor generado puede hacer fallar,
bloquear o incluso averiar el dispositivo.
Para evitarlo, se incorporan dispositivos
refrigerantes que eliminen el calor excesivo
de la tarjeta. Se distinguen dos tipos:
• Disipador: dispositivo pasivo (sin partes
móviles y, por tanto, silencioso);
Conjunto de disipador y ventilador.
compuesto de material conductor del
calor, extrae este de la tarjeta. Su
eficiencia va en función de la estructura y la superficie total, por lo que son bastante voluminosos.
• Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado de la tarjeta al mover el aire cercano.
Es menos eficiente que un disipador y produce ruido al tener partes móviles.
Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y suelen ser montados juntos en las tarjetas
gráficas; un disipador sobre la GPU (el componente que más calor genera en la tarjeta) extrae el calor, y un
ventilador sobre él aleja el aire caliente del conjunto.
Tarjeta gráfica 169

Alimentación
Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un gran problema, sin embargo, la
tendencia actual de las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son
cada día más potentes, el cuello de botella se encuentra en el puerto PCIe que sólo es capaz de aportar una potencia
de 150 W.[12] Por este motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe incluyen
un conector (PCIe power connector)[13] que permite una conexión directa entre la fuente de alimentación y la tarjeta,
sin tener que pasar por la placa base, y, por tanto, por el puerto PCIe.
Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían necesitar una fuente de
alimentación propia, convirtiéndose dicho conjunto en dispositivos externos.[14]

Tipos de tarjetas gráficas

Tarjeta MDA
"Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada por IBM como una memoria de 4 KB de
forma exclusiva para monitores TTL (que representaban los clásicos caracteres en ámbar o verde). No disponía de
gráficos y su única resolución era la presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna
posibilidad de configuración.
Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar
y se envía al monitor como información serie. No debe sorprender la falta de procesamiento gráfico, ya que, en estos
primeros PC no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente
todo se limitaba a información en modo texto.
Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluía en su dia) un puerto de comunicación para la
impresora ¡Una asociación más que extraña a día de hoy!

Tarjeta CGA
"Color Graphics Array" o "Color graphics adapter" según el texto al que se recurra. Aparece en el año 1981 también
de la mano de IBM y fue muy extendida. Permitía matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80
columnas, aunque solo usaba 7x7 puntos para representar los caracteres. Este detalle le imposibilitaba el representar
subrayados, por lo que los sustituía por diferentes intensidades en el caracter en cuestión.En modo gráfico admitía
resoluciones de hasta 640x200. La memoria era de 16 KB y solo era compatible con monitores RGB y Compuestos.
A pesar de ser superior a la MDA, muchos usuarios preferían esta última dado que la distancia entre puntos de la
rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se
realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es
decir, un total de 16 tonalidades diferentes pero no reproducibles en todas las resoluciones tal y como se muestra en
el cuadro adjunto.
Esta tarjeta tenia un fallo bastante habitual y era el conocido como "snow". Este problema era de caracter aleatorio y
consistía en la aparición de "nieve" en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen).
Tanto era así que algunas BIOS de la época incluían en su SETUP la opción de eliminación de nieve ("No snow").

Tarjeta HGC
"Hercules Graphics Card" o más popularmente conocida como Hércules (nombre de la empresa productora), aparece
en el año 1982, con gran éxito convirtiéndose en un estándar de vídeo a pesar de no disponer del soporte de las
rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KB de memoria.
Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los puntos de la pantalla
usando 30,58 KB para el modo gráfico (1 bit x 720 x 348)y el resto para el modo texto y otras funciones. Las
Tarjeta gráfica 170

lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los caracteres se
dibujaban en matrices de 14x9 puntos.

Fabricantes

Fabricantes de GPU
ATI NVIDIA
Fabricantes de tarjetas GECUBE POINT OF
VIEW
CLUB3D CLUB3D
POWERCOLOR EVGA
MSI GALAXY
XFX XFX
ASUS ASUS
SAPPHIRE ZOTAC
GIGABYTE GIGABYTE
HIS BFG
DIAMOND GAINWARD

En el mercado de las tarjetas gráficas hay que distinguir dos tipos de fabricantes:
• De chips: generan exclusivamente la GPU. Los dos más importantes son:
• ATI
• NVIDIA
• GPU integrado en el chipset de la placa base: también destaca Intel además de los antes citados NVIDIA y ATI.
Otros fabricantes como Matrox o S3 Graphics tienen una cuota de mercado muy reducida.
• De tarjetas: integran los chips adquiridos de los anteriores con el resto de la tarjeta, de diseño propio. De ahí que
tarjetas con el mismo chip den resultados diferentes según la marca.
En la tabla adjunta se muestra una relación de los dos fabricantes de chips y algunos de los fabricantes de tarjetas con
los que trabajan.

API para gráficos


A nivel de programador, trabajar con una tarjeta gráfica es complicado; por ello, surgieron interfaces que abstraen la
complejidad y diversidad de las tarjetas gráficas. Los dos más importantes son:
• Direct3D: lanzada por Microsoft en 1996, forma parte de la librería DirectX. Funciona sólo para Windows, ya que
es privativa. Utilizado por la mayoría de los videojuegos comercializados para Windows. Actualmente van por la
versión 11
• OpenGL: creada por Silicon Graphics a principios de los años 1990; es gratuita, libre y multiplataforma. Utilizada
principalmente en aplicaciones de CAD, realidad virtual o simulación de vuelo. Actualmente está disponible la
versión 4.0
OpenGL está siendo desplazada del mercado de los videojuegos por Direct3D, aunque haya sufrido muchas mejoras
en los últimos meses.
Tarjeta gráfica 171

Efectos gráficos
Algunas de las técnicas o efectos habitualmente empleados o generados mediante las tarjetas gráficas son:
• Antialiasing: retoque para evitar el aliasing, efecto que aparece al representar curvas y rectas inclinadas en un
espacio discreto y finito como son los píxeles del monitor.
• Shader: procesado de píxeles y vértices para efectos de iluminación, fenómenos naturales y superficies con varias
capas, entre otros.
• HDR: técnica novedosa para representar el amplio rango de niveles de intensidad de las escenas reales (desde luz
directa hasta sombras oscuras). Es una evolución del efecto Bloom, aunque a diferencia de éste, no permite
Antialiasing.
• Mapeado de texturas: técnica que añade detalles en las superficies de los modelos, sin aumentar la complejidad de
los mismos.
• Motion Blur: efecto de emborronado debido a la velocidad de un objeto en movimiento.
• Depth Blur: efecto de emborronado adquirido por la lejanía de un objeto.
• Lens flare: imitación de los destellos producidos por las fuentes de luz sobre las lentes de la cámara.
• Efecto Fresnel (reflejo especular): reflejos sobre un material dependiendo del ángulo entre la superficie normal y
la dirección de observación. A mayor ángulo, más reflectante.
• Teselado: Consiste en multiplicar el número de polígonso para representar ciertas figuras geométricas y n ose
vean totalmente planas. Esta característica fué incluida en la API DirectX 11

Errores comunes
• Confundir a la GPU con la tarjeta gráfica. Aunque muy importante, no todas las GPUs y adaptadores de gráficos
van en tarjeta ni son el único determinante de su calidad y rendimiento
• Considerar el término tarjeta de video como privativo del PC y compatibles. Esas tarjetas se usan en equipos no
PC e incluso sin procesador Intel y sus chips en videoconsolas.
• Confundir al fabricante de la GPU con la marca de la tarjeta. Actualmente los mayores fabricantes de chip
gráficos en el mercado son NVIDIA y ATI Technologies. Esto se debe a que se encargan solamente, de hacer los
chip gráficos (GPU)

Véase también
• Gráficos 3D por computadora
• OpenGL - API multiplataforma
• Direct3D - API de la colección DirectX de Microsoft
• GeForce - Ejemplo de una serie de procesadores gráficos
• Z-Buffer - Espacio de memoria donde se gestiona la profundidad en los gráficos
• PC 99
Tarjeta gráfica 172

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Tarjeta gráfica.Commons
• Sitio web oficial de NVIDIA [15]
• Sitio web oficial de ATI [16]
• Demostración de varios efectos gráficos [17]
• Guías de iniciación a las tarjetas gráficas (en inglés) [18]
• Overclocking de tarjetas gráficas (en inglés) [19]

Referencias
[1] « Decodificación MPEG-2 (http:/ / www. imagendv. com/ mpeg. htm)».
[2] « MDA en IBM PC (http:/ / www. neoteo. com/ Secciones/ VidaDigital/ tabid/ 63/ ID/ 1511/ Title/ Los_25_anos_del_ordenador_personal/
Default. aspx)».
[3] « Referencia Tabla Historia (1) (http:/ / www. computerhope. com/ help/ video. htm)».
[4] « Referencia Tabla Historia (2) (http:/ / www. martinreddy. net/ gfx/ SVGAInfo)».
[5] « Referencia Tabla Historia (3) (http:/ / industrial-computers. globalspec. com/ Specifications/
Industrial_Computers_Embedded_Computer_Components/ Desktop_Personal_Computers/ Desktop_Personal_Computers)».
[6] « Referencia Tabla Historia (4) (http:/ / burks. bton. ac. uk/ burks/ pcinfo/ hardware/ video/ part4. htm)».
[7] « 3dfx vende activos a NVIDIA (http:/ / www. firingsquad. com/ news/ newsarticle. asp?searchid=2545)».
[8] « NVIDIA vs ATI (http:/ / www. faq-mac. com/ mt/ archives/ 016274. php)».
[9] « Velocidad de refresco recomendada que debe soportar el RAMDAC (http:/ / www. monografias. com/ trabajos32/
herramientas-computacion/ herramientas-computacion. shtml#tamaño)».
[10] « Características de buses (http:/ / en. wikipedia. org/ wiki/ List_of_device_bandwidths#Computer_buses)».
[11] « Características de PCIe (http:/ / digital. ni. com/ worldwide/ mexico. nsf/ web/ all/ BD999744123AEDB38625723C000CF5CE)».
[12] « Solución al suministro de energía (http:/ / www. maxim-ic. com/ appnotes. cfm/ an_pk/ 3605)».
[13] « Conector de corriente para PCIe (http:/ / uk. theinquirer. net/ ?article=37039)».
[14] « Futuras tarjetas gráficas externas y con fuente propia (http:/ / www. tomshardware. com/ 2006/ 07/ 21/ the_graphics_state_of_the_union/
page4. html)».
[15] http:/ / www. nvidia. com/
[16] http:/ / ati. amd. com/
[17] http:/ / www. daionet. gr. jp/ ~masa/ rthdribl/
[18] http:/ / www. tomshardware. com/ 2006/ 08/ 08/ graphics_beginners_3/ index. html
[19] http:/ / www. overclockingwiki. org/ index. php?title=ATITool
Caja de computadora 173

Caja de computadora
En informática, las carcasas, torres, gabinetes, cajas o chasis de
ordenador, son el armazón del equipo que contiene los componentes
del ordenador, normalmente construidos de acero, plástico o aluminio.
También podemos encontrarlas de otros materiales como madera o
polimetilmetacrilato para cajas de diseño. A menudo de metal
electrogalvanizado. Su función es la de proteger los componentes del
ordenador.

Historia Carcasa ATX abierta.

En 1972 Intel fabricó el primer microprocesador, el 4004 abriendo el


camino a los ordenadores en los hogares, vía en la que se comprometerán Apple (1976) y más tarde Commodore y
Tandy (1977). La historia de la carcasa comienza pues con ellos.
Commodore dotó a sus ordenadores de un único bloque en el que se
encontraba el teclado y el lector de cintas magnéticas, así como el
TRS-80 de Tandy añadió una televisión con un cable separada. Apple
fue comercializado en pequeñas cantidades y sin caja.
Después de esta primera tentativa la mayoría de los ordenadores
siguieron la línea de incluir el teclado en la caja. Commodore y
Thomson abrieron las puertas en 1982 con el Commodore VIC 20 y el
famoso Thomson TO7. Surgieron otras celebridades como Oric,
Amiga 1000.
Amstrad y más tarde Amiga. Solo el Apple Macintosh 128k continuó
en la misma linea de incluir el monitor en la caja.

En la tercera generación de la evolución, con la intervención de la Amiga 1000 en 1985, se inauguraron las cajas de
escritorio. Este nuevo tipo de diseño duraría mucho tiempo ya que se encontraría en la mayoría de los equipos hasta
1992-1993. Se presenta como una carcasa separada del teclado por un cable así como del monitor. Concebida para
reposar sobre el escritorio y colocar la pantalla sobre ella y acoger los dispositivos extraíbles (disquetes de 5'25” y de
3'5”).
La siguiente evolución, que perdura en la actualidad, se hizo a mediado de los años años 1990; se trató de colocar la
carcasa en modo vertical: la torre. Esto permitió aumentar el tamaño considerablemente y colocar los dispositivos de
lectura perpendicuarles a la carcasa aprovechando más el espacio para su colocación.
Alrededor de los años 1990 las cajas solían tener todas una forma rectangular y normalmente de color beige. En
1998 Apple apostó por carcasas con diseños y colores más estéticos incluso llegando a reducir su tamaño. Desde
entonces las compañías fabrican carcasas que tienen una vista más agradable. Desde 2007 las cajas más vendidas
eran de un color negro o gris metalizado. Una nueva óptica en la evolución de las carcasas fue la de la ventilación y
el ruido. En la caja se fue añadiendo espacio para agregar ventiladores, cada vez más y más grandes.
El modding es un estilo más artístico de las carcasas, frecuentemente con accesorios innovadores para llamar la
atención. Desde el principio del 2000 se han añadido paneles transparentes o ventanas para poder ver el interior del
PC. Los aficionados al modding incluyen LED internos, colores llamativos o incluso refrigeración por agua a sus
equipos.
Las pegatinas son comunes en las carcasas mostrando el procesador interno o el sistema operativo para el que fueron
diseñadas.
Caja de computadora 174

Tamaños
El tamaño de las carcasas viene dado por el factor de forma de la placa base. Sin embargo el factor de forma solo
especifica el tamaño interno de la caja.
• Barebone: Gabinetes de pequeño tamaño cuya función principal es la de ocupar menor espacio y crea un diseño
más agradable. Son útiles para personas que quieran dar buena impresión como una persona que tenga un
despacho en el que reciba a mucha gente. Los barebone tienen el problema de que la expansión es complicada
debido a que admite pocos (o ningún) dispositivos. Otro punto en contra es el calentamiento al ser de tamaño
reducido aunque para una persona que no exija mucho trabajo al ordenador puede estar bien. Este tipo de cajas
tienen muchos puertos USB para compensar la falta de dispositivos, como una disquetera (ya obsoleta), para
poder conectar dispositivos externos como un disco USB o una memoria.
• Minitorre: Dispone de una o dos bahías de 5 ¼ y dos o tres bahías de 3 ½. Dependiendo de la placa base se
pueden colocar bastantes tarjetas. No suelen tener problema con los USB y se venden bastantes modelos de este
tipo de torre ya que es pequeña y a su vez hace las paces con la expansión. Su calentamiento es normal y no tiene
el problema de los barebone.
• Sobremesa: No se diferencian mucho de las minitorres, a excepción de que en lugar de estar en vertical se colocan
en horizontal sobre el escritorio. Antes se usaban mucho pero ahora están cada vez más en desuso. Se solían
colocar sobre ella el monitor.
• Mediatorre o semitorre: La diferencia de ésta es que aumenta su tamaño para poder colocar más dispositivos.
Normalmente son de 4 bahías de 5 ¼ y 4 de 3 ½ y un gran número de huecos para poder colocar tarjetas y demás
aunque esto depende siempre de la placa base.
• Torre: Es el más grande. Puedes colocar una gran cantidad de dispositivos y es usado cuando se precisa una gran
cantidad de dispositivos.
• Servidor: Suelen ser gabinetes más anchos que los otros y de una estética inexistente debido a que van destinadas
a lugares en los que no hay mucho tránsito de clientes como es un centro de procesamiento de datos. Su diseño
está basado en la eficiencia donde los periféricos no es la mayor prioridad sino el rendimiento y la ventilación.
Suelen tener más de una fuente de alimentación de extracción en caliente para que no se caiga el servidor en el
caso de que se estropee una de las dos y normalmente están conectados a un SAI que protege a los equipos de los
picos de tensión y consigue que en caso de caída de la red eléctrica el servidor siga funcionando por un tiempo
limitado.
• Rack: Son otro tipo de servidores. Normalmente están dedicados y tienen una potencia superior que cualquier otro
ordenador. Los servidores rack se atornillan a un mueble que tiene una medida especial: la "U". Una "U" es el
ancho de una ranura del mueble. Este tipo de servidores suele colocarse en salas climatizadas debido a la
temperatura que alcanza.
• Modding: El modding es un tipo de gabinete que es totalmente estético incluso se podría decir en algunos casos
que son poco funcionales. Normalmente este tipo de gabinetes lleva incorporado un montón de luces de neón,
ventiladores, dibujos y colores extraños pero también los hay con formas extravagantes que hacen que muchas
veces sea difícil la expansión (como una torre en forma de pirámide en la que colocar componentes se complica.
• Portátiles: Son equipos ya definidos. Poco se puede hacer para expandirlos y suelen calentarse mucho si son muy
exigidos. El tamaño suele depender del monitor que trae incorporado y con los tiempos son cada vez más finos.
Su utilidad se basa en que tenemos todo el equipo integrado en el gabinete: Teclado, monitor, y mouse, y por lo
tanto lo hacen portátil.
Caja de computadora 175

Tipos de gabinetes

Computadora tipo Computadora Computadora de sobremesa. Computadora


barebone. minitorre. mediatorre.

Servidor en un rack. Gabinete con Computadora portátil.


modding.

Distribución
Normalmente una carcasa contiene cajas para las fuentes de alimentación y bahías de unidades. En el panel trasero se
puede localizar conectores para los periféricos procedentes de la placa base y de las tarjetas de expansión. En el
panel frontal encontramos, en muchos casos, botones de encendido y reinicio y LED que indican el estado de
encendido de la máquina, el uso del disco duro y la actividad de red.
En algunas carcasas antiguas podíamos ver botones de turbo que limitaban el uso de la CPU y que fueron
desapareciendo con el tiempo. En las nuevas podemos ver paneles en el que podemos conectar dispositivos más
modernos como USB, Firewire, auriculares y micrófonos. También podemos ver pantallas LCD que indican la
velocidad del microprocesador, la temperatura, la hora del sistema, etcétera. Todos estos dispositivos han de
conectarse a la placa base para obtener la información.y tostao

Componentes mayores
Las placas bases suelen estar atornilladas al fondo o a un lado de la parte interna del gabinete, dependiendo del factor
de forma y la orientación. Algunos formatos, como el ATX, vienen con ranuras que hay que destapar para colocar
los dispositivos de entrada/salida que vienen integrados en la placa base para los periféricos, así como ranuras para
las tarjetas de expansión. Las fuentes de alimentación suelen estar colocadas en la parte superior trasera sujeta por
tornillos. En el panel frontal los formatos como ATX disponen de bahías de 5¼” pulgadas (utilizado por ejemplo por
unidades de discos ópticos) y de 3½” pulgadas (utilizado por ejemplo por disqueteras, discos duros o lectores de
tarjetas).
Los dispositivos de entrada/salida opcionales suelen estar en la parte frontal abajo, mismo lugar donde se ubican los
LED.
Caja de computadora 176

Acceso interior
Los gabinetes más modernos tienen un único panel desmontable que está fijado con tornillos a la carcasa y que al
retirarlo podemos acceder a la placa base, las tarjetas de expansión y los dispositivos de almacenamiento de datos
fácilmente. Las carcasas más antiguas tenían que desmontar la chapa con múltiples tornillos que hacían más difícil
de manipular por dentro. Hoy día existen carcasas en las que se puede operar sin herramientas ya que sustituyen los
tornillos por carriles de plástico y corchetes que facilitan el trabajo de manipulación.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Caja de computadora. Commons
Disco duro 177

Disco duro
Disco Duro

Componentes de un Disco Duro


Conectado a:
• Adaptador de host del sistema (en los actuales ordenadores personales, mayoritariamente integrado en la placa madre),
mediante uno de estos sitemas
• Interfaz IDE / PATA
• Interfaz SATA
• Interfaz SAS
• Interfaz SCSI (popular en servidores)
• Interfaz FC (exclusivamente en servidores y equipos mayores)
• Interfaz USB
• NAS mediante redes de cable / inalámbricas

Fabricantes comunes:
• Western Digital
• Seagate
• Samsung
• Hitachi
• Fujitsu
• Maxtor

Un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo no volátil, que conserva la
información aún con la pérdida de energía, que emplea un sistema de grabación magnética digital. Dentro de la
carcasa hay una serie de platos metálicos apilados girando a gran velocidad. Sobre los platos se sitúan los cabezales
encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares para comunicar un disco duro con la
computadora; las interfaces más comunes son Integrated Drive Electronics (IDE, también llamado ATA); SCSI
generalmente usado en servidores; Serial ATA, este último estandarizado en el año 2004 y FC exclusivo para
servidores.
Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes se deben definir en
él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por
nuestro sistema.
También existe otro tipo de almacenamiento, a efectos prácticos, sustituto del disco duro mecánico, denominadas
Unidades de estado sólido que utilizan memorias de circuitos integrados basadas en Flash para almacenar la
información. El uso de esta clase de dispositivos generalmente se limitaba a las supercomputadoras, por su elevado
precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.[1] Así, el caché de pista es
una memoria de estado sólido, tipo memoria RAM, dentro de una unidad de estado sólido.
Su traducción del inglés es unidad de disco duro, pero este término es raramente utilizado, debido a la practicidad
del término de menor extensión disco duro (o disco rígido).
Disco duro 178

Estructura física
Dentro de un disco duro hay uno o varios platos (entre
2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos),
que son discos (de aluminio o cristal) concéntricos y
que giran todos a la vez. El cabezal (dispositivo de
lectura y escritura) es un conjunto de brazos alineados
verticalmente que se mueven hacia dentro o fuera
según convenga, todos a la vez. En la punta de dichos
brazos están las cabezas de lectura/escritura, que
gracias al movimiento del cabezal pueden leer tanto
zonas interiores como exteriores del disco.

Cada plato posee dos caras, y es necesaria una cabeza Cabezal de lectura
de lectura/escritura para cada cara. Si se observa el
esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad,
cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara
inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las
caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las
cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una
finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema
que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice
la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos
daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se
mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).

Direccionamiento
Hay varios conceptos para referirse a zonas del disco:
• Plato: cada uno de los discos que hay dentro del
disco duro.
• Cara: cada uno de los dos lados de un plato.
• Cabeza: número de cabezales.
• Pista: una circunferencia dentro de una cara; la
pista 0 está en el borde exterior.
• Cilindro: conjunto de varias pistas; son todas las
circunferencias que están alineadas verticalmente
(una de cada cara).
• Sector : cada una de las divisiones de una pista. El
tamaño del sector no es fijo, siendo el estándar
actual 512 bytes, aunque próximamente serán 4 KB.
Antiguamente el número de sectores por pista era
fijo, lo cual desaprovechaba el espacio
significativamente, ya que en las pistas exteriores
pueden almacenarse más sectores que en las Cilindro, Cabeza y Sector
interiores. Así, apareció la tecnología ZBR
Disco duro 179

(grabación de bits por zonas) que aumenta el número de sectores


en las pistas exteriores, y utiliza más eficientemente el disco duro.
El primer sistema de direccionamiento que se usó fue el CHS
(cilindro-cabeza-sector), ya que con estos tres valores se puede situar
un dato cualquiera del disco. Más adelante se creó otro sistema más
sencillo: LBA (direccionamiento lógico de bloques), que consiste en
dividir el disco entero en sectores y asignar a cada uno un único
número. Éste es el que actualmente se usa.

Tipos de conexión
Si hablamos de disco duro podemos citar los distintos tipos de
Pista (A), Sector (B), Sector de una pista (C),
conexión que poseen los mismos con la placa base, es decir pueden ser Clúster (D)
SATA, IDE, SCSI o SAS:

• IDE: Integrated Device Electronics ("Dispositivo con electrónica integrada") o ATA (Advanced Technology
Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI
(Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por
su versatilidad y asequibilidad. Son planos, anchos y alargados.
• SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación.
Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI
Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de
transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los
10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un
controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita
(daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador,
lo que posibilita una mayor velocidad de transferencia.
• SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de
datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de
transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la
actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado.
Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.
• SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue
utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la
conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de
transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de
transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos
existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI.
Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones
con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por
controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.
Disco duro 180

Factor de forma
El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser
montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos
FDD "floppy-disk drives" (en inglés).
La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado
otros tipos de disquetes con unas dimensiones más pequeñas.
• 8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas).
En 1979, Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las
mismas dimensiones y siendo compatible con la interfaz de 8 pulgadas de las disqueteras. Había dos versiones
disponibles, la de la misma altura y la de la mitad (58,7mm).
• 5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los
discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo:
82,5 mm máximo.
Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64
pulgadas). La mayoría de los modelos de unidades ópticas (DVD/CD) de 120 mm usan el tamaño del factor de
forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó
a finales de los 90'.
• 3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas).
Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las
disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4mm (1
pulgada), o "low-profile" que es usado en la mayoría de los discos duros.
• 2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas).
Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de
disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de
música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la
dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor
capacidad tienen una altura de 12,5 mm.
• 1,8 pulgadas: 54×8×71 mm.
Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las
dimensiones indicadas y su uso se incrementa en reproductores de audio digital y su subnotebook. La variante
original posee de 2GB a 5GB y cabe en una ranura de expansión de tarjeta de ordenador personal. Son usados
normalmente en iPods y discos duros basados en MP3.
• 1 pulgadas: 42,8×5×36,4 mm.
Este factor de forma se introdujo en 1999 por IBM y Microdrive, apto para los slots tipo 2 de compact flash,
Samsung llama al mismo factor como 1,3 pulgadas.
• 0,85 pulgadas: 24×5×32 mm.
Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares,
incluyendo SD/MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micromóviles
de 4G. Toshiba actualmente vende versiones de 4GB (MK4001MTD) y 8GB (MK8003MTD) 5 [2] y tienen el
Record Guinness del disco duro más pequeño.
Los principales fabricantes suspendieron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85
pulgadas en 2007, debido a la caída de precios de las memorias flash, aunque Samsung introdujo en el 2008 con el
SpidPoint A1 otra unidad de 1,3 pulgadas.
El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son
especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del
Disco duro 181

disco, para interés de la continuidad histórica.

Estructura lógica
Dentro del disco se encuentran:
• El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones.
• Las particiones, necesarias para poder colocar los sistemas de archivos.

Integridad
Debido a la distancia extremadamente pequeña entre los cabezales y la superficie del disco, cualquier contaminación
de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco
en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la
pérdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro
eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre
fabricación.
El eje del sistema del disco duro depende de la presión del aire
dentro del recinto para sostener los cabezales y su correcta altura
mientras el disco gira. Un disco duro requiere un cierto rango de
presiones de aire para funcionar correctamente. La conexión al
entorno exterior y la presión se produce a través de un pequeño
agujero en el recinto (cerca de 0,5 mm de diámetro) normalmente
con un filtro en su interior (filtro de respiración, ver abajo). Si la
presión del aire es demasiado baja, entonces no hay suficiente
impulso para el cabezal, que se acerca demasiado al disco, y se da
el riesgo de fallos y pérdidas de datos. Son necesarios discos
fabricados especialmente para operaciones de gran altitud, sobre
3.000 m. Hay que tener en cuenta que los aviones modernos tienen
Cabezal del disco duro
una cabina presurizada cuya presión interior equivale normalmente
a una altitud de 2.600 m como máximo. Por lo tanto los discos
duros ordinarios se pueden usar de manera segura en los vuelos. Los discos modernos incluyen sensores de
temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos
(normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero. El aire dentro del disco
operativo está en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de
recirculación interna para quitar cualquier contaminante que se hubiera quedado de su fabricación, alguna partícula o
componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una
operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos.
Disco duro 182

Para los cabezales resistentes al magnetismo grandes (GMR) en


particular, un incidente minoritario debido a la contaminación (que
no se disipa la superficie magnética del disco) llega a dar lugar a
un sobrecalentamiento temporal en el cabezal, debido a la fricción
con la superficie del disco, y puede hacer que los datos no se
puedan leer durante un periodo corto de tiempo hasta que la
temperatura del cabezal se estabilice (también conocido como
“aspereza térmica”, un problema que en parte puede ser tratado con
el filtro electrónico apropiado de la señal de lectura).
Cabezal de disco duro IBM sobre el plato del disco
Los componentes electrónicos del disco duro controlan el
movimiento del accionador y la rotación del disco, y realiza
lecturas y escrituras necesitadas por el controlador de disco. El firmware de los discos modernos es capaz de
programar lecturas y escrituras de forma eficiente en la superficie de los discos y de reasignar sectores que hayan
fallado.

Funcionamiento mecánico
Un disco duro suele tener:
• Platos en donde se graban los datos.
• Cabezal de lectura/escritura.
• Motor que hace girar los platos.
• Electroimán que mueve el cabezal.
• Circuito electrónico de control, que
incluye: interfaz con la computadora,
memoria caché.
• Bolsita desecante (gel de sílice) para
evitar la humedad.
• Caja, que ha de proteger de la suciedad,
motivo por el cual suele traer algún filtro
de aire.

Piezas de un disco duro


Disco duro 183

Historia
Al principio los discos duros eran extraíbles,
sin embargo, hoy en día típicamente vienen
todos sellados (a excepción de un hueco de
ventilación para filtrar e igualar la presión
del aire).
El primer disco duro, aparecido en 1956, fue
el IBM 350 modelo 1, presentado con la
computadora Ramac I: pesaba una tonelada
y su capacidad era de 5 MB. Más grande
que una nevera actual, este disco duro
trabajaba todavía con válvulas de vacío y
requería una consola separada para su
manejo.

Su gran mérito consistía en el que el tiempo


requerido para el acceso era relativamente
constante entre algunas posiciones de Antiguo disco duro de IBM (modelo 62PC, «Piccolo»), de 64,5 MB, fabricado en
memoria, a diferencia de las cintas 1979

magnéticas, donde para encontrar una


información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy
diferentes tiempos de acceso para cada posición.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material
magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El
cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código
binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años.
Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió
cómo registrar la información de una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones
en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como
magnetorresistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más
los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos
investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros,
que se elevó un 60% anual en la década de 1990.
En 1992, los discos duros de 3,5 pulgadas alojaban 250 Megabytes, mientras que 10 años después habían superado
40 Gigabytes (40000 Megabytes). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 2
terabytes (TB), (2000000 Megabytes)
En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque
no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad.
Disco duro 184

Características de un disco duro


Las características que se deben tener en cuenta en un disco duro son:
• Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma
del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media
(situarse en el sector).
• Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del
tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
• Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de
la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo
por vuelta y la cantidad de sectores por pista.
• Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo
empleado en una rotación completa del disco.
• Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia
media.
• Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está
situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.
Otras características son:
• Caché de pista: Es una memoria tipo Flash dentro del disco duro.
• Interfaz: Medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB,
Firewire, SAS
• Landz: Zona sobre las que aparcan las cabezas una vez se apaga la computadora.

Presente y futuro
Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual
permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los
cuales hacen un uso más eficiente de la energía.

Unidades de Estado sólido


Las unidades de estado sólido son dispositivos electrónicos, construidos únicamente con chips de memoria flash, por
ello, no son discos, pero juegan el mismo papel a efectos prácticos con todas las mejoras que ello conlleva.
Se viene empezando a observar que es posible que las unidades de estado sólido terminen sustituyendo al disco duro
por completo a largo plazo.
Son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos esto les hace muy fiables y
físicamente casi indestructibles. Sin embargo su costo por GB es aún muy elevado ya que el coste de un disco duro
común de 500 GB es equivalente a un SSD de 32 GB, 40 € aproximadamente.
Los discos que no son discos: Las Unidades de estado sólido han sido categorizadas repetidas veces como "discos",
cuando es totalmente incorrecto denominarlas así, puesto que a diferencia de sus predecesores, sus datos no se
almacenan sobre superficies cilíndricas ni platos. Esta confusión conlleva habitualmente a creer que "SSD" significa
Solid State Disk, en vez de Solid State Drive
Disco duro 185

Fabricantes
Los recursos tecnológicos y el saber hacer requeridos para el desarrollo
y la producción de discos modernos implica que desde 2007, más del
98% de los discos duros del mundo son fabricados por un conjunto de
grandes empresas: Seagate (que ahora es propietaria de Maxtor),
Western Digital, Samsung e Hitachi (que es propietaria de la antigua
división de fabricación de discos de IBM). Fujitsu sigue haciendo
discos portátiles y discos de servidores, pero dejó de hacer discos para
ordenadores de escritorio en 2001, y el resto lo vendió a Western
Digital. Toshiba es uno de los principales fabricantes de discos duros Un Western Digital 3.5 pulgadas 250 GB SATA
HDD.
para portátiles de 2,5 pulgadas y 1,8 pulgadas. ExcelStor es un
pequeño fabricante de discos duros.

Decenas de ex-fabricantes de discos duros han terminado con sus


empresas fusionadas o han cerrado sus divisiones de discos duros, a
medida que la capacidad de los dispositivos y la demanda de los
productos aumentó, los beneficios eran menores y el mercado sufrió un
significativa consolidación a finales de los 80 y finales de los 90. La
primera víctima en el mercado de los PC fue Computer Memories Inc.;
después de un incidente con 20 MB defectuosos en discos en 1985, la
reputación de CMI nunca se recuperó, y salieron del mercado de los
discos duros en 1987. Otro notable fracaso fue el de MiniScribe, quien
quebró en 1990: después se descubrió que tenía en marcha un fraude e
inflaba el número de ventas durante varios años. Otras muchas
pequeñas compañías (como Kalok, Microscience, LaPine, Areal, Priam
y PrairieTek) tampoco sobrevivieron a la expulsión, y habían
desaparecido para 1993; Micropolis fue capaz de aguantar hasta 1997,
y JTS, un recién llegado a escena, duró sólo unos años y desapareció
hacia 1999, aunque después intentó fabricar discos duros en India. Su
vuelta a la fama se debió a la creación de un nuevo formato de tamaño Un Seagate 3.5 pulgadas 1 TB SATA HDD.
de 3” para portátiles. Quantum e Integral también investigaron el
formato de 3”, pero finalmente se dieron por vencidos. Rodime fue también un importante fabricante durante la
década de los 80, pero dejó de hacer discos en la década de los 90 en medio de la reestructuración y ahora se
concentra en la tecnología de la concesión de licencias; tienen varias patentes relacionadas con el formato de 3,5“.

• 1988: Tandon vendió su división de fabricación de discos duros a Western Digital, que era un renombrado
diseñador de controladores.
• 1989: Seagate compró el negocio de discos de alta calidad de Control Data, como parte del abandono de Control
Data en la creación de hardware.
• 1990: Maxtor compró MiniScribe que estaba en bancarrota, haciéndolo el núcleo de su división de discos de gama
baja.
• 1994: Quantum compró la división de almacenamiento de Digital Equipment otorgando al usuario una gama de
discos de alta calidad llamada ProDrive, igual que la gama tape drive de Digital Linear Tape
• 1995: Conner Peripherals, que fue fundada por uno de los cofundadores de Seagate junto con personal de
MiniScribe, anunciaron un fusión con Seagate, la cual se completó a principios de 1996.
• 1996: JTS se fusionó con Atari, permitiendo a JTS llevar a producción su gama de discos. Atari fue vendida a
Hasbro en 1998, mientras que JTS sufrió una bancarrota en 1999.
Disco duro 186

• 2000: Quantum vendió su división de discos a Maxtor para concentrarse en las unidades de cintas y los equipos
de respaldo.
• 2003: Siguiendo la controversia en los fallos masivos en su modelo Deskstar 75GXP , pioneer IBM vendió la
mayor parte de su división de discos a Hitachi, renombrándose como Hitachi Global Storage Technologies,
Hitachi GST.
• 2003: Western Digital compró Read-Rite Corp., quien producía los cabezales utilizados en los discos duros, por
95,4 millones de dólares en metálico.
• 2005: Seagate y Maxtor anuncian un acuerdo bajo el que Seagate adquiriría todo el stock de Maxtor. Esta
adquisición fue aprobada por los cuerpos regulatorios, y cerrada el 19 de mayo de 2006.
• 2007: Western Digital adquiere Komag U.S.A., un fabricante del material que recubre los platos de los discos
duros.

Véase también
• Jumper (informática)
• Partición de disco
• Periférico
• Disco dinámico

Principales fabricantes de discos duros


• Western Digital
• Seagate
• Maxtor que pasa a ser de Seagate.
• Samsung
• Hitachi
• Fujitsu
• Quantum Corp.
• Toshiba

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Disco duro. Commons
• http://www.youtube.com/watch?v=9eMWG3fwiEU Video de un disco duro destapado y funcionando.
• El disco duro en el futuro será SSD, sin partes mecánicas [3]
• Consejos básicos antes de instalar un disco duro [4] (en español)
• El disco duro por dentro [5] (en inglés)
• Video de su funcionamiento [6] (en inglés)
• Estructura en sectores del disco duro [7] (en inglés)
• Todo sobre el disco duro [8] (en español)
• Primer disco duro de la historia [9] (en español)
• Disco duro y particiones [10] (en español)
• Historia del disco duro [25] (en español)
• Sonidos de discos duros defectuosos [11] (en inglés)
Disco duro 187

Referencias
[1] Toshiba America Electronic Components, Inc. « Solid State Drives Memory Products (http:/ / www. toshiba. com/ taec/ Catalog/ Family.
do?familyid=7& subfamilyid=900314)». Consultado el 17-07-2009.
[2] http:/ / www3. toshiba. co. jp/ storage/ english/ spec/ hdd/ mk4001. htm
[3] http:/ / www. tecnologiaslibres. net/ 2007/ 12/ 06/ ssd-los-discos-duros-del-futuro/
[4] http:/ / www. hard-h2o. com/ vertema/ 57173/ l-antes-de-instalar-un-disco-duro-leer-esto. html
[5] http:/ / www. pcdoctor-guide. com/ wordpress/ ?p=595
[6] http:/ / video. google. com/ videoplay?docid=-744683267829297106& q=hard+ drive+ in+ action& pl=true
[7] http:/ / www. dewassoc. com/ kbase/ hard_drives/ hard_disk_sector_structures. htm
[8] http:/ / www. monografias. com/ trabajos14/ discosduros/ discosduros. shtml
[9] http:/ / www. abadiadigital. com/ articulo/ el-primer-disco-duro-de-la-historia/
[10] http:/ / www. saulo. net/ pub/ ddypart
[11] http:/ / datacent. com/ hard_drive_sounds. php

CD-ROM
Esta página contiene información no técnica sobre los discos
compactos; para esta información, véase Disco compacto.
Un CD-ROM (siglas del inglés Compact Disc - Read Only Memory,
"Disco Compacto - Memoria de Sólo Lectura"), es un disco compacto
utilizado para almacenar información no volátil, el mismo medio
utilizado por los CD de audio, puede ser leído por un computador con
lectora de CD. Un CD-ROM es un disco de plástico plano con
información digital codificada en una espiral desde el centro hasta el
borde exterior.
CD virgen con su caja.
El denominado Yellow Book (o Libro Amarillo) que define el
CD-ROM estándar fue establecido en 1985 por Sony y Philips. Pertenece a un conjunto de libros de colores
conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos de discos
compactos.
Microsoft y Apple Computer fueron entusiastas promotores del CD-ROM. John Sculley, que era CEO de Apple, dijo
en 1987 que el CD-ROM revolucionaría el uso de computadoras personales.
La Unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se ensamble o se construya
actualmente, porque la mayoría del software se distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y
graban sobre los discos compactos de una sola grabada(CD-RW). Estas unidades se llaman quemadores, ya que
funcionan con un láser que "quema" la superficie del disco para grabar la información.
Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos por
unidades de DVD. Esto se debe principalmente a las mayores posibilidades de información, ya que un DVD-ROM
supera en capacidad a un CD-ROM.

Historia
El disco compacto fue creado por el holandés Kees Immink, de Philips, y el japonés Toshitada Doi, de Sony, en
1979. Al año siguiente, Sony y Philips, que habían desarrollado el sistema de audio digital Compact Disc,
comenzaron a distribuir discos compactos, pero las ventas no tuvieron éxito por la depresión económica de aquella
época. Entonces decidieron abarcar el mercado de la música clásica, de mayor calidad. Comenzaba el lanzamiento
del nuevo y revolucionario formato de grabación audio que posteriormente se extendería a otros sectores de la
grabación de datos.
CD-ROM 188

El sistema óptico fue desarrollado por Philips mientras que la Lectura y Codificación Digital corrió a cargo de Sony,
fue presentado en junio de 1980 a la industria y se adhirieron al nuevo producto 40 compañías de todo el mundo
mediante la obtención de las licencias correspondientes para la producción de reproductores y discos.
En 1981, el director de orquesta Herbert von Karajan convencido del valor de los discos compactos, los promovió
durante el festival de Salzburgo y desde ese momento empezó su éxito. Los primeros títulos grabados en discos
compactos en Europa fueron la Sinfonía alpina de Richard Strauss, los valses de Frédéric Chopin interpretados por el
pianista chileno Claudio Arrau y el álbum The Visitors de ABBA, en 1983 se produciría el primer disco compacto en
los Estados Unidos por CBS (Hoy Sony Music) siendo el primer título en el mercado un álbum de Billy Joel. La
producción de discos compactos se centralizo por varios años en los Estados Unidos y Alemania de donde eran
distribuidos a todo el Mundo, ya entrada la década de los noventas se instalaron fabricas en diversos países. Por
ejemplo, en 1992 Sonopress produjo en México el primer CD de Título "De Mil Colores" de Daniela Romo.
En el año 1984, los CDs salieron al mundo de la informática, permitiendo almacenar hasta 700 MB. El diámetro de
la perforación central de los discos compactos fue determinado en 15 mm, cuando entre comidas, los creadores se
inspiraron en el diámetro de la moneda de 10 centavos de florín de Holanda. En cambio, el diámetro de los discos
compactos es de 12 cm, lo que corresponde a la anchura de los bolsillos superiores de las camisas para hombres,
porque según la filosofía de Sony, todo debía caber allí.

Capacidad
Un CD-ROM estándar puede albergar 650 o 700 (a veces 800) MB de datos. El CD-ROM es popular para la
distribución de software, especialmente aplicaciones multimedia, y grandes bases de datos. Un CD pesa menos de 30
gramos.
Para poner la memoria del CD-ROM en contexto, una novela promedio contiene 60,000 palabras. Si se asume que
una palabra promedio tiene 10 letras (de hecho es considerablemente menos de 10 de letras) y cada letra ocupa un
byte, una novela por lo tanto ocuparía 600,000 bytes (600 kb). Un CD puede por lo tanto contener más de 1000
novelas. Si cada novela ocupa por lo menos un centímetro en un estante, entonces un CD puede contener el
equivalente de más de 10 metros en el estante. Sin embargo, los datos textuales pueden ser comprimidos diez veces
más, usando algoritmos compresores, por lo tanto un CD-ROM puede almacenar el equivalente a más de 100 metros
de estante

Capacidades de los discos compactos

Tipo Sectores Capacidad máxima de Capacidad máxima de audio Tiempo


datos

(MB) (MiB) (MB) (MiB) (min)

8 cm 94,500 193.536 ˜ 184.6 222.264 ˜ 212.0 21

8 cm DL 283,500 580.608 ˜ 553.7 666.792 ˜ 635.9 63

650 MB 333,000 681.984 ˜ 650.3 783.216 ˜ 746.9 74

700 MB 360,000 737.280 ˜ 703.1 846.720 ˜ 807.4 80

800 MB 405,000 829.440 ˜ 791.0 952.560 ˜ 908.4 90

900 MB 445,500 912.384 ˜ 870.1 1,047.816 ˜ 999.3 99

Nota: Estos valores no son exactos.


CD-ROM 189

Lectora de CD
Una lectora de CD es un dispositivo electrónico que permite la lectura
de estos mediante el empleo de un haz de un rayo láser y la posterior
transformación de estos en impulsos eléctricos que la computadora
interpreta, escritos por grabadoras de CD (a menudo llamadas
"quemadoras") -dispositivo similar a la lectora de CD, con la diferencia
que hace lo contrario a la lectora, es decir, transformar impulsos
eléctricos en un haz de luz láser que almacenan en el CD datos binarios
en forma de pozos y llanos-.

Los pozos tienen una anchura de 0,6 micras, mientras que su Unidad Lectora de CD para computadora
personal.
profundidad (respecto a los llanos) se reduce a 0,12 micras. La longitud
de pozos y llanos está entre las 0,9 y las 3,3 micras. Entre una
revolución de la espiral y las adyacentes hay una distancia aproximada de 1,6 micras (lo que hace cerca de 20 marcas
por centímetro).
Es creencia muy común el pensar que un pozo corresponde a un valor binario y un llano al otro valor. Sin embargo,
esto no es así, sino que los valores binarios son detectados por las transiciones de pozo a llano, y viceversa: una
transición determina un 1 binario, mientras que la longitud de un pozo o un llano indica el número consecutivo de 0
binarios.

Almacenamiento y Limpieza
Para que el disco almacene todos los datos en forma íntegra y por muy largo tiempo, es necesario conservar el disco
en los empaques o lugares correctos. La parte (o las partes) reflectivas del disco deben estar limpias y libres de
rayaduras, para evitar la pérdida de datos. Es recomendable transferir los datos de un disco antiguo o erosionado, a
otro disco limpio o nuevo, antes de que se pierdan todos los datos con el tiempo.
Sólo se recomienda limpiar el disco si está muy sucio y aparecen saltos de imagen y/o sonido, o errores de lectura.
Ya que los sistemas de corrección de errores pueden leer los datos a través de una cantidad moderada de arañazos y/o
huellas.
Si el disco está solamente sucio, es recomendable limpiarlo con un paño suave (o de algodón) en movimientos de
una sola dirección, desde el centro del disco hacia afuera. Nunca debería limpiarse un disco con movimientos
circulares, para evitar que la suciedad o el polvo dañen los datos del disco. Si el disco está demasiado sucio, es
conveniente sumergirlo en agua y limpiarlo a continuación, tras lo cual se ha de dejar secar muy bien antes de leer o
grabar en él (es desaconsejable usar un secador de cabello para esto, ya que el aire caliente produce vapor que podría
deformar el disco). Si el disco está rayado y sucio, es recomendable limpiarlo de la manera que aplique la condición,
e intentar la lectura del disco. Si no ocurren errores de datos, o la mayoría de los datos están íntegros, es muy
recomendable copiar los mismos en otro disco nuevo o en otro medio, como un disco duro o pendrive.
El mejor empaque para el disco es en el que viene el disco al ser adquirido. También pueden utilizarse portadiscos o
álbumes de discos (siempre cuando sean de buena calidad).
Nunca ha de escribirse o pintarse el disco por su cara de lectura (la no serigrafiada), para evitar errores de lectura o
escritura. Pueden identificarse los discos en la parte especializada (en las instrucciones o en el disco) con un
marcador especial y nunca con con lápiz o bolígrafo, para evitar la provocación de grietas en el disco.
No deberían pegarse papeles o adhesivos en el disco, salvo que se trate de sistemas de etiquetado específicamente
diseñados para este soporte. Un adhesivo no simétrico respecto al centro del disco podría desplazar su centro de
masas y producir vibraciones no deseadas durante su lectura.
CD-ROM 190

En algunos casos es probable que un disco muy dañado o agrietado se rompa dentro de la unidad de lectura o
escritura del disco. En ese caso, conviene apagar el dispositivo o el equipo y contactar con alguna persona
especializada, para así evitar más daños. Si no hay disponible ninguna persona especializada puede retirarse la
unidad de lectura o escritura del equipo, hasta tener otra disponible.

Multisesión
Desde hace tiempo han surgido programas computacionales para grabar CD que nos permiten utilizar un disco CD-R
como si de un disco regrabable se tratase. Esto no quiere decir que el CD se pueda grabar y posteriormente borrar,
sino que se puede grabar en distintas sesiones, hasta ocupar todo el espacio disponible del CD.
Los discos multisesión no son más que un disco normal grabable, ni en sus cajas, ni en la información sobre sus
detalles técnicos se resalta que funcione como disco Multisesión, ya que esta función no depende del disco, sino
como está grabado.
Si se graba un CD y este no es finalizado, podemos añadirle una nueva sesión, desperdiciando una parte para separar
las sesiones (unos 20 MB aproximadamente).
Haremos que un CD sea multisesión en el momento que realizamos la segunda grabación sobre él, este o no
finalizado, sin embargo, al grabar un CD de música automáticamente el CD-R queda finalizado y no puede ser
utilizado como disco Multisesión.
No todos los dispositivos ni los sistemas operativos, son capaces de reconocer un disco con multisesión, o que no
esté finalizado.

Diferencias entre CD-R multisesión y CD-RW


Puede haber confusión entre un CD-R con grabado multisesión y un CD-RW. En el momento en que un disco CD-R
se hace multisesión, el software le dará la característica de que pueda ser utilizado en múltiples sesiones, es decir, en
cada grabación se crearán «sesiones», que sólo serán modificadas por lo que el usuario crea conveniente. Por
ejemplo, si se ha grabado en un CD-R los archivos prueba1.txt, prueba2.txt y prueba 3.txt, se habrá creado una
sesión en el disco que será leída por todos los reproductores y que contendrá los archivos mencionados. Si en algún
momento no se necesita alguno de los ficheros o se modifica el contenido de la grabación, el programa software
creará una nueva sesión, a continuación de la anterior, donde no aparecerán los archivos que no se desee consultar, o
se verán las modificaciones realizadas, es decir, es posible añadir más archivos, o incluso quitar algunos que estaban
incluidos. Al realizar una modificación la sesión anterior no se borrará, sino que quedará oculta por la nueva sesión
dando una sensación de que los archivos han sido borrados o modificados, pero en realidad permanecen en el disco.
Obviamente las sesiones anteriores, aunque aparentemente no aparecen permanecen en el disco y están ocupando
espacio en el mismo, esto quiere decir que algún día ya no será posible «regrabarlo», modificar los archivos que
contiene, porque se habrá utilizado toda la capacidad del disco.
A diferencia de los CD-R, los discos CD-RW sí pueden ser borrados, o incluso formateados (permite usar el disco,
perdiendo una parte de su capacidad, pero permitiendo grabar en el ficheros nuevos). En el caso de utilizar un
CD-RW cuando borramos, lo borramos completamente, se pueden hacer también borrados parciales, que necesitan
una mayor potencia del láser para volver a grabarse. Un disco CD-RW se puede utilizar como un disquete, con
software adecuado, siempre que la unidad soporte esta característica, se pueden manipular ficheros como en un
disquete, con la salvedad de que no se borra, sino que al borrar un fichero este sigue ocupando un espacio en el
disco, aunque al examinarlo no aparezca dicho archivo. Los discos CD-RW necesitan más potencia del láser para
poder grabarse, por esta razón los discos regrabables tienen una velocidad de grabación menor que los discos
grabables (tardan más en terminar de grabarse).
Los DVD-RW, DVD+RW funcionan de manera análoga, los DVD-RAM también, pero están diseñados para
escritura como con los disquetes.
CD-ROM 191

Precio
Actualmente, los precios de los CD vírgenes varía, dependiendo de si se compra por tarrinas o con sus cajas entre los
0,2€ y los 0,9€ por unidad.
En España, la SGAE aplica un canon digital que es una remuneración compensatoria por copia privada (una tasa fija)
aplicada a diversos medios de grabación y cuya recaudación reciben los autores, editores, productores y artistas,
asociados a alguna entidad privada de gestión de derechos de autor, en compensación por las copias que se hacen de
sus trabajos en el ámbito privado.

Etiquetado
Actualmente se están investigando una serie de tecnologías láser para grabar motivos e imágenes personalizadas en
el anverso de un CD (cara opuesta a la de datos).
El sistema de etiquetado láser fue impuesto por Yamaha con DiscT@2, pero dicho sistema no tuvo éxito. Están
apareciendo distintas tecnologías para etiquetar los CD, como LightScribe y Labelflash por ejemplo.
También existen impresoras de tinta especializadas para hacer una impresión de etiquetas, en discos preparados.

Véase también
• Disco compacto
• CD audio
• CD-RW
• CD-R

DVD
El DVD (pronunciado dividí en inglés e Hispanoamérica ,dividi en
Peru y devedé en Chile, o deuvedé en España. Según la Real
Academia Española[1] ), cuyas siglas corresponden a Digital
Versatile Disc (‘disco versátil digital’) o también Digital Video
Disc (‘disco de video digital’), es un dispositivo de
almacenamiento óptico cuyo estándar surgió en 1995.
Logo de DVD.
Unidad de DVD: el nombre de este dispositivo hace referencia a la
multitud de maneras en las que se almacenan los datos:
DVD-ROM (dispositivo de lectura únicamente), DVD-R y DVD+R (solo pueden escribirse una vez), DVD-RW y
DVD+RW (permiten grabar y borrar las veces que se quiera). También difieren en la capacidad de almacenamiento
de cada uno de los tipos.
DVD 192

Historia
A comienzo de los años 90, dos estándares de almacenamiento
óptico de alta densidad estaban desarrollándose: uno era el
multimedia compact disc (MMCD), apoyado por Philips y Sony;
el otro era el super density disc (SD), apoyado por Toshiba,
Time-Warner, Matsushita Electric, Hitachi, Mitsubishi Electric,
Pioneer, Thomson y JVC.

Philips y Sony abandonaron su formato MMCD y acordaron con


Toshiba adoptar el SD, pero con una modificación: la adopción del
EFM Plus de Philips, creado por Kees Immink, que a pesar de ser
un 6% menos eficiente que el sistema de codificación de Toshiba
(de ahí que la capacidad sea de 4,7 GB en lugar del los 5 GB del
SD original), cuenta con la gran ventaja de que EFM Plus posee Un Disco DVD mostrando su lado de lectura.
gran resistencia a los daños físicos en el disco, como arañazos o
huellas.

El resultado fue la creación del Consorcio del DVD, fundada por las compañías anteriores, y la especificación de la
versión 1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el consorcio DVD
(DVD Consortium) fue reemplazado por el foro DVD (DVD Forum) con los siguientes miembros:
• Hitachi, Ltd.
• Matsushita Electric Industrial Co. Ltd.
• Mitsubishi Electric Corporation
• Pioneer Electronic Corporation
• Royal Philips Electronics N.V.
• Sony Corporation
• Thomson
• Time Warner Inc.
• Toshiba Corporation
• Victor Company of Japan, Ltd. (JVC)

Información técnica
Un DVD tiene 24 bits, una velocidad de muestreo de 48000 Hz y un rango dinámico de 144 dB. Se dividen en dos
categorías: los de capa simple y los de doble capa.
Los DVD de capa simple puede guardar hasta 4,7 gigabytes según los fabricantes en base decimal, y
aproximadamente 4,38 gigabytes reales en base binaria o gibibytes (se lo conoce como DVD-5), alrededor de doce
veces más que un CD estándar. Emplea un láser de lectura con una longitud de onda de 650 nm (en el caso de los
CD, es de 780 nm) y una apertura numérica de 0,6 (frente a los 0,45 del CD), la resolución de lectura se incrementa
en un factor de 1,65. Esto es aplicable en dos dimensiones, así que la densidad de datos física real se incrementa en
un factor de 3,3.
El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de
errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed Solomon -
Product Code, (RS-PC), así como la codificación de línea Eight-to-Fourteen Modulation, la cual fue reemplazada por
una versión más eficiente, EFM Plus, con las mismas características que el EFM clásico. El subcódigo de CD fue
eliminado. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que usa una tercera capa de
corrección de errores.
DVD 193

A diferencia de los discos compactos, donde el sonido (CDDA) se guarda de manera fundamentalmente distinta que
los datos, un DVD correctamente creado siempre contendrá datos siguiendo los sistemas de archivos UDF e ISO
9660.
El disco puede tener una o dos caras, y una o dos capas de datos por cada cara; el número de caras y capas determina
la capacidad del disco. Los formatos de dos caras apenas se utilizan.

Tipos de DVD
Los DVD se pueden clasificar:
• Según su contenido:
• DVD-Video: Películas (vídeo y audio).
• DVD-Audio: Audio de alta fidelidad .
• DVD-Data: Todo tipo de datos.
• Según su capacidad de regrabado:
• DVD-ROM: Sólo lectura, manufacturado con prensa.
• DVD-R y DVD+R: Grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de
grabación y de codificación de la información. En los +R los agujeros son 1 lógicos mientras que en los –R los
agujeros son 0 lógicos.
• DVD-RW y DVD+RW: Regrabable.
• DVD-RAM: Regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los datos
siempre activa tras completar la escritura.
• DVD+R DL: Grabable una sola vez de doble capa
• El DVD-ROM almacena desde 4,7 GB hasta 17 GB.
• Según su número de capas o caras:
• DVD-5: una cara, capa simple; 4,7 GB o 4,38 GiB - Discos DVD±R/RW.
• DVD-9: una cara, capa doble; 8,5 GB o 7,92 GiB - Discos DVD+R DL. La grabación de doble capa permite a
los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8,5 GB por disco,
comparado con los 4,7 GB que permiten los discos de una capa. Los DVD-R DL (dual layer) fueron
desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para el DVD+R
Alliance por Philips y Mitsubishi Kagaku Media. Un disco de doble capa difiere de un DVD convencional en
que emplea una segunda capa física ubicada en el interior del disco. Una unidad lectora con capacidad de doble
capa accede a la segunda capa proyectando el láser a través de la primera capa semitransparente. El mecanismo
de cambio de capa en algunos DVD puede conllevar una pausa de hasta un par de segundos. Los discos
grabables soportan esta tecnología manteniendo compatibilidad con algunos reproductores de DVD y unidades
DVD-ROM. Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es comparable con
las unidades de una capa, aunque el medio continúa siendo considerablemente más caro.
• DVD-10: dos caras, capa simple en ambas; 9,4 GB o 8,75 GiB - Discos DVD±R/RW.
• DVD-14: dos caras, capa doble en una, capa simple en la otra; 13,3 GB o 12,3 GiB - Raramente utilizado.
• DVD-18: dos caras, capa doble en ambas; 17,1 GB o 15,9 GiB - Discos DVD+R.
También existen DVD de 8 cm (no confundir con miniDVD, que son CD que contienen información de tipo DVD
video) que tienen una capacidad de 1,5 GB.
El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM, y Alliance creó los estándares DVD+R/RW
para evitar pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares
oficiales, no muestran el logotipo «DVD». En lugar de ello, llevan el logotipo «RW» incluso aunque sean discos que
solo puedan grabarse una vez, lo que ha suscitado cierta polémica en algunos sectores que lo consideran publicidad
engañosa, además de confundir a los usuarios.
DVD 194

La mayoría de grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos «+RW» y
«DVD-R/RW».

Velocidad
La velocidad de transferencia de datos de una unidad DVD está
dada en múltiplos de 1350 KB/s.
Las primeras unidades lectoras CD y DVD leían datos a velocidad
constante (velocidad lineal constante o CLV). Los datos en el
disco pasaban bajo el láser de lectura a velocidad constante. Como
la velocidad lineal (metros/segundo) de la pista es tanto mayor
cuanto más alejados esté del centro del disco (de manera
Evolución del precio del DVD.
proporcional al radio), la velocidad rotacional del disco se ajustaba
de acuerdo a qué porción del disco se estaba leyendo.
Actualmente, la mayor parte de unidades de CD y DVD tienen una
velocidad de rotación constante (velocidad angular constante o
CAV). La máxima velocidad de transferencia de datos
especificada para una cierta unidad y disco se alcanza solamente
en los extremos del disco. Por tanto, la velocidad media de la
unidad lectora equivale al 50-70% de la velocidad máxima para la
unidad y el disco. Aunque esto puede parecer una desventaja, tales
unidades tienen un menor tiempo de búsqueda, pues nunca deben
cambiar la velocidad de rotación del disco. Coste por MB en DVD.

Coste de los dispositivos de lectura y escritura en


DVD.

Velocidad Mbit/s MB/s MiB/s

1x 10,80 1,35 1,29

2x 21,60 2,70 2,57

2,4x 25,92 3,24 3,09

2,6x 28,08 3,51 3,35

4x 43'20 5,40 5,15

6x 64,80 8,10 7,72

8x 86,40 10,80 10,30

10x 108,00 13,50 12,87

12x 129'60 16'20 15,45


DVD 195

16x 172'80 21'60 20,60

18x 194,40 24,30 23,17

20x 216,00 27,00 25,75

22x 237,60 29,70 28,32

24x 259,20 32,40 30,90

Canon y copyrights en España


El canon digital que aplica la SGAE a los DVD actualmente es:

Canon de los grabadores de DVD.

Canon de los DVD-R.

Canon de los DVD-RW.


DVD 196

Categoría Valor(euros)

Grabador de DVD 3,40

DVD+R y DVD-R 0,44

DVD+RW y DVD-RW 0,60

En el caso de los grabadores (cuyo precio es más o menos 19 €) supone el 20% del precio del grabador.
Considerando que el precio medio de un DVD puede rondar los 0,80 € el canon supone entorno al 55 y al 75% del
precio del DVD.
Las empresas Philips, Sony, Matsushita y Toshiba decidieron juntar todas las licencias que poseían individualmente
en una única entidad. Philips es la encargada del papel administrativo, mientras que Matsushita se encarga del
desarrollo del DVD tal y como lo conocemos.[2]

Sistema de archivos
Los DVD siguen el sistema de archivos UDF (universal disk format o formato de disco universal) y Joliet. Se adoptó
este sistema de archivos para reemplazar al estándar ISO 9660, y su principal uso es la grabación o regrabación de
discos. Fue desarrollado por OSTA (Optical Storage Technology Association, ‘Asociación de la Tecnología de
Almacenamiento Óptico’).

Antecesores del DVD


• CD-Rom
• VHS
• Beta

Sucesores del DVD


• HD DVD, que fue abandonado en 2008
• Blu-Ray

Véase también
• CED
• Disco óptico
• CD-ROM
• Historia de los medios de almacenamiento óptico
• Blu-ray
• Códigos regionales DVD
DVD 197

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre DVD.Commons
• Noticias, crítica y recursos sobre DVD [3] en DVD Answers
• Educación sobre DVD [4] en DVD Digital Media Centre
• How DVD works [5] (en inglés)

Referencias
[1] DVD en el Diccionario panhispánico de dudas de la RAE (http:/ / buscon. rae. es/ dpdI/ SrvltConsulta?lema=dvd). Consultado el 26-04-2010
[2] « Desarrollo del DVD (http:/ / wiki. answers. com/ Q/ Who_was_the_inventor_of_the_DVD)».
[3] http:/ / www. dvdanswers. com
[4] http:/ / www. tele-print. com
[5] http:/ / www. howstuffworks. com/ dvd. htm
Disquete 198

Disquete
Unidad de discos flexibles

Unidades de 8", 5¼" , y 3½".


Fecha de invención: 1969 (8"),
1976 (5¼"),
1983 (3½")

Inventado por: Equipo de IBM liderado por David Noble

Conectado a:
• Controlador mediante cables

Un disquete o disco flexible (en inglés floppy disk o diskette) es un medio o soporte de almacenamiento de datos
formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una
cubierta de plástico cuadrada o rectangular.
Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk
Drive). En algunos casos es un disco menor que el CD. La disquetera es el dispositivo o unidad lectora/grabadora de
disquetes, y ayuda a introducirlo para guardar la información.
Este tipo de dispositivo de almacenamiento es vulnerable a la suciedad y los campos magnéticos externos, por lo
que, en muchos casos, deja de funcionar con el tiempo.
Disquete 199

Historia

Orígenes, el disco de 8 pulgadas


En 1967, IBM encomendó a su centro de desarrollo de
almacenamiento de San José (California) una nueva tarea:
desarrollar un sistema sencillo y barato para cargar microcódigo en
los System/370 de sus ordenadores centrales.

Formatos
Refiriéndonos exclusivamente al ámbito del PC, las unidades de
disquete sólo han existido en dos formatos físicos considerados
estándar, el de 5¼" y el de 3½". En formato de 5¼", el IBM PC
original sólo contaba con unidades de 160 KB, esto era debido a
que dichas unidades sólo aprovechaban una cara de los disquetes.
Luego, con la incorporación del PC XT vinieron las unidades de
doble cara con una capacidad de 360 KB (DD o doble densidad), y
más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 MB.
El formato de 3½" IBM lo impuso en sus modelos PS/2. Para la
gama 8086 las de 720 KB (DD o doble densidad) y en las
Un lector de disquetes de 8 pulgadas con un disquete
posteriores las de 1,44 MB. (HD o alta densidad) que son las que parcialmente insertado.
perduran. En este mismo formato, también surgió un nuevo
modelo de 2,88 MB. (EHD o extra alta densidad), pero no consiguió popularizarse.

Uso en la actualidad
Esta unidad está quedando obsoleta y son muchos los computadores
que no la incorporan, por la aparición de nuevos dispositivos de
almacenamiento más manejables, que además disponen de mucha más
memoria física, como por ejemplo las memorias USB. Una memoria
USB de 1 GB (Gigabyte) de memoria equivale a 900 disquetes
aproximadamente. De hecho, ya en algunos países este tipo de unidad
no se utiliza debido a su obsolescencia.
icono del disquete en ubuntu 9.04.
Sin embargo, siguen siendo de una gran utilidad como discos de
arranque en caso de averías o emergencias en el sistema operativo principal o el disco duro, dado su carácter de
estándar universal que en los IBM PC compatibles no necesita ningún tipo de controladora adicional para ser
detectados en el proceso de carga por la BIOS y dado que, a diferencia del CD-ROM, es fácilmente escribible. Lo
que, en situaciones de emergencia, los convierte en un sistema altamente fiable, básico y difícilmente sustituible.
Disquete 200

Impacto en la sociedad
Los disquetes (cuyo nombre fue escogido para ser similar a la palabra
"casete"), gozaron de una gran popularidad en las décadas de los
ochenta y los noventa, usándose en ordenadores domésticos y
personales tales como Apple II, Macintosh, MSX 2/2+/Turbo R,
Amstrad PCW, Amstrad CPC 664 y Amstrad CPC 6128 (y
opcionalmente Amstrad CPC 464), ZX Spectrum +3, Commodore 64,
Amiga e IBM PC para distribuir software, almacenar información de
forma rápida y eficaz, transferir datos entre ordenadores y crear
pequeñas copias de seguridad, entre otros usos. Muchos almacenaban
de forma permanente el núcleo de sus sistemas operativos en memorias
ROM, pero guardaban sus sistemas operativos en un disquete, como
ocurría con CP/M o, posteriormente, con DOS.
Un disquete de 3,5".

También fue usado en la industria de los videojuegos, cuando Nintendo


hizo un formato propio de disquete, parecido al actual de 3 1/2, para
usar con un periférico diseñado para la consola Famicom llamado
Famicom Disk Drive. No obstante, sólo se lanzo en Japón. También se
vendían disquetes en blanco, para grabar juegos en la calle, mediante
máquinas automáticas instaladas en algunos lugares de Japón.

Con la llegada de la década de los noventa, el aumento del tamaño del


software hizo que muchos programas se distribuyeran en conjuntos de
disquetes. Hacia mediados de los noventa, la distribución del software
fue migrando gradualmente hacia el CD-ROM, y se introdujeron
formatos de copias de seguridad de mayor densidad, como los discos
Zip de Iomega. Asimismo, en grandes, medianas e incluso pequeñas Un disquete de 5,25".
empresas, las copias de seguridad empezaron a efectuarse de manera
sistemática en cintas magnéticas de alta capacidad y muy bajo coste, como cintas de audio digitales (DAT) o
streamers. Con la llegada del acceso total a la Internet, de las redes Ethernet baratas y de las memorias flash ó USB
de bajo costo, los disquetes han dejado ser necesarios para la transferencia rápida de datos.

La aparición y comercialización en gran escala de unidades grabadoras de discos ópticos y compactos, y de unidades
de CD grabable y regrabable (CD-R/CD-RW), el abaratamiento exponencial y progresivo de sus costes de
producción y precios de venta al consumidor, y su introducción paulatina y posterior generalización en la mayoría de
ordenadores personales y de hogares, así como la innovación de nuevos formatos y estándares (CD de 80 minutos,
de alta densidad, DVD, DVD de doble cara o doble capa, HD DVD, Blu-Ray, etc.) que poco a poco van
multiplicando la capacidad y velocidad de almacenamiento, han permitido la sustitución paulatina de los engorrosos
sistemas de cinta magnética por accesibles y rápidos sistemas de disco óptico como soporte principal y generalizado
de copias de seguridad. Un intento a finales de los noventa (sin éxito en el mercado), de continuar con los disquetes
fue el SuperDisk (LS-120), con una capacidad de 120 MB (en realidad 120.375 MiB[1] ), siendo el lector compatible
con los disquetes estándar de 3½ pulgadas.
Disquete 201

La clave de este desplazamiento progresivo está en el mayor coste por


bit de la superficie magnética frente a la superficie de un medio óptico,
su mayor fragilidad (necesitan ser protegidos del contacto con el
exterior, del polvo, la luz, cambios de humedad y temperatura,
electricidad estática, mediante sobres protectores o cierres herméticos
al vacío), así como a la mayor complejidad y coste de producción del
mecanismo lector/grabador de una unidad de disco magnético, tanto si
es fijo como flexible, frente a la simplicidad y rudimentariedad del
sistema lineal y de una sola cabeza, por láser y revolución constante,
de la unidad lectora y grabadora de un medio óptico.
Sin embargo, muchos fabricantes se niegan a suprimir la disquetera de
sus equipos personales por razones de compatibilidad y porque los
departamentos de la tecnología de la información de muchas empresas
aprecian un mecanismo de transferencia de archivos integrado que
siempre funcionará correctamente sin requerir de ningún tipo de Un disquete de 3", usado ampliamente en equipos
Amstrad CPC.
controlador ó driver (más allá del de la propia BIOS). Apple Computer
fue el primer fabricante que eliminó la disquetera en uno de sus
ordenadores con el modelo iMac en 1998, y Dell hizo que la disquetera fuera opcional en algunos de sus modelos en
2003. Asimismo, muchos equipos, en la actualidad, tienden a proveerse, por omisión, sin una unidad de disco
flexible instalada, aunque esta puede incluirse como opcional en todo momento, al seguir habiendo soporte en las
actuales placas base ATX y en su correspondiente BIOS. Sin embargo, hasta la fecha, estos movimientos todavía no
han marcado el fin de los disquetes como medio popular de almacenamiento e intercambio de datos.

Tamaños
Los tamaños de los disquetes suelen denominarse empleando el Sistema Anglosajón de Unidades, incluso en los
países en los que el Sistema Internacional de Unidades es el estándar, sin tener en cuenta que, en algunos casos, éstos
están definidos en el sistema métrico (por ejemplo, el disquete de 3½ pulgadas mide en realidad 9 cm). De forma
general, las capacidades de los discos formateados se establecen en términos de kilobytes binarios (1 sector suele
tener 512 bytes). Sin embargo, los tamaños recientes de los discos se suelen denominar en extrañas unidades
híbridas; es decir, un disco de "1,44 megabytes" tiene en realidad 1.44×1000×1024 bytes, y no 1.44×1024×1024
bytes, ni 1.44×1000×1000.

Secuencia histórica de los formatos de disquetes, incluyendo el último formato popular


adoptado — el disquete HD de "1.44 MB" 3½-pulgadas, introducido en 1987.
Formato del disquete Año de introducción Capacidad de almacenamiento Capacidad
(en kilobytes si no está indicado) comercializada¹

8-pulgadas IBM 23FD (solo 1971 79,7 ?


lectura)

8-pulgadas Memorex 650 1972 183,1 150 kB

8-pulgadas IBM 33FD / Shugart 1973 256 256 kB


901

8-pulgadas IBM 43FD / Shugart 1976 500 0,5 MB


850 DD

5¼-pulgadas (35 pistas) 1976 89,6 110 kB

8-pulgadas de dos caras 1977 1200 1,2 MB


Disquete 202

5¼-pulgadas DD 1978 360 360 kB

3½-pulgadas 1982 280 264 kB


HP de una cara

3-pulgadas 1982 360 ←

3½-pulgadas (puesta a la venta 1984 720 720 kB


DD)

5¼-pulgadas QD 1984 1200 1,2 MB

3-pulgadas DD 1984 720 ←

3-pulgadas 1985 128 a 256 ←


Mitsumi Quick Disk

2-pulgadas 1985 720 ←

5¼-pulgadas Perpendicular 1986 100 MiB ←

3½-pulgadas HD 1987 1440 1,44 MB

3½-pulgadas ED 1990 2880 2,88 MB

3½-pulgadas LS-120 1996 120,375 MiB 120 MB

3½-pulgadas LS-240 1997 240,75 MiB 240 MB

3½-pulgadas HiFD 1998/99 150/200 MiB 150/200 MB

Acrónimos:  DD = Doble Densidad; QD = Cuadruple Densidad; HD = Alta densidad ED = Densidad Extendida; LS = Servo Laser; HiFD =
Disquete de alta capacidad

¹Las capacidades comercializadas de los disquetes correspondían frecuentemente solo vagamente a su verdadera capacidad de almacenamiento; el
valor 1.44 MB de los disquetes de 3½-pulgadas HD es muy conocido.

Fechas y capacidades marcadas con ? son de origen desconocido y necesitan fuentes; otras capacidades listadas referidas a:
• Para 8-pulgadas: Formato estandard de IBM usado en el ordenador central System/370 y sistemas más nuevos
• Para 5¼- y 3½-pulgadas: Formato estandard de PC, capacidades cuadriplicadas, son el tamaño total de todos los sectores del disquete e incluyen
espacio para el sector boot del sistema de archivos
Otros formatos podrían conseguir más o menos capacidad de los mismos lectores y discos.

Véase también
• Memoria USB

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Disquete.Commons
• Wikcionario tiene definiciones para disquetera.Wikcionario

Referencias
[1] 6848 cilindros x 36 bloques/cilindro x 512 bytes; véase http:/ / linuxcommand. org/ man_pages/ floppy8. html
203

Mantenimiento y Reparación de PC

Mantenimiento
La European Federation of National Maintenance Societies define mantenimiento como: todas las acciones que
tienen como objetivo mantener un artículo o restaurarlo a un estado en el cual pueda llevar a cabo alguna función
requerida.[1] Estas acciones incluyen la combinación de las acciones técnicas y administrativas correspondientes.

Ingeniería
En el mundo de las telecomunicaciones y la ingeniería el concepto de mantenimiento tiene los siguientes
significados:
1. Cualquier actividad – como comprobaciones, mediciones, reemplazos, ajustes y reparaciones— necesarios para
mantener o reparar una unidad funcional de forma que esta pueda cumplir sus funciones.
2. Para materiales:
• Todas aquellas acciones llevadas a cabo para mantener los materiales en una condición adecuada o los procesos
para lograr esta condición. Incluyen acciones de inspección, comprobaciones, clasificación, reparación, etc.
• Conjunto de acciones de provisión y reparación necesarias para que un elemento continúe cumpliendo su
cometido.
• Rutinas recurrentes necesarias para mantener unas instalaciones (planta, edificio, propiedades inmobiliarias, etc.)
en las condiciones adecuadas para permitir su uso de forma eficiente, tal como está designado.

Software de gestión de mantenimiento y reparación


Debido mantenimiento. Esto es especialmente relevante en industrias como la aeroespacial, instalaciones militares,
grandes complejos industriales o navieras.
El software de gestión de mantenimiento ayuda a los ingenieros y técnicos a reducir costes y tiempos de reparación
así como utilización del material a la vez que mejoran el servicio y la comunicación entre los implicados en los
procesos.
Un software de gestión de mantenimiento trabaja con información relativa a productos, recursos, proveedores y
clientes, por lo tanto este tipo de programas deben permitir la integración con diferentes tipos de software
empresarial (EAM, ERP, SCM, CRM).
Una de las funciones de este software es la configuración de un conjunto de materiales, haciendo listados de las
partes correspondiente a ingeniería y a manufactura y actualizándolas de “entregadas” a “mantenidas” y finalmente a
“utilizadas”.
Otra función es la planificación de proyectos logísticos, como por ejemplo la identificación de los elementos críticos
de una lista que deben ser llevados a cabo (inspección, diagnóstico, localización de piezas y servicio) y el cálculo de
tiempos de respuesta.
Otras tareas que este software puede gestionar son:
• Planificación de proyectos,
• Gestión de la ejecución de proyectos
• Gestión de activos (partes, herramientas e inventario de equipos)
• Gestión del conocimiento en temas como:
Mantenimiento 204

• Histórico de mantenimiento
• Número de serie de partes y material
• Datos sobre fiabilidad: tiempo medio entre fallos y tiempo medio entre cambios
• Documentación y Best Practices sobre mantenimiento
• Documentos sobre garantías
Muchas de estas tareas se encuentran ya gestionadas por la gestión de mantenimiento asistido por computadora.

Véase también
• Gestión de mantenimiento asistido por computadora
• Mantenimiento correctivo
• Mantenimiento preventivo
• Mantenimiento predictivo
• Mantenimiento productivo
• Mantenimiento productivo total
• Mantenimiento de software

Referencias
[1] What does EFNMS stand for? (http:/ / www. efnms. org/ What-EFNMS-stands-for/ m13l2/ What-EFNMS-stands-for. html), EFNMS (en
inglés)

Optimización (cómputo)
Se ha sugerido que este artículo o sección sea fusionado con Optimización de software (ver la discusión al
respecto).
Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales en WP:TAB/F.

En cómputo, la optimización es el proceso de modificar un sistema para mejorar su eficiencia o también el uso de
los recursos disponibles. El sistema puede ser un simple programa de cómputo, una colección de computadoras o
incluso una red como Internet.
Optimización de software 205

Optimización de software
Se ha sugerido que este artículo o sección sea fusionado con Optimización (cómputo) (ver la discusión al
respecto).
Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales en WP:TAB/F.

La optimización de software es una rama de la Ingeniería de Software que trata de convertir programas existentes
en otros programas que realicen las mismas tareas en menos tiempo, con menos requerimientos de memoria, o en
general empleando los recursos de forma óptima.
La optimización puede tener sentido a distintos niveles, desde los más bajos (desarrollo de circuitos, escritura de
código máquina diseñado especialmente para la arquitectura) hasta los niveles más altos de elaboración de
implementación, uso o diseño de algoritmos.
Es generalmente recomendado dejar la optimización hasta el final del proceso de desarrollo, ya que la optimización
prematura puede introducir nuevos errores (generalmente más difíciles de detectar por ser de naturaleza algorítmica).

Enlaces externos
• Java Optimization [1] - Sitio de la CMU relacionado con la optimización de código Java

Referencias
[1] http:/ / www. cs. cmu. edu/ ~jch/ java/ optimization. html

Instalación de software
La instalación de programas computacionales (software) es el proceso por el cual nuevos programas son transferidos
a un computador y, eventualmente, configurados, para ser usados con el fin para el cual fueron desarrollados. Un
programa recorre diferentes fases de desarrollo durante su vida útil:
1. Desarrollo: cada programador necesita el programa instalado, pero con las herramientas, códigos fuente, bancos
de datos y etc, para modificar el programa.
2. Prueba: antes de la entrega al usuario, el software debe ser sometido a pruebas. Esto se hace, en caso de software
complejos, en una instalación ad hoc.
3. Producción: Para ser utilizado por el usuario final.
En cada una de esas fases la instalación cumple diferentes objetivos.
Se debe comprender que en castellano programa sirve para señalar tanto un guión o archivo ejecutable, ejemplo tar,
como un conjunto de archivos que sirven un fin común, ejemplo OpenOffice.org. Por eso usaremos el neologismo
software para programas computacionales.

Meta
Una instalación exitosa es una condición necesaria para el funcionamiento de cualquier software. Mientras más
complejo sea el software, es decir, entre otras características, mientras más archivos contenga, mientras mayor la
dispersión de los archivos y mientras mayor sea la interdependencia con otros softwares, mayor es el riesgo de
alguna falla durante la instalación. Si la instalación falla aunque sea solo parcialmente, el fin que persigue la
instalación posiblemente no podrá ser alcanzado. Por esa razón, sobre todo en casos de software complejo, el
desarrolo de un proceso de instalación confiable y seguro es una parte fundamental del desarrollo del software.
Instalación de software 206

La Desinstalación de software es el proceso que elimina el software del computador.

Alternativas
En los últimos años se han desarrollado normas y técnicas cada vez más potentes para simplificar y estandarizar el
proceso de instalación de software. Ver Sistema de gestión de paquetes. Para la instalación de software se pueden
aplicar las siguientes técnicas básicas:
• Los archivos son simplemente copiados en algún lugar del directorio. Este sistema es fácil e intuitivo, y el
preferido en MacOS X. Un riesgo es que versiones más antiguas hayan quedado abandonadas en algún otro lugar
sin que nos demos cuenta.
• Se instala primero un instalador, el que posteriormente instala el software deseado.
• El sistema operativo o algún software permanente se ocupan de instalar un paquete de software con todos los
archivos requeridos. Esto es un Sistema de gestión de paquetess.

Pasos de la instalación
• Verificación de la compatibilidad: Se debe comprobar si se cumplen los requisitos para la instalación en cuanto a
hardware y software. A veces es necesario desinstalar versiones antiguas del mismo software.
• Verificación de la integridad: Se verifica que el paquete de software es el original, esto se hace para evitar la
instalación de programas maliciosos.
• Creación de los directorios requeridos: Para mantener el orden en el directorio cada sistema operativo puede tener
un estandar para la instalación de ciertos archivos en ciertos directorios. Ver por ejemplo Linux Standard Base.
• Creación de los usuarios requeridos: Para deslindar responsabilidades y tareas se pueden o deben usar diferentes
usuarios para diferentes paquetes de software.
• Concesión de los derechos requeridos: Para ordenar el sistema y limitar daños en caso necesario, se le conceden a
los usuarios solo el mínimo necesario de derechos.
• Copia, desempaque y decompresión de los archivos desde el paquete de software: Para ahorrar Ancho de banda y
tiempo en la transmisión por internet o espacio de Disco duro, los paquetes vienen empacados y comprimidos.
• Archivos principales, sean de fuente o binarios.
• Archivos de datos, por ejemplo datos, imágenes, modelos, documentos XML-Dokumente, etc.
• Documentación
• Archivos de configuración
• Bibliotecas
• Enlaces duros o enlaces simbólico a otros archivos
• Compilación y enlace con la bibliotecas requeridas: En algunos casos no se puede evitar el complicado paso de la
compilación y enlace que a su vez tiene severos requerimientos de software al sistema. El enlace con bibliotecas
requeridas puede ser un problema si en su instalación no se acataron los standards establecidos.
• Configuración: Por medio de archivos de configuración se le da a conocer al software con que parámetros debe
trabajar. Por ejemplo, los nombres de las personas que pueden usar el software, como verificar su clave de ingreso
, la ruta donde se encuentran los archivos con datos o la dirección de nuestro proveedor de correo electrónico.
Para sistemas complejos se debe desarrollar el Software Configuration Management.
• Definir las variables de entorno requeridas: Algunos comportamientos del software solo pueden ser determinados
por medio de estas variables. Esto es parte de la configuración, aunque es más dinámica.
• Registro ante el dueño de la marca: Para el Software comercial a veces el desarrollador de software exige el
registro de la instalación si se desea su servicio.
Instalación de software 207

Término de la instalación
Si un sistema de gestión de paquetes realiza la instalación, entonces este se ocupa de llevar la contabilidad de las
versiones, (des-) instalaciones y cambios en los paquetes de software del sistema.
En caso de que bibiotecas hayan sido cambiadas por la instalación, es necesario arrancar el sistema operativo o el
software nuevamente para hacer efectivos los cambios en todos los programas.

Véase también
• Sistema de gestión de paquetes
• Desinstalación de software
• Software Configuration Management
• Gestión de la configuración
• Configuración
• Fases del desarrollo de software.

Registro de Windows
Este artículo o sección necesita ser wikificado con un formato acorde a las convenciones de estilo.
[1]
Por favor, edítalo para que las cumpla. Mientras tanto, no elimines este aviso puesto el 4 de May de
2010.
También puedes ayudar wikificando otros artículos o cambiando este cartel por uno más específico.

El Registro de Windows o registro del sistema, es un sistema de archivos especial que almacena las
configuraciones y opciones del sistema operativo Microsoft Windows en sus versiones de 32 bits, 64 bits y Windows
Mobile. Algunos lo definen como una base de datos jerárquica, pero esta definición no es muy exacta.
El Registro de Windows contiene información y configuraciones de todo el hardware, software, usuarios, y
preferencias del PC. Si un usuario hace cambios en las configuraciones del "Panel de control", en las asociaciones de
ficheros, en las políticas del sistema o en el software instalado, los cambios se reflejan y almacenan en el Registro.
El Registro mantiene esta información en forma de árbol, estableciendo un orden por el cual deben acceder el
sistema operativo u otros programas, como las preferencias de usuario (perfiles), hojas de ajustes para directorios e
iconos de programas, enumeración de hardware instalado y los puertos usados. El registro reemplaza los archivos de
inicialización y configuración legados de Widows 3.x y MS-DOS (.ini), autoexec.bat y config.sys.

¿Dónde está el Registro?


El Registro se almacena en varios ficheros que, dependiendo de la versión de Windows, se ubican en diferentes
lugares dentro del sistema local, excepto NTuser (o archivo de usuario), que puede ser ubicado en otra máquina para
permitir perfiles móviles.

Windows 3.11
El Registro se llama Reg.dat y se encuentra en el directorio \WINDOWS.

Windows 9x/ME
Los archivos de registro se denominan User.dat y System.dat y se encuentran en el directorio \WINDOWS.
En Windows ME, además, está el archivo Classes.dat.
Registro de Windows 208

Windows NT, 2000, XP, Server 2003, Vista, Server 2008 y 7


Los siguientes archivos del Registro se encuentran en %SystemRoot%\System32\Config\:
• Sam - HKEY_LOCAL_MACHINE\SAM
• Security - HKEY_LOCAL_MACHINE\SECURITY
• Software - HKEY_LOCAL_MACHINE\SOFTWARE
• System - HKEY_LOCAL_MACHINE\SYSTEM
• Default - HKEY_USERS\DEFAULT
• HKEY_CLASSES_ROOT
En la carpeta %SystemRoot%\repair se encuentra una copia de seguridad.
El siguiente archivo se encuentra en cada carpeta de usuario:
• NTUSER.dat
Para acceder al registro de Windows XP hay que ir a Inicio, Ejecutar, escribir "REGEDIT" o "REGEDT32" y
presionar [Intro]. Evidentemente, también puede accederse a este programa mediante el Explorador de Windows.
Para acceder al registro en Windows Vista, hay que abrir a la barra de Inicio (donde está el logotipo de Windows),
teclear "REGEDIT" en la barra de búsqueda y presionar [Intro].
Para acceder al registro de Windows 7, se hace lo mismo que en Windows Vista.

Modificación manual
Editar el registro se desaconseja en general por la poca trazabilidad de las modificaciones, siendo recomendable
realizar una copia de seguridad de el equipo antes de hacer cualquier modificación.

Optimización y corrección de errores


El Registro de Windows tiende a crecer desmesuradamente cuando se instalan y desinstalan programas, con el paso
del tiempo, etc., con lo que se produce un aumento en el tamaño del Registro y posiblemente errores en entradas de
aplicaciones obsoletas. Por ello, existen varias utilidades para optimizar el Registro como TuneUp Utilities,
CCleaner, que buscan y eliminan estas entradas erróneas y permiten compactar el Registro completo. De esta
manera, se reduce el tiempo de carga de la PC.

Enlaces externos
• El Registro en Windows [2]
• Support.Microsoft.com: Información del Registro de Windows para usuarios avanzados [3]

Referencias
[1] http:/ / en. wikipedia. org/ wiki/ Registro_de_windows
[2] http:/ / registryonwindows. com/ es/
[3] http:/ / support. microsoft. com/ kb/ 256986/ es
Sistema de archivos 209

Sistema de archivos
Los sistemas de archivos o ficheros (filesystem en inglés), estructuran la información guardada en una unidad de
almacenamiento (normalmente un disco duro de una computadora), que luego será representada ya sea textual o
gráficamente utilizando un gestor de archivos. La mayoría de los sistemas operativos manejan su propio sistema de
archivos.[1]
Lo habitual es utilizar dispositivos de almacenamiento de datos que permiten el acceso a los datos como una cadena
de bloques de un mismo tamaño, a veces llamados sectores, usualmente de 512 bytes de longitud. El software del
sistema de archivos es responsable de la organización de estos sectores en archivos y directorios y mantiene un
registro de qué sectores pertenecen a qué archivos y cuáles no han sido utilizados. En la práctica, un sistema de
archivos también puede ser utilizado para acceder a datos generados dinámicamente, como los recibidos a través de
una conexión de red (sin la intervención de un dispositivo de almacenamiento).
Los sistemas de archivos tradicionales proveen métodos para crear, mover, renombrar y eliminar tanto archivos
como directorios, pero carecen de métodos para crear, por ejemplo, enlaces adicionales a un directorio o archivo
(enlace duro en Unix) o renombrar enlaces padres (".." en Unix).
El acceso seguro a sistemas de archivos básicos puede estar basado en los esquemas de lista de control de acceso o
capacidades. Las listas de control de acceso hace décadas que demostraron ser inseguras, por lo que los sistemas
operativos experimentales utilizan el acceso por capacidades. Los sistemas operativos comerciales aún funcionan
con listas de control de acceso.[cita requerida]

Rutas y nombre de archivos


La estructura de directorios suele ser jerárquica, ramificada o "en
árbol", aunque en algún caso podría ser plana. En algunos sistemas
de archivos los nombres de archivos son estructurados, con
sintaxis especiales para extensiones de archivos y números de
versión. En otros, los nombres de archivos son simplemente
cadenas de texto y los metadatos de cada archivo son alojados
separadamente.

En los sistemas de archivos jerárquicos, usualmente, se declara la


ubicación precisa de un archivo con una cadena de texto llamada
"ruta" —o path en inglés—. La nomenclatura para rutas varía
ligeramente de sistema en sistema, pero mantienen por lo general
una misma estructura. Una ruta viene dada por una sucesión de
nombres de directorios y subdirectorios, ordenados
jerárquicamente de izquierda a derecha y separados por algún Normalmente los archivos y carpetas se organizan
carácter especial que suele ser una barra ('/') o barra invertida ('\') y jerárquicamente.
puede terminar en el nombre de un archivo presente en la última
rama de directorios especificada.
Sistema de archivos 210

Ejemplo de 'ruta' en un sistema Unix


Así, por ejemplo, en un sistema tipo Unix como GNU/Linux, la ruta para la canción llamada "canción.ogg" del
usuario "pedro" sería algo como:

/home/pedro/musica/cancion.ogg

donde:
• '/' representa el directorio raíz donde está montado todo el sistema de archivos.
• 'home/pedro/musica/' es la ruta del archivo.
• 'canción.ogg' es el nombre del archivo.
que se establece como único.

Ejemplo de 'ruta' en un sistema Windows


Un ejemplo análogo en un sistema de archivos de Windows (específicamente en Windows XP) se vería como:

C:\Documents and Settings\pedro\Mis Documentos\Mi Música\canción.ogg

donde:
• 'C:' es la unidad de almacenamiento en la que se encuentra el archivo.
• '\Documents and Settings\pedro\Mis Documentos\Mi Música\' es la ruta del archivo.
• 'canción' es el nombre del archivo.
• '.ogg' es la extensión del archivo, este elemento, parte del nombre, es especialmente relevante en los
sistemas Windows, ya que sirve para identificar qué aplicación está asociada con el archivo en cuestión, es
decir, con qué programa se puede editar o reproducir el archivo.
El sistema recomendado es NTFS.
FAT y FAT32 son similares entre sí, excepto en que FAT32 está diseñado para discos de mayor tamaño que FAT.El
sistema de archivos que funciona mejor con discos de gran tamaño es NTFS.
NTFS siempre ha sido un sistema de archivos más eficaz que FAT y FAT32.
Windows 2000 - XP incluye una versión nueva de NTFS, con compatibilidad para una gran variedad de
características, incluido Active Directory, que es necesario para los dominios, cuentas de usuario y otras
características de seguridad importantes.
El programa de instalación facilita la conversión de la partición a la nueva versión de NTFS, incluso si antes
utilizaba FAT o FAT32. Este tipo de conversión mantiene intactos los archivos (a diferencia de cuando se da formato
a una partición). Si no necesita mantener intactos los archivos y dispone de una partición FAT o FAT32, se
recomienda que dé formato a la partición con NTFS en lugar de convertirla desde FAT o FAT32. El hecho de dar
formato a una partición borra todos los datos de la partición, pero una partición a la que se da formato con NTFS en
vez de convertirla desde FAT o FAT32 tendrá menos fragmentación y mejor rendimiento.
Sin embargo, sigue siendo más ventajoso utilizar NTFS, independientemente de si se dio formato a la partición con
NTFS o se convirtió. Una partición también puede convertirse después de la instalación mediante Convert.exe. Para
obtener más información acerca de Convert.exe, después de finalizar la instalación, haga clic en Inicio, haga clic en
Ejecutar, escriba cmd y, a continuación, presione Entrar, en la ventana de comandos, escriba help convert y, a
continuación, presione Entrar.
Nota: Únicamente puede utilizar características importantes como Active Directory y la seguridad basada en
dominios si elige NTFS como el sistema de archivos.
Existe una situación en la que es posible que desee seleccionar FAT o FAT32 como sistema de archivos.
Sistema de archivos 211

Si es necesario disponer de un equipo que a veces ejecute un sistema operativo de una versión anterior y otras veces
ejecute Windows 2000-XP, deberá tener una partición FAT o FAT32 como partición principal (o de inicio) en el
disco duro.
Esto se debe a que los sistemas operativos anteriores, con una excepción, no pueden tener acceso a una partición si
utiliza la última versión de NTFS. La única excepción es Windows NT versión 4.0 con Service Pack 4 o posterior,
que tiene acceso a particiones con la última versión de NTFS, pero con algunas limitaciones. Windows NT 4.0 no
puede tener acceso a archivos que se han almacenado mediante características de NTFS que no existían cuando se
publicó Windows NT 4.0.
Sin embargo, para cualquier otra situación en la que no existan varios sistemas operativos, el sistema de archivos
recomendado es NTFS.
La tabla siguiente describe la compatibilidad de cada sistema de archivos con varios sistemas operativos.

Resumen de características de los sistemas de Archivos


• Seguridad o permisos
• listas de control de acceso (ACLs)
• UGO (Usuario, Grupo, Otros, o por sus siglas en inglés, User, Group, Others)
• Capacidades granuladas
• Atributos extendidos (ej.: sólo añadir al archivo pero no modificar, no modificar nunca, etc.)
• Mecanismo para evitar la fragmentación
• Capacidad de enlaces simbólicos o duros
• Integridad del sistema de archivos (Journaling)
• Soporte para archivos dispersos
• Soporte para cuotas de discos
• Soporte de crecimiento del sistema de archivos nativo

Tipo de sistemas de archivos

Sistemas de archivos de disco


Un sistema de archivo de disco está diseñado para el almacenamiento de archivos en una unidad de disco, que puede
estar conectada directa o indirectamente a la computadora.
Otros sistemas de archivos
-HFS. HFS es el Sistema de Archivo de Mac. Se usa en todo tipo de medio de almacenamiento, desde CD y DVD
hasta el Disco Duro.
-HFS+. HFS+ es la variante moderna de HFS con soporte para una mayor capacidad de almacenamiento, unicode y
mucho más.
(ver Anexo:Sistemas de archivos de disco)
Sistema de archivos 212

Sistemas de archivos de red


Un sistema de archivos de red es el que accede a sus archivos a través de una red. Dentro de esta clasificación
encontramos dos tipos de sistemas de archivos: los sistemas de archivos distribuidos (no proporcionan E/S en
paralelo) y los sistemas de archivos paralelos (proporcionan una E/S de datos en paralelo).
(ver Anexo:Sistemas de archivos de red)

Sistemas de archivos de propósito especial


(Special purpose file system). Aquellos tipos de sistemas de archivos que no son ni sistemas de archivos de disco, ni
sistemas de archivos de red. Ejemplos: acme (Plan 9), archfs, cdfs, cfs, devfs, udev, ftpfs, lnfs, nntpfs, plumber (Plan
9), procfs, ROMFS, swap, sysfs, TMPFS, wikifs, LUFS, etc.

Véase también
• Extensión de archivo
• Sistema de archivos virtual
• Formateo

Referencias
[1] Juncos, Raúl (21 de enero). observatorio.cnice.mec.es (ed.): « Sistema de ficheros GNU/Linux (http:/ / observatorio. cnice. mec. es/ modules.
php?op=modload& name=News& file=article& sid=549)». Consultado el 1 de febrero de 2010.
Tabla de Asignación de Archivos 213

Tabla de Asignación de Archivos


FAT12 FAT16 FAT32
Desarrollador Microsoft

Nombre completo Tabla de Asignación de Archivos

(versión de 12 bits) (versión de 16 bits) (versión de 32 bits)

Introducido 1977 (Microsoft Disk Julio de 1988 (MS-DOS Agosto de 1996 (Windows 95
BASIC) 4.0) OSR2)

Identificador de partición 0x01 (MBR) 0x04, 0x06, 0x0E 0x0B, 0x0C (MBR)
(MBR) EBD0A0A2-B9E5-4433
-87C0-68B6B72699C7 (GPT)

Estructuras FAT12 FAT16 FAT32

Contenido de carpeta Tabla

Ubicación de archivo Lista enlazada

Bloques defectuosos Lista enlazada

Límites FAT12 FAT16 FAT32

Tamaño máximo de archivo 32 MB 2 GB 4 GB

Número máximo de archivos 4.077 65.517 268.435.437

Longitud máxima del nombre de 8.3 (11) o 255 caracteres cuando se usan LFNs (Long File Names)
archivo

Tamaño máximo del volumen 32 MB 2 GB 2 TB

Características FAT12 FAT16 FAT32

Fechas almacenadas Creación, modificación, acceso

Rango de fechas soportado 1 de enero de 1980 - 31 de diciembre de 2107

Metadatos No de modo nativo

Atributos Sólo lectura, oculto, sistema, archivo, nombre del volumen

Permisos No

Compresión transparente Por volumen, Stacker, DoubleSpace, DriveSpace No

Cifrado transparente Por volumen sólo con DR-DOS No

La Tabla de Asignación de Archivos es una lista de valores digitales que describe la asignación de los clústers de una
partición o, dicho de otra forma, el estado de cada clúster de la partición en la que se encuentra. De hecho, cada
célula de la tabla de asignación corresponde a un clúster. Cada célula contiene un número que indica si un archivo
está utilizando el clúster. De ser así, indica la ubicación del siguiente clúster en el archivo. De esta forma, se obtiene
una cadena FAT, la cual es una lista vinculada de referencias que apunta a los clústers sucesivos hasta el final del
archivo. Cada entrada FAT tiene una extensión de 16 ó 32 bits (todo depende de si es una entrada FAT16 o FAT32).
Las primeras dos entradas almacenan información acerca de la tabla misma, mientras que las entradas siguientes
hacen referencia a los clústers. Algunas entradas pueden contener valores que indiquen el estado del clúster
específico. Por ejemplo, el valor 0000 indica que no se está usando el clúster, FFF7 identifica al clúster como
defectuoso por lo que no se utilizará, y los valores entre FFF8 y FFFF especifican que el clúster contiene el final de
un archivo. En realidad, cada partición contiene dos copias de la tabla almacenada de manera contigua en el disco,
para que pueda recuperarse si la primera copia se corrompe.
Tabla de Asignación de Archivos 214

Historia y versiones
El sistema de archivos FAT fue creado por Bill Gates y Marc McDonald en 1977 con el objeto de manejar discos en
BASIC. Fue incorporado por primera vez en el sistema operativo QDOS por Tim Paterson en agosto de 1980, para
los computadores S-100 de arquitectura Intel 8086. Este sistema de archivos fue la principal diferencia entre QDOS
y CP/M.

FAT12
La versión inicial de FAT se conoce ahora como FAT12. Es un sistema de archivos para disquete, por lo que tiene
varias limitaciones:
• No soporta anidación de carpeta.
• Las direcciones de bloque solamente contienen 12 bits. Esto complica la implementación.
• El tamaño del disco se almacena como una cuenta de 16 bits expresada en sectores, lo que limita el espacio
manejable a 32 megabytes.
En aquella época, el habitual disquete (5,25 pulgadas en una sola cara) constaba de 40 pistas con 8 sectores por pista,
resultando en una capacidad inferior a 160 kilobytes. Este límite excedía la capacidad en más de un orden de
magnitud, y al mismo tiempo, permitía encajar todas las estructuras de control en la primera pista. Por tanto, se
evitaba el movimiento de los cabezales en las operaciones de lectura y escritura. Estos límites fueron superados en
los años posteriores.
Con el propósito de soportar el reciente IBM PC, que disponía de un disco duro de 10 megabytes, MS-DOS 2.0, y
carpetas anidadas, simplemente se utilizaron clusters de 8 kilobytes en el disco duro. El formato de FAT en sí mismo
no cambió.
En 1984, IBM lanzó el PC AT, con 20 megabytes de disco duro. Al mismo tiempo, Microsoft lanzó MS-DOS 3.0.
Las direcciones de los cluster fueron ampliadas a 16 bits, permitiendo un número mayor de clusters (65.536
exactamente). Por tanto, soportaba mayores tamaños de sistema de archivos. A pesar de todo, no hubo mejoras en el
límite máximo de 32 megabytes.
MS-DOS 3.0 también incorporó soporte a disquetes de alta densidad de 5'25 pulgadas (1'2 megabytes de capacidad),
con 15 sectores por pista, y en consecuencia, más espacio para FAT. Esto probablemente forzó una dudosa
optimización del tamaño del clúster, que bajó de dos sectores a sólo uno. El efecto global fue una reducción
significativa de los tiempos de lectura y escritura frente a los disquetes de doble densidad.
Estructura de la FAT12 en un disquete de 1'44M:

512 Primer sector físico del disco flexible (Pista Cero)


Byte
Tabla de Asignación de Archivos 215

3 Byte Código máquina de salto ( jmp short 0x3E; nop ) 0EBh 03Ch
090h

8 Byte Cadena que identifica el fabricante del disco 'mkdosfs',0

2 Byte Bytes por sector 512

1 Byte Sectores por cluster 1

2 Byte Sectores reservados 1

1 Byte Número de FAT's 2

2 Byte Entradas máximas en directorio raíz 244

2 Byte Sectores totales 2880

1 Byte Descriptor de medio (0F0h para discos de 240


1'44M)

2 Byte Sectores por fat 9

2 Byte Sectores por pista 12

2 Byte Número de caras 2

4 Byte Sectores ocultos 0

4 Byte Longitud total de sectores 0

1 Byte Número de unidad 0

1 Byte Banderas 0

1 Byte Firma (029h) 41

4 Byte Número de serie 4294967295

12 Byte Etiqueta de volumen 'DISCO EJPLO


'

8 Byte Identificador de formato 'FAT12 '

446 Código máquina del cargador de arranque [...]


Byte

2 Byte Firma de unidad arrancable 055AAh

FAT16
Actualmente el sistema FAT32 ha desplazado por completo al antiguo sistema de archivos FAT16. Esta nueva
versión permite crear volúmenes de hasta 2 TB, frente a los 2 GB a los que limita FAT16. Este último sistema
desperdiciaba clusters, de modo que si el sistema debía guardar archivos de, por ejemplo 2 KB, desaprovechaba al
hacerlo todo un clúster de 32KB. Con el sistema FAT32 utilizaría un clúster de 4 KB, con lo cual ahorra recursos del
sistema. Además se consigue un ligero aumento en la capacidad del disco duro.
Con el convertidor de unidades FAT32 podremos aprovechar las ventajas de este sistema en unidades de tipo
FAT16, sin formatear ni perder los contenidos que ya tuviéramos en el disco. Con ello conseguimos aprovechar
mejor el espacio en nuestro disco duro. El inconveniente es que no podremos acceder al disco ni desde DOS, ni
desde Windows 95 anterior al OSR2. Las ventajas son una mejor gestión de la capacidad del disco y un pequeño
aumento de tamaño del mismo. Encontraremos esta utilidad en Inicio•Accesorios•Herramientas del
sistema•Convertidor de unidades FAT32.
Tabla de Asignación de Archivos 216

VFAT y FASTFAT
Windows 3.11 introdujo un nuevo esquema de acceso a los sistemas de archivos, usando el modo protegido de 32
bits (presente en los Intel 386 y posteriores) esquivando el núcleo de MS-DOS. Para ello, usaba directamente el
BIOS o el hardware de la unidad de disco. Esto también permitía utilizar una caché, acelerando el acceso. Todo esto
se denominó VFAT o FAT virtual.
Windows NT 3.1 proporcionaba la misma aproximación, pero denominándolo FASTFAT. Sin embargo, era natural
que los controladores de Windows NT utilizasen el modo protegido de 32 bits. A menudo se confunde con el soporte
LFN (nombres largos de archivo) ya que éste estaba habilitado por defecto en Windows 95.

LFN o Nombres largos de archivo


Uno de los objetivos de los diseñadores de Windows 95 fue el uso de nombres más largos para los archivos. Se
implementó sobre FAT utilizando un truco en el modo de almacenar los índices de los directorios. Esta
implementación también se conoce como VFAT por culpa del controlador de Windows 95 que lo incorporó por
primera vez. Los nombres largos también se soportaron en Windows NT a partir de la versión 3.5.

FAT32
FAT32 fue la respuesta para superar el límite de tamaño de FAT16 al mismo tiempo que se mantenía la
compatibilidad con MS-DOS en modo real. Microsoft decidió implementar una nueva generación de FAT utilizando
direcciones de cluster de 32 bits (aunque sólo 28 de esos bits se utilizaban realmente).
En teoría, esto debería permitir aproximadamente 268.435.538 clusters, arrojando tamaños de almacenamiento
cercanos a los ocho terabytes. Sin embargo, debido a limitaciones en la utilidad ScanDisk de Microsoft, no se
permite que FAT32 crezca más allá de 4.177.920 clusters por partición (es decir, unos 124 gigabytes).
Posteriormente, Windows 2000 y XP situaron el límite de FAT32 en los 32 gigabytes. Microsoft afirma que es una
decisión de diseño, sin embargo, es capaz de leer particiones mayores creadas por otros medios.
FAT32 apareció por primera vez en Windows 95 OSR2. Era necesario reformatear para usar las ventajas de FAT32.
Curiosamente, DriveSpace 3 (incluido con Windows 95 y 98) no lo soportaba. Windows 98 incorporó una
herramienta para convertir de FAT16 a FAT32 sin pérdida de los datos. Este soporte no estuvo disponible en la línea
empresarial hasta Windows 2000.
El tamaño máximo de un archivo en FAT32 es 4 gigabytes (232−1 bytes), lo que resulta engorroso para aplicaciones
de captura y edición de video, ya que los archivos generados por éstas superan fácilmente ese límite.

Otros fabricantes
Otros sistemas operativos tales como GNU/Linux, FreeBSD y BeOS soportan FAT, y la mayoría también soportan
VFAT y FAT32 en menor extensión. Las primeras ediciones de GNU/Linux también apoyaron un formato conocido
como UMSDOS. Este consistía en una variante de FAT que admitía los permisos de seguridad típicos en Unix,
además de los nombres largos de éste. Para ello, se almacenaba esta información en un archivo FAT separado que se
denominaba "--linux--.---" (por tanto, conservando compatibilidad total). UMSDOS quedó en desuso con la
aparición de VFAT en recientes versiones del núcleo Linux. El sistema operativo Mac OS X también soporta
sistemas de archivos FAT, siempre que no se trate del volumen de arranque del sistema.
Tabla de Asignación de Archivos 217

FAT y Metadatos
NOTA: Los meta-datos son atributos asociados a un archivo pero que no forman parte de él (por ejemplo, la
fecha o el autor). Este concepto recibe otras denominaciones tales como filesystem fork, alternate data streams
(en Windows), etc.
El sistema de archivos FAT no está diseñado para albergar meta-datos. Algunos sistemas operativos que los
necesitan incorporaron varios métodos para simularlos. Por ejemplo, almacenándolos en archivos o carpetas extra
(de manera similar a UMSDOS) o también otorgando una semántica especial a estructuras no usadas en el formato
original. No obstante, este último método no es compatible con herramientas no preparadas para esta extensión. Por
ejemplo, una herramienta de desfragmentación podría destruir los meta-datos. Mac OS, a través de la utilidad PC
Exchange, almacena meta-datos en un archivo oculto denominado "FINDER.DAT" (uno por carpeta). Mac OS X
almacena los metadatos en un archivo oculto denominado como su propietario, pero comenzando por ".-". Cuando se
trata de meta-datos de una carpeta, los almacena en un archivo oculto llamada ".DS_Store".
OS/2 también depende fuertemente del uso de meta-datos. Cuando se refiere a volúmenes en FAT, los almacena en
un archivo oculto denominado "EA DATA. SF" en la carpeta raíz del volumen. También reserva dos bytes en el
archivo (o carpeta) para poder indexarlo. Los meta-datos se acceden a través del escritorio Workplace Shell, a través
de guiones REXX, o a través de utilidades como 4OS2. Cuando se refiere a su sistema de archivos propio HPFS, éste
ya da soporte nativo a meta-datos, denominados atributos extendidos.
Windows NT soporta meta-datos en los sistemas de archivos HPFS, NTFS y FAT (mediante el mismo mecanismo
que OS/2). Pero no es posible copiar meta-datos entre sistemas de archivos distintos. Windows 2000 se comporta
exactamente igual que Windows NT, pero ignora los meta-datos cuando copia archivos desde FAT32 a otros
sistemas de archivos.

Perspectivas de futuro
Dado que Microsoft no seguirá soportando sistemas operativos basados en MS-DOS, es poco probable que se
desarrollen nuevas versiones de FAT. NTFS es un sistema de archivos superior a éste en múltiples aspectos:
eficiencia, rendimiento y fiabilidad. Su principal desventaja es el excesivo tamaño que desperdicia en pequeños
volúmenes y su limitado soporte en otros sistemas operativos. Sus especificaciones son un secreto comercial; no
obstante, esto está cambiando, gracias a la ingeniería inversa, pues ya es posible leer y escribir en particiones NTFS
en Linux con herramientas como NTFS-3G.
FAT es, hoy por hoy, el sistema de archivos habitual en medios de almacenamiento extraíbles (con la excepción
hecha del CD y DVD). FAT12 se usa en disquetes, y FAT16 en el resto de medios (por ejemplo, tarjetas de memoria
y Memorias USB). La mayoría de estos medios no son lo suficientemente grandes como para beneficiarse de FAT32.
FAT se utiliza por motivos de compatibilidad y menor desperdicio del espacio disponible.
El soporte FAT32 en Windows 2000 y XP está limitado a discos de 32 gigabytes,[1] lo que obliga a usuarios de
discos duros modernos a usar NTFS o utilizar utilidades de terceros al margen de Windows.
Esta limitación afecta a la hora de instalar, pero no al uso: Windows 2000/XP puede acceder a discos FAT32 de
hasta 2 terabytes,[2] aunque en el momento de instalar, no permitirá formatear un disco FAT32 de más de 32 GB, y
obligará a usar NTFS. La solución alternativa es formatear antes el disco en FAT32 (por ejemplo con la ayuda de un
LiveCd de GNU/Linux o utilidades de terceros), y a continuación instalar Windows 2000/XP.
Tabla de Asignación de Archivos 218

Diseño
El sistema de archivos FAT se compone de cuatro secciones:
1. La región del directorio raíz. Es el índice principal de carpetas y archivos.
2. El sector de arranque. Siempre es el primer sector de la partición (volumen) e incluye información básica,
punteros a las demás secciones, y la dirección de la rutina de arranque del sistema operativo.
3. La región FAT. Contiene dos copias de la tabla de asignación de archivos (por motivos de seguridad). Estos son
mapas de la partición, indicando qué clusters están ocupados por los archivos.
4. La región de datos. Es el lugar donde se almacena el contenido de archivos y carpetas. Por tanto, ocupa casi toda
la partición. El tamaño de cualquier archivo o carpeta puede ser ampliado siempre que queden suficientes clusters
libres. Cada cluster está enlazado con el siguiente mediante un puntero. Si un determinado cluster no se ocupa por
completo, su espacio remanente se desperdicia.

La tabla de asignación de archivos


El sistema de archivos FAT16 es compatible con la mayoría de sistemas operativos. Esto es evidente por MS DOS,
Windows 95, Windows 98, Windows Me, Windows NT, Windows 2000 y Windows XP para poder utilizar el
sistema de archivos FAT16. FAT16 en general funciona bien en la gestión de espacio en disco cuando el tamaño del
volumen es inferior a 256 MB. Usted debe abstenerse de utilizar FAT16 en volúmenes que son más grandes que 512
MB. FAT16 no puede ser utilizado en los volúmenes que sobrepasen los 4 GB.
Mapas de clusters FAT16 en la partición FAT. Un clúster es la unidad más pequeña que el sistema operativo OS
utiliza cuando se asigna el espacio en la partición. Un clúster es a veces también conocida como una unidad de
asignación.
La tabla de asignación de archivos identifica un grupo en la partición FAT ya sea como:
- No utilizados
-Cluster en el uso de un archivo de
-Grupo Bad
-Último grupo en un archivo
FAT16 El volumen está estructurado como sigue:
Del sector de arranque en la partición del sistema de
-El principal tabla de asignación de archivos
-La copia o duplicado de tabla de asignación de archivos
-Una carpeta raíz
-Otras carpetas y todos los archivos
La carpeta raíz tiene una entrada para cada archivo y carpeta almacenada en el volumen FAT16 y tiene su número
máximo de entradas de la tabla fijada en 512 para cada unidad de disco. Un archivo o la carpeta de entrada contiene
la siguiente información:
-Nombre: Este es en formato 8.3
-Atributo: 8 bits
-Crear tiempo: 24 bits
-Fecha de creación: 16 bits
-Última fecha de acceso: 16 bits
-Tiempo de última modificación: 16 bits
-Última fecha de modificación: 16 bits
Tabla de Asignación de Archivos 219

-Número inicial de racimo en la tabla de asignación de archivos: 16 bits


Tamaño del archivo: 32 bits
El byte de atributos en una carpeta indica qué tipo de entrada que es y está generalmente controlado por el sistema
operativo. De cuatro bits del byte de atributo puede ser activado o desactivado por el usuario. Estos son:

Archivo, Sistema, Oculto, de sólo lectura

Los archivos se asignó la ubicación disponible por primera vez en el volumen FAT16. La dirección del primer grupo
es utilizado por el archivo que el número de cluster de comienzo en la tabla de asignación de archivos. Las
agrupaciones también tienen un puntero al siguiente grupo en el archivo. El grupo al final del archivo sin embargo
contiene un indicador hexadecimal que indica que este grupo es el final del archivo.
Algunas desventajas asociadas con el sistema de archivos FAT16 se resumen a continuación:
-El sistema de archivos FAT16 no tiene seguridad local para el sistema de archivos o características de compresión.
-El sector de arranque no está respaldada.
-La carpeta raíz sólo puede tener un máximo de 512 entradas, lo que significa que los archivos que tienen nombres
largos, puede disminuir enormemente el número de entradas disponibles.
-FAT16 no funciona bien con tamaños de volumen que son grandes.

El directorio raíz
Este índice es un tipo especial de archivo que almacena las sub-carpetas y archivos que componen cada carpeta.
Cada entrada del directorio contiene el nombre del archivo o carpeta (máximo 8 caracteres), su extensión (máximo 3
caracteres), sus atributos (archivo, carpeta, oculto, del sistema, o volumen), la fecha y hora de creación, la dirección
del primer cluster donde están los datos, y por último, el tamaño que ocupa.
El directorio raíz ocupa una posición concreta en el sistema de archivos, pero los índices de otras carpetas ocupan la
zona de datos como cualquier otro archivo.
Los nombres largos se almacenan ocupando varias entradas en el índice para el mismo archivo o carpeta.

Licenciamiento
Microsoft ha solicitado una serie de patentes para elementos clave del sistema de archivos FAT en los años 90. Su
popularidad y compatibilidad lo hacen el formato de elección para memorias flash de cámaras digitales y PDAs, por
ejemplo.
En diciembre de 2003, Microsoft anunció que comenzaría a comercializar licencias de uso para FAT al coste de 0,25
dólares por unidad vendida. con un máximo de 250.000 dólares por acuerdo de licencia.
Hasta el momento, Microsoft ha citado cuatro patentes sobre FAT como fundamento de sus pretensiones. Las cuatro
se refieren a la implementación de nombres largos:
• Patente 5.745.902: Método y sistema para acceder un archivos usando nombres largos con diferentes formatos de
nombre de archivo. Cubre un modo de generar y asociar un nombre corto "8.3" con uno largo (por ejemplo,
"Microsoft.txt" -largo- con "Micros~1.txt" -corto-). Así como el modo de enumerar nombres cortos en conflicto
(por ejemplo, "MICROS~2.TXT" y "MICROS~3.TXT").
• Patente 5.579.517: Espacio de nombres común tanto para nombres cortos como largos de archivos. Cubre un
método para encadenar múltiples entradas de nombre corto en el índice para almacenar un nombre largo. La
Public Patent Foundation impugnó esta patente con éxito.
• Patente 5.758.352: Similar a la anterior. También fue impugnada con éxito.
• Patente 6.286.013: Método y sistema para proporcionar un espacio común de nombres para nombres de archivo
tanto largos como cortos en un sistema operativo. Esta patente reclama los métodos usados en Windows 95, 98 y
Tabla de Asignación de Archivos 220

ME para hacer los nombres de archivos largos compatibles con MS-DOS. Aparentemente, no afecta a ninguna
implementación de FAT distinta a la de Microsoft.
Algunos expertos creen que estas patentes no cubren realmente el uso que se hace de FAT en medios extraibles de
consumo.
Por otra parte, el documento "Microsoft Extensible Firmware Initiative FAT 32 File System Specification, FAT:
General Overview of On-Disk Format", publicado por Microsoft, garantiza una serie de derechos que podrían
interpretarse como una licencia para implementar FAT en otros sistemas operativos.

Impugnaciones
Debido al clamor popular para que se volviesen a examinar dichas patentes, la Public Patent Foundation envió
pruebas a la Oficina de Patentes sobre trabajos previos de Xerox e IBM. La Oficina reconoció que existían "dudas
sustanciales de patentabilidad" y abrió una investigación para revisar dichas patentes.
Finalmente, dicha revisión ha confirmado la validez de las patentes (véase noticia al respecto [3]) en enero de 2007.

Referencias bibliográficas
• Duncan, Roy (1989). Design goals and implementation of the new High Performance File System [4]. Microsoft
Systems Journal 4 (5). (en inglés)

Véase también
• NTFS (NT file system).
• HPFS (High Performance File System)
• ext2
• ext3
• ext4
• ReiserFS
• VFS
• ISO 9660 (Sistema de archivos estándar para CDs).
• VFAT
• ExFAT
• Formato.

Enlaces externos
En inglés
• Microsoft's statement on "FAT File System Technology and Patent License" [5]
• Slashdot discussion on Microsoft's claims of FAT-related patents [6]
• Microsoft Extensible Firmware Initiative FAT 32 File System Specification, FAT: General Overview of On-Disk
Format [7]
• Understanding FAT32 Filesystems (explained for embedded firmware developers) [8]
• Microsoft's war on GPL dealt patent setback [9]
• A Short History of MS-DOS [10], by Tim Paterson
• Detailed Explanation of FAT Boot Sector [11] - Microsoft Knowledge Base Article 140418
• At PUBPAT's Request, Patent Office Rejects Microsoft's FAT Patent: All Claims of Reynolds '517 Patent Ruled
Invalid [12]
• Volume and file size limits of FAT filesystems [13]
Tabla de Asignación de Archivos 221

Referencias
[1] « Instalación nueva de Windows XP (http:/ / www. microsoft. com/ spain/ windowsxp/ using/ setup/ getstarted/ installnew. mspx)».
[2] « Limitations of the FAT32 File System in Windows XP (http:/ / support. microsoft. com/ default. aspx?scid=KB;EN-US;Q314463& )».
[3] http:/ / news. zdnet. com/ 2100-3513_22-6025447. html
[4] http:/ / cd. textfiles. com/ megademo2/ INFO/ OS2_HPFS. TXT
[5] http:/ / www. microsoft. com/ mscorp/ ip/ tech/ fat. asp
[6] http:/ / slashdot. org/ article. pl?sid=03/ 12/ 04/ 1318212
[7] http:/ / www. microsoft. com/ whdc/ system/ platform/ firmware/ fatgen. mspx
[8] http:/ / www. pjrc. com/ tech/ 8051/ ide/ fat32. html
[9] http:/ / www. theregister. co. uk/ 2004/ 06/ 14/ ms_fat_patent_reexamined/
[10] http:/ / www. patersontech. com/ Dos/ Byte/ History. html
[11] http:/ / support. microsoft. com/ support/ kb/ articles/ Q140/ 4/ 18. asp
[12] http:/ / www. pubpat. org/ Microsoft_517_Rejected. htm
[13] http:/ / www. microsoft. com/ resources/ documentation/ Windows/ XP/ all/ reskit/ en-us/ prkc_fil_tdrn. asp
NTFS 222

NTFS
NTFS

Desarrollador(a) Microsoft

Nombre completo NT File System (Sistema de Archivos NT)

Introducido Julio de 1993 (Windows NT 3.1)

Identificador de la 0x07 (MBR)


partición EBD0A0A2-B9E5-4433-87C0-68B6B72699C7 (GPT)

Estructuras

Contenido del directorio Árbol-B+

Localización de archivo Mapa de bits/Extents

Bloques malos Mapa de bits/Extents

Límites

Máxima dimensión de 16 TiB con la actual implementación (16 EiB según su arquitectura)
archivo

Máximo número de 4.294.967.295 (232–1)


archivos

Tamaño máximo del 255 caracteres


nombre de archivo

Tamaño máximo del 256 TiB con la actual implementación (16 EiB según su arquitectura)
volumen

Caracteres permitidos en Cualquier carácter excepto '\0' (NULO) y '/'[1] Windows también excluye el uso de \ : * ? " < > |
nombres de archivo

Características

Fechas registradas Creación, modificación, modificación POSIX, acceso

Rango de fecha 1 de enero de 1601 - 28 de mayo de 60056

Bifurcaciones Sí

Atributos Sólo lectura, oculto, sistema, archivo

Permisos de acceso a ACLs


archivos

Compresión Per-file, LZ77 (Windows NT 3.51 en adelante)


transparente

Cifrado transparente Per-file,


DESX (Windows 2000 en adelante),
Triple DES (Windows XP en adelante),
AES (Windows XP Service Pack 1, Windows Server 2003 en adelante)

Sistemas operativos Familia Windows NT (Windows NT 3.1 a Windows NT 4.0, Windows 2000, Windows XP, Windows
soportados Server 2003, Windows Vista, Windows Server 2008, Windows 7, Windows Server 2008 R2), Mac OS
X, Linux

NTFS (NT File System) es un sistema de archivos de Windows NT incluido en las versiones de Windows 2000,
Windows XP, Windows Server 2003, Windows Server 2008, Windows Vista y Windows 7. Está basado en el
sistema de archivos HPFS de IBM/Microsoft usado en el sistema operativo OS/2, y también tiene ciertas influencias
del formato de archivos HFS diseñado por Apple.
NTFS 223

NTFS permite definir el tamaño del clúster, a partir de 512 bytes (tamaño mínimo de un sector) de forma
independiente al tamaño de la partición.
Es un sistema adecuado para las particiones de gran tamaño requeridas en estaciones de trabajo de alto rendimiento y
servidores. Puede manejar volúmenes de, teóricamente, hasta 264–1 clústeres. En la práctica, el máximo volumen
NTFS soportado es de 232–1 clústeres (aproximadamente 16 Terabytes usando clústeres de 4KB).
Los inconvenientes que plantea son:
• Necesita para sí mismo una buena cantidad de espacio en disco duro, por lo que no es recomendable su uso en
discos con menos de 400 MB libres.

Características
NTFS, el sistema de archivos estándar de Windows NT y de sus descendientes (las gamas 2000, 2003, XP,Vista y 7),
las versiones 9x (MS-DOS, Windows 95, Windows 98 y Windows ME), no pueden leer este sistema de archivos de
manera predeterminada, pero existen utilidades para salvar esta carencia.
NTFS ha reemplazado al anterior sistema de ficheros de Microsoft, llamado FAT, común a MS-DOS y a las
versiones tempranas de Windows.
NTFS incorpora muchas mejoras sobre el sistema FAT como compatibilidad mejorada con metadatos, y el uso de
estructura de datos avanzadas (árboles-B) para optimizar el rendimiento, estabilidad, y el aprovechamiento del
espacio en disco, además de nuevas características adicionales, como la seguridad, las listas de control de acceso o
el registro de transacciones (journaling).
El tamaño mínimo recomendado para la partición es de 10 GB. Aunque son posibles tamaños mayores, el máximo
recomendado en la práctica para cada volumen es de 2 TB (Terabytes). El tamaño máximo de fichero viene limitado
por el tamaño del volumen.
Hay tres versiones de NTFS: v1.2 en NT 3.51 , NT 4, v3.0 en Windows 2000 y v3.1 en Windows XP , Windows
2003 Server , Windows Vista y Windows 2008 . Estas versiones reciben en ocasiones las denominaciones v4.0, v5.0
, v5.1 , v 5.2, y v 6.0 en relación con la versión de Windows en la que fueron incluidas. Las versiones más recientes
han incluido algunas características nuevas, tales como cuotas de disco y puntos de montaje de volúmenes.

Funcionamiento
Todo lo que tiene que ver con los ficheros, se almacena en forma de metadatos. Esto permitió una fácil ampliación
de características durante el desarrollo de Windows NT. Un ejemplo lo hallamos en la inclusión de campos de
indexado añadidos para posibilitar el funcionamiento de Active Directory.
Los nombres de archivo son almacenados en Unicode (UTF-16), y la estructura de ficheros en árboles-B, una
estructura de datos compleja que acelera el acceso a los ficheros y reduce la fragmentación, que era lo más criticado
del sistema FAT.
Se emplea un registro transaccional (journal) para garantizar la integridad del sistema de ficheros (pero no la de cada
archivo). Los sistemas que emplean NTFS han demostrado tener una estabilidad mejorada, que resultaba un requisito
ineludible considerando la naturaleza inestable de las versiones más antiguas de Windows NT.
Sin embargo, a pesar de lo descrito anteriormente, este sistema de archivos posee un funcionamiento prácticamente
secreto, ya que Microsoft no ha liberado su código como hizo con FAT.
Gracias a la ingeniería inversa, aplicada sobre el sistema de archivos, se desarrolló controladores como el NTFS-3G
que actualmente proveen a sistemas operativos GNU/Linux, Solaris, MacOS X o BSD, entre otros, de soporte
completo de lectura y escritura en particiones NTFS.
NTFS 224

Interoperabilidad
Microsoft provee medios para convertir particiones FAT32 a NTFS, pero no en sentido contrario, (NTFS a FAT32).
Partition Magic de Symantec y el proyecto de código abierto NTFSResize son ambos capaces de redimensionar
particiones NTFS.
Con la herramienta convert incluida en los sistemas NT , (Windows 2000 en adelante) , se puede cambiar un disco
con sistema de ficheros FAT32 a NTFS sin perder ningún dato con la instrucción "convert [unidad]:/fs:ntfs"
Por razones de la historia absolutamente todas las versiones de Windows que todavía no soportan NTFS almacenan
internamente la fecha y hora como hora local, y consecuentemente los sistemas de ficheros correspondientes a esas
versiones de Windows, también tratan la hora localmente. Sin embargo, Windows NT y sus sucesores almacenan la
hora en formato GMT/UTC, y hacen las conversiones apropiadas a la hora de mostrar las fechas. De este modo al
copiar archivos entre un volumen NTFS y uno no-NTFS, deben hacerse las conversiones "al vuelo", lo que puede
originar ambigüedades si el horario de verano está activo en la copia de unos archivos y no en el de otros, pudiendo
dar lugar a ficheros cuya marca de hora esté una hora desplazada.
SISTEMA DE ARCHIVOS NTFS El sistema NTFS se difiere de archivos FAT y FAT32 por su capacidad para
dividir clusters de hasta 5 terabytes. Aunque no es recomendable en discos con capacidad inferior a 4 GB.

Enlaces externos
En español:
• Cómo recuperar particiones NTFS dañadas [2]
En inglés:
• Microsoft NTFS Technical Reference [3]
• NTFS.com [4] – documentation and resources for NTFS
• Inside Win2K NTFS [5] by Mark Russinovich
• Excellent explanation of the timestamp issue with NTFS and seasonal time changes [6].
• Linux-NTFS Open source project to add NTFS support to the Linux kernel [7]
• sitio de NTFS-3g [8]
• Custer, Helen (1994). Inside the Windows NT File System. Microsoft Press. ISBN 1-55615-660-X.
• Nagar, Rajeev (1997). Windows NT File System Internals: A Developer's Guide (1st ed). O'Reilly. ISBN
1-56592-249-2.

Referencias
[1] UTF-16 codepoints accepted, but not validated
[2] http:/ / www. todosloscomo. com/ 2008/ 01/ 28/ como-recuperar-particiones-danadas/
[3] http:/ / technet2. microsoft. com/ windowsserver/ en/ library/ 81cc8a8a-bd32-4786-a849-03245d68d8e41033. mspx
[4] http:/ / www. ntfs. com/
[5] http:/ / www. winnetmag. com/ Windows/ Article/ ArticleID/ 15719/ 15719. html
[6] http:/ / www. codeproject. com/ datetime/ dstbugs. asp
[7] http:/ / www. linux-ntfs. org/
[8] http:/ / www. ntfs-3g. org/
ext3 225

ext3
ext3

Desarrollador(a) Stephen Tweedie

Nombre completo Third extended file system

Introducido noviembre de 2001 (Linux 2.4.15)

Identificador de la partición 0x83 (MBR)


EBD0A0A2-B9E5-4433-87C0-68B6B72699C7 (GPT)

Estructuras

Contenido del directorio Tabla, Árbol

Localización de archivo bitmap (espacio libre), tabla (metadatos)

Bloques malos Tabla

Límites

Máxima dimensión de archivo 16 GiB – 2 TiB

Máximo número de archivos Variable

Tamaño máximo del nombre 255 bytes


de archivo

Tamaño máximo del volumen 2 TiB – 32 TiB

Caracteres permitidos en todos los bytes excepto NUL y '/'


nombres de archivo

Características

Fechas registradas modification (mtime), attribute modification (ctime), access (atime)

Rango de fecha 14 de diciembre de 1901 - 18 de enero de 2038

Bifurcaciones Sí

Atributos No-atime, append-only, synchronous-write, no-dump, h-tree (directory), immutable, journal,


secure-delete, top (directorio), allow-undelete

Permisos de acceso a archivos Permisos Unix, ACLs y atributos de seguridad arbitrarios (Linux 2.6 y posteriores)

Compresión transparente Noº

Cifrado transparente No (establecido a nivel de bloque de dispositivos)

Sistemas operativos soportados Linux, BSD, Windows (a través de IFS)

ext3 (third extended filesystem o "tercer sistema de archivos extendido") es un sistema de archivos con registro por
diario (journaling). Es el sistema de archivo más usado en distribuciones Linux, aunque en la actualidad está siendo
remplazado por su sucesor, ext4.
La principal diferencia con ext2 es el registro por diario. Un sistema de archivos ext3 puede ser montado y usado
como un sistema de archivos ext2. Otra diferencia importante es que ext3 utiliza un árbol binario balanceado (árbol
AVL) e incorpora el asignador de bloques de disco Orlov.
ext3 226

Ventajas
Aunque su velocidad y escalabilidad es menor que sus competidores, como JFS, ReiserFS o XFS, tiene la ventaja de
permitir actualizar de ext2 a ext3 sin perder los datos almacenados ni tener que formatear el disco. Tiene un menor
consumo de CPU y está considerado más seguro que otros sistemas de ficheros en Linux dada su relativa sencillez y
su mayor tiempo de prueba.
El sistema de archivo ext3 agrega a ext2 lo siguiente:
• Registro por diario.
• Índices en árbol para directorios que ocupan múltiples bloques.
• Crecimiento en línea.

Límites de tamaño
Ext3 tiene dos límites de tamaño distintos. Uno para archivos y otro para el tamaño del sistema de archivos entero.
El límite del tamaño del sistema de archivos es es 231−1 bloques

Tamaño del Tamaño máximo de los Tamaño máximo del sistema de ficheros
bloque archivos

1 KB 16 GB 2 TB

2 KB 256 GB 8 TB

4 KB 2 TB 16 TB

[1] 2 TB 32 TB
8 KB

[1] 8 KiB el tamaño del bloque solo esta disponible en arquitecturas que permitan 8 KiBs, como Alpha.

Niveles del Journaling


Hay tres niveles posibles de Journaling (registro por diario)
Diario (riesgo bajo)
Los metadatos y los ficheros de contenido son copiados al diario antes de ser llevados al sistema de archivos
principal. Como el diario está en el disco continuamente puede mejorar el rendimiento en ciertas ocasiones. En
otras ocasiones el rendimiento es peor porque los datos deben ser escritos dos veces, una al diario y otra a la
parte principal del sistema de archivos.
Pedido (riesgo medio)
Solo los metadatos son registrados en el diario, los contenidos no, pero está asegurado que el contenido del
archivo es escrito en el disco antes de que el metadato asociado se marque como transcrito en el diario. Es el
sistema por defecto en la mayoría de las distribuciones de Linux. Si hay un bajón de tensión o kernel Panic
cuando el fichero se está escribiendo o está empezando, el diario indicará que el nuevo archivo o el intento no
ha sido pasado, por lo que sera purgado por el proceso de limpiado
Reescritura (riesgo alto)
Solo los metadatos son registrados en el diario, el contenido de los archivos no. Los contenidos pueden estar
escritos antes o después de que el diario se actualice. Como resultado, los archivos modificados correctamente
antes de una ruptura pueden volverse corruptos. Por ejemplo, un archivo pendiente de ser marcado en el diario
como mayor de lo que actualmente es, convirtiendo en basura al final de la comprobación. Las versiones
antiguas de los archivos pueden aparecer inesperadamente después de una recuperación de diario. La carencia
de sincronización entre los datos y el diario es rápidamente subsanada en muchos casos. JFS usa este nivel de
journaling, pero se asegura de que cualquier basura es borrada al reiniciar
ext3 227

Desventajas

Funcionalidad
Como ext3 está hecho para ser compatible con ext2, la mayoría de las estructuras del archivación son similares a las
del ext2. Por ello, ext3 carece de muchas características de los diseños más recientes como las extensiones, la
localización dinámica de los inodos, y la sublocalización de los bloques. Hay un límite de 31998 subdirectorios por
cada directorio, que se derivan de su límite de 32 links por inodo. Ext3, como la mayoría de los sistemas de archivos
actuales de Linux, no puede ser chequeado por el fsck mientras el sistema de archivos está montado para la escritura.
Si se intenta chequear un sistema de ficheros que está montado puede detectar falsos errores donde los datos no han
sido volcados al disco todavía, y corromper el sistema de archivos al intentar arreglar esos errores.

Fragmentación
No hay herramienta de desfragmentación online para ext3 que funcione en nivel del sistema de archivos. Existe un
desfragmentador offline para ext2, e2defrag, pero requiere que el sistema de archivos ext3 sea reconvertido a ext2
antes de iniciarse. Pero dependiendo de los bits encendidos en el sistema, e2defrag puede destruir datos. No sabe
como tratar la mayoría de las nuevas características de ext3. Hay herramientas de usuario para desfragmentar como
Shake y Defrag. Shake trabaja localizando para todo el archivo como una operación, lo que generalmente causa que
el localizador encuentre espacio continuo en el disco. También intenta escribir archivos usados al mismo tiempo que
otros. Defrag trabaja copiando cada archivo sobre sí mismo. De todas formas solo funcionan si el sistema de
archivos esta razonablemente vacío. No existe una verdadera herramienta de desfragmentacion para ext3. Como se
viene diciendo, la guía de administración de Linux dice: "Los modernos sistemas de archivos de Linux mantienen la
fragmentación al mínimo manteniendo los bloques de un archivo juntos, aunque no puedan ser guardados en sectores
consecutivos. Algunos sistemas de archivos, como ext3, localizan efectivamente los bloques libres más cercanos a
otros en el archivo. Por ello no es necesario preocuparse por la fragmentación en un sistema de Linux" Mientras ext3
es más resistente a la fragmentacián que Fat, nada evita que los sistemas ext3 se puedan fragmentar con el tiempo.
Consecuentemente el sucesor de ext3, ext4, incluye una utilidad de desfragmentación y soporte para extensiones
(regiones contiguas del fichero).

Compresión
El soporte para la compresión está disponible como un parche no oficial para ext3. Este parche es un porte directo de
e2compr pero necesita un mayor desarrollo ya que todavía no implementa el journaling. El actual parche es llamado
e3compr y puede ser bajado aquí: (http://sourceforge.net/projects/e3compr/)

No hay comprobación en el diario


Ext3 no hace la suma de verificación cuando está escribiendo en el diario. Si barrier = 0 no está habilitado como una
opción de montaje, y si el hardware está escribiendo fuera de orden, se corre el riesgo de una corrupción muy amplia
del sistema de archivos en caso de que haya un fallo repentino del hardware.
ext3 228

Ext3 en Windows
Aunque Windows no tiene un soporte nativo para ext2 ni ext3, pueden instalarse drivers para poder acceder a ese
tipo de sistemas de archivos. Se puede instalar en todos los sistemas de windows con arquitectura x86.
Este driver hace que se puedan montar las particiones sin tener que usar programas aparte. Nos muestra el sistema de
archivos como si fuese una partición más dentro de windows.
Para bajarse el driver: (http://www.fs-driver.org/download.html).
Otra opción es usar un programa para poder ver y copiar los archivos que hay en una partición con ext3 y ext2 pero
no monta la partición. El programa es Explore2fs y nos permite:
• Lectura ext2
• Lectura ext3
• Arrastrar y soltar
• Soporte de disquetes de 1.44Mb
• LS120 Floppy Disk Support*
• Soporte de discos ZIP & Jazz
• Soporte de discos USB & CF
• Soporte de CDROM
• Exporta archivo como binario
• Exporta archivo como texto
• Exportar directorio
• Ver y ejecutar archivos
• Soporte para discos duros grandes
• Soporte para archivos grandes
• LVM2, detección de ReiserFS
• Soporte Unicode UTF8
Está disponible para las versiones de windows:

* Windows 95
* Windows 98
* Windows 98SE
* Windows ME
* Windows NT 4.0
* Windows 2000
* Windows XP
* Windows XP SP2
* Windows Server 2003

Página principal del programa (http://www.chrysocome.net/explore2fs)

Opciones de montaje

Por defecto
ext3 229

Opción Características

data=ordered Todo los datos son forzados fuera del sistema de archivos princial antes de enlazarlos con los metadatos del journal

commit=nrsec Se le puede decir a ext3 que sincronize todos los datos y metadatos cada "nrsec" segundos. El valor por defecto son 5
segundos. Esto quiere decir que si hay una caída de energía se perderán como mucho 5 segundos de trabajo (el sistema
de ficheros no se verá dañado gracias al journaling). Este valor por defecto (o cualquiera inferior) repercutirá en el
rendimiento, pero es adecuado para proteger los datos. Mientras mayor sea el número mejor será el rendimiento del
sistema. Ponerlo a 0 tendrá el mismo efecto que el valor por defecto.

orlov Esta opción activa el nuevo sistema Orlov de asignación de bloques de disco duro.

bsddf Hace que el comando "df" funcione como en sistemas BSD.

errors=remount-ro Vuelve a montar el sistema de ficheros en modo de sólo lectura tras un error.

data_err=ignore Tan sólo muestra un mensaje de error si ha ocurrido un error en el buffer de un fichero en modo "ordenado"

Les da a los objetos el


mismo ID de grupo que a
su creador.

bh/nobh Ext3 relaciona los buffer heads a páginas de datos y a


• a) Información del mapeo de la caché.
• b) Linka páginas en transacciones para asegurar el orden.
• La opción "bh" fuerza al sistema a usar buffer heads.
• La opción "nobh" trata de evitar asociar buffer heads (disponible sólo para el modo "writeback").

No por defecto

Opción -

journal=update Actualiza el journal del sistema de ficheros de ext3 al formato actual.

journal=inum Cuando ya existe un journal, esta opción es ignorada. En cualquier otro caso esta opción especifica el número de inodos
que representarán el archivo journal del sistema de ficheros ext3

journal_dev=devnum Cuando cambian los valores mínimos y/o máximos del journal de dispositivos externos, esta opción le permite al usuario
especificar la nueva localización del journal. El dispositivo journal es identificado por sus nuevos números mínimos y
máximos codificados en devnum.

noload No carga el journal al montar la unidad.

data=journal Todos los datos son introducidos en el journal antes de empezar a escribir en el sistema de ficheros principal.

data=writeback No se guarda el orden de los datos, los datos pueden ser escritos en el sistema de ficheros principal después de que sus
metadatos hayan sido introducidos en el journal.

barrier=1 Esta opción habilita/deshabilita las barreras. Barrier=0 lo deshabilita y Barrier=1 lo habilita. Si Barrier=0 y el hardware
tiene problemas escribiendo en la caché se corre el riesgo de que el sistema de ficheros se corrompa.

oldalloc Esta opción deshabilita el sistema Orlovde asignación de bloques de disco duro.

user_xattr Habilita los Atributos Extendidos de Usuario. También se tendrá que tener habilitada la opción de tener atributos
extendidos en el kernel (CONFIG_EXT3_FS_XATTR).

nouser_xattr. Deshabilita los Atributos Extendidos de Usuario.

acl Habilita el soporte a la Lista de Acceso de Control POSIX. También se tendrá que tener habilitado el soporte ACL en el
kernel (CONFIG_EXT3_FS_POSIX_ACL)

noacl Deshabilita el soporte a la Lista de Acceso de Control POSIX.

reservation

noreservation

minixdf Hace que "df" actúe como en sistemas Minix.


ext3 230

check=none/nonecheck No hace comprobaciones extra de los bitmaps al montar la unidad.

debug Información extra sobre la depuración es enviada al registro del sistema (syslog).

errors=continue Continua trabajando si se ha producido un error en el sistema de ficheros.

errors=panic Para el ordenador si ocurre un error.

data_err=abort Aborta el journal si ocurre un error en el buffer de un fichero en modo "ordenado".

grpid/bsdgroups Le da a los objetos la misma ID de grupo que a su creador.

resgid=n El ID de grupo que deberán usar los bloques reservados.

resuid=n El ID del usuario que deberán usar los bloques reservados.

sb=n Usa superbloques alternativos en la posición "n".

quota

noquota

grquota

usrquota

Ext4
Existe una versión más reciente de este sistema de archivos llamada Ext4 que implementa un gran cantidad de
nuevas características
Para hacerse una mejor idea de las diferencias con el sistema de archivos ext4 mirar la siguiente tabla
ext3 231

Véase también
• ext2
• ext4
• XFS
• JFS
• ReiserFS
• Sistema de archivos

Enlaces externos
• Driver gratuito para Windows para leer y escribir en ext2 y ext3 (http://ext2fsd.com/) (en inglés). Es software
libre.
• Driver freeware para Windows para leer y escribir en ext2 y ext3 (http://www.fs-driver.org/) (en inglés)
• Solo en Linux(Ext3) (http://www.soloenlinux.com/search/label/Ext3)
• Cómo montar ext3 (y ntfs) en BSD (http://jesus-y-bea.com/blog/index.php?blog=1&cat=19)
• Comparativa de rendimiento entre ext3 y gfs (http://www.linalco.com/noticias-linalco/
estadisticas-de-rendimiento-de-gfs.html)

Formato de disco
El formato de disco en informática es el resultado del proceso de preparación (formateado) de un disco duro o de un
medio externo para el vaciado del sistema de archivos. Aunque hay dos tipos de formato (el físico y el lógico),
habitualmente los usuarios sólo utilizan el lógico.

Formato físico
También llamado de bajo nivel, consiste en colocar marcas en la superficie magnética del disco para dividirlo en
sectores físicos, los cuales pueden ser luego referenciados indicando la cabeza lectora , el sector y cilindro que se
desea leer. En computadoras compatibles el sector físico es de 512 bytes desde los tiempos del MS-DOS, aunque
luego los sistemas operativos los agrupan en clusters al crear el sistema de archivos.
Normalmente sólo los discos flexibles necesitan ser formateados a bajo nivel. Los discos duros vienen formateados
de fábrica y nunca se pierde el formato por operaciones normales incluso si son defectuosas (aunque sí pueden
perderse por campos magnéticos o altas temperaturas). Actualmente los discos duros vienen con tecnología que no
requiere formato a bajo nivel, en algunos casos el disco duro podría dañarse.

Formato lógico
El formato lógico o también llamado sistema de archivos, puede ser realizado habitualmente por los usuarios, aunque
muchos medios vienen ya formateados de fábrica. El formato lógico implanta un sistema de archivos que asigna
sectores a archivos. En los discos duros, para que puedan convivir distintos sistemas de archivos, antes de realizar un
formato lógico hay que dividir el disco en particiones; más tarde, cada partición se formatea por separado.
El formateo de una unidad implica la eliminación de los datos, debido a que se cambia la asignación de archivos a
sectores, con lo que se pierde la vieja asignación que permitía acceder a los archivos.
Cada sistema operativo tiene unos sistemas de archivos más habituales:
• Windows: FAT, FAT16, FAT32, NTFS, EFS, ExFAT.
• Linux: ext2, ext3, ext4, JFS, ReiserFS, XFS.
Formato de disco 232

• Mac: HFS, HFS+.


• Solaris: UFS, ZFS
Antes de poder usar un disco para guardar información, éste deberá ser formateado. Los discos movibles (disquetes,
CD, USB, Unidad Zip, etc.) que se compran normalmente ya se encuentran formateados pero puede encontrar
algunos no formateados de vez en cuando. Un disco duro nuevo, o un dispositivo para grabar en cinta, pueden no
haber sido pre-formateados.
Habitualmente, un formateo completo hace las siguientes cosas:
• Borra toda la información anterior (incluyendo obviamente virus porque son software)
• Establece un sistema para grabar disponiendo qué y dónde se ubicará en el disco.
• Verifica el disco sobre posibles errores físicos o magnéticos que pueda tener lugar en el ordenador.

Enlaces externos
• Como formatear tu computador [1]
• Artículo sobre el borrado de Peter Gutmann [2]

Referencias
[1] http:/ / www. comoformatear. co. cc
[2] http:/ / www. cs. auckland. ac. nz/ ~pgut001/ pubs/ secure_del. html

CCleaner
CCleaner

Desarrollador

Piriform
[1]
Sitio web oficial

Información general

Lanzamiento inicial [2]


27 de noviembre de 2004 (info )

Última versión [3]


2.35.1223 (info )
estable 27 de agosto de 2010

Género Optimizador de sistema

Escrito en C++

Sistema operativo Microsoft Windows 98/98SE/Me/2000/NT/XP/2003/Vista/7

Licencia Software propietario

Idiomas Multilenguaje

En español

CCleaner es una aplicación gratuita, de código cerrado (software no libre), que tiene como propósito mejorar el
rendimiento de cualquier equipo que lo ejecute mediante la eliminación de archivos innecesarios, entradas inválidas
del Registro de Windows y también cuenta con la posibilidad de desinstalar programas desde su interfaz al igual que
inhabilitar la ejecución de aplicaciones en el inicio del sistema con el fin de mejorar la velocidad de arranque del
sistema operativo.
CCleaner 233

La función de limpiar elimina archivos temporales del navegador, del Explorador de Windows, del sistema
operativo, de programas de terceros que tengamos instaladas en nuestro ordenador y también ofrece la posibilidad de
añadir funciones de limpieza un poco más avanzadas, si deseamos un borrado de estos archivos más seguro podemos
optar por elegir un borrado de 1, 3, 7 o de hasta 35 pasadas para que sean menos recuperables por parte de programas
especializados en recuperación de datos, el programa además puede limpiar nuestro equipo cada vez que se inicie.
La función de limpiador de registro localiza y corrige problemas como extensiones de archivos, direcciones de
programas inválidas y otras entradas no validas que tenga el registro, para estar más seguros, CCleaner permite hacer
una copia de seguridad al registro antes de limpiarlo solo por precaución.
En la última función llamada herramientas se pueden desinstalar programas tal y como se realizaría en el panel de
control en windows, además de desinstalar el programa ofrece la posibilidad de renombrar la entrada, borrar la
entrada (eliminar del panel de control el programa pero sin desinstalar el programa) y guardar a un archivo de texto.
También la función herramientas incluye la posibilidad de inhabilitar el inicio automático de algunas o de todas las
aplicaciones a fin de dejar solo las necesarias para poder tener una mejor velocidad de arranque y apagado del
sistema operativo, tal y como lo hace el comando msconfig de Microsoft Windows.
CCleaner se ha convertido en una herramienta fiable y eficaz que limpia a conciencia nuestro equipo y de forma
segura.
Piriform lanza una nueva versión de la aplicación cada dos meses aproximadamente y se puede actualizar
automáticamente si se desea.

Características
CCleaner limpia los siguientes componentes de Windows:
• Internet Explorer: Archivos temporales de Internet, Cookies, Historial, URLs recientemente escritas, Borrar
archivos Index.dat, ubicación últimas descargas e historial de autocompletado.
• Mozilla Firefox: Caché de Internet, Cookies, Historial de Descargas, Historial de Internet y Información guardada
de formularios.
• Google Chrome
• Opera
• Safari
• Papelera de reciclaje
• Portapapeles
• Los archivos temporales de Windows
• Los archivos de registro de Windows
• Documentos recientes (en el menú Inicio)
• Ejecutar la historia (en el menú Inicio)
• Asistente de búsqueda de Windows XP historia
• Windows XP Prefetch datos antiguos
• Volcados de memoria de Windows después de los accidentes
• Los fragmentos de archivo chkdsk
• los archivos de Microsoft office 2010
Además, las opciones avanzadas permiten la limpieza de:
• Menú Orden caché
• Bandeja de Notificaciones de caché
• Tamaño de ventana y ubicación de caché
• Ayudar a la historia de usuario
• Archivos de registro de IIS
CCleaner 234

• Carpetas personalizadas
Limpieza de aplicaciones:
Así como la limpieza de viejos archivos y configuraciones dejadas por componentes estándar de Windows, CCleaner
también limpia los archivos temporales y listas de archivos recientes de muchas aplicaciones. Incluye:
• Firefox, Opera, Safari, Media Player, eMule, Kazaa, Google Toolbar, Netscape, Microsoft Office, Nero, Adobe
Acrobat Reader, WinRAR, WinAce, WinZip, Windows Live Messenger, Google Earth, Adobe Reader, Adobe
Photoshop, Adobe Illustrator, etc.
Limpieza de registro:
CCleaner utiliza un avanzado limpiador del registro para ver si hay problemas e incoherencias. Se puede comprobar
lo siguiente:
• DLLs compartidas faltantes
• Extensiones de archivos inválidas
• Entradas de ActiveX y Class
• Tipo de Librerias
• Aplicaciones
• Fuentes
• Rutas de aplicación
• Archivos de ayuda
• Instalador
• Programas obsoletos
• Ejecución en el Inicio
• Clasificación del menú de Inicio
• Cache MUI

Véase también
• Defraggler
• Recuva
• Piriform

Enlaces externos
• Sitio web oficial de CCleaner [1] (en inglés)
• Sitio web oficial de Piriform [4] (en inglés)

Referencias
[1] http:/ / www. ccleaner. com
[2] http:/ / www. filehippo. com/ download_ccleaner/ tech/ 1/
[3] http:/ / www. ccleaner. com/ download/ version-history
[4] http:/ / www. piriform. com
TuneUp Utilities 235

TuneUp Utilities
La versión actual de este artículo o sección parece estar escrita a modo de publicidad.
Para satisfacer los estándares de calidad de Wikipedia y procurar un punto de vista neutral, este artículo o sección puede requerir limpieza.
Por favor discuta este problema en la página de discusión.

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías,
prensa diaria o páginas de Internet fidedignas.
[1]
Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|TuneUp
Utilities}} ~~~~

TuneUp Utilities

Desarrollador

TuneUp
[2]
http:/ / www. tuneup. es

Información general

Diseñado por TuneUp Distribution

Lanzamiento inicial [3]


1996 (info )

Última versión [4]


TuneUp Utilities 2010 9.0.4020 (info )
estable 8 de marzo de 2010

Género Paquete de utilidades

Sistema operativo Microsoft Windows

Licencia Shareware

Idiomas Alemán, francés, inglés, neerlandés, español, polaco e italiano

En español

Soporte técnico

[5]
Soporte Web

Versiones

TuneUp 97
TuneUp Utilities 2004
TuneUp Utilities 2006
TuneUp Utilities 2007
TuneUp Utilities 2008
TuneUp Utilities 2009
TuneUp Utilities 2010

TuneUp Utilities es un paquete de aplicaciones cuya misión consiste en realizar un completo mantenimiento al
ordenador. Entre otros propósitos, permite desfragmentar el disco duro, eliminar archivos temporales, realizar ajustes
automáticos para incrementar la velocidad de navegación en Internet, desfragmentar y corregir errores del registro,
así como personalizar la apariencia del sistema.Cada módulo tiene sus funciones.
TuneUp Utilities 236

Módulos

Mejora del rendimiento


• TuneUp Drive Defrag: Clasifica los datos de las unidades de disco en bloques relacionados y los selecciona de
forma inteligente para obtener un accceso de lectura rápido.
Esto hace que Windows se inicie más rápido y que el tiempo de acceso a los programas sea menor.
• TuneUp Registry Defrag: Vuelve a guardar el registro y elimina con ello los problemas y fallos estructurales.
Los programas pueden acceder con más rapidez y de forma más fiable a los valores del registro. Windows se ejecuta
con estabilidad y rapidez.
• TuneUp Speed Optimizer: Consigue un rendimiento óptimo del sistema según configuraciones previas del
sistema influyendo en la óptica y el rendimiento que se desee obtener y que se pueda conseguir.
• TuneUp StartUp Manager: Proporciona una entrada a la lista de programas que se inicia junto con Windows y
permite la selección de aquellas entradas no deseadas.
Aumenta la velocidad de arranque del sistema.
• TuneUp Memory Optimizer: (sólo para Windows XP)
Supervisa en segundo plano el sistema y libera espacio de memoria cuando hace falta, para aumentar el rendimiento
del sistema.
Los programas se ejecutan de forma más rápida y fiable.

Aumento de espacio en disco


• TuneUp Disk Space Explorer: Muestra los archivos y carpetas según distintos criterios.
Además, se pueden seleccionar cuales funciones de Windows se pueden desactivar para obtener más espacio en
disco y mayor velocidad; entre estas funciones se pueden encontrar:
• Modo de ahorro energia "Hibernacion"
• Windows Messenger
• Búsqueda de escritorio de Windows.
Y se pueden eliminar archivos y copias de seguridad innecesarios para el sistema.

Orden en Windows
• Mantenimiento con 1 clic: Soluciona los errores del registro, elimina las operaciones inadecuadas, borra los
archivos innecesarios y, desfragmenta el disco duro si es necesario.
• TuneUp Registry Cleaner: Eliminina las entradas que contienen errores y los elementos innecesarios del
registro.
Windows y los programas se ejecutan de forma más estable, ya que las entradas erróneas o inexistentes no hacen que
se relentice el sistema.
• TuneUp ShortCut Cleaner: Borra las referencias de algún destino que ya no exista en el sistema.
Ahorra el tiempo de búsqueda ya que se han eliminado los elementos que faltan
• TuneUp Uninstall Manager: Llava un registro de aquellos programas que se encuentran instalados en el sistema.
TuneUp Utilities 237

Solución de problemas
• TuneUp Disk Doctor: Comprueba si existen errores en la superficie de los discos duros y en la estructura de los
sistema de archivos y los soluciona.
• TuneUp Repair Wizard: Soluciona una gran cantidad de problemas que son notificados por usuarios de
Windows en foros.
• TuneUp Undelete: Busca archivos eliminados permanentemente y los restablece.
De este modo, puede rescatar archivos eliminados accidentalmente.

Personalizar Windows
• TuneUp System Control: Ofrece posibilidades detalladas de establecer cietas opciones de Windows.
Logra adaptar el sistema de forma sencilla y clara a las necesidades del usuario.
• TuneUp Styler: Logra adaptar la superficie de Windows a las necesidades del usuario.

Otras herramientas
• TuneUp Process Manager: Muestra los detalles de todos los procesos que se están ejecutando en Windows.
Se puede controlar el proceso en curso y disponer, de este modo, de un control preciso sobre el uso del procesador,
uso de la memoria y archivos abiertos.
• TuneUp Registry Editor: Permite la edición de forma sencilla y segura del registro.
• TuneUp Shredder: Elimina archivos y capetas de forma segura y permanente.
De este modo, se asegura que no se podrán recuperar nuevamente con software especial.
• TuneUp System Information: Otorga información precisa sobre el software y hardware que se está utilizando, y
proporciona datos del procesador, memoria y veelocidad de transmision de forma clara
• TuneUp Uninstall Manager: Muestra una lista clara de los programas instalados en el sistema y permite
desintalar aquellos programas no deseados.
• Modo Turbo: Es una característica incluida en TuneUp 2010 que al activarse permite un desarrollo fluido de los
programas individuales.
Evita que programas y servicios secundarios, o, tareas de mantenimiento planificadas se ejecuten con recursos de
gran valor.
• Optimización en tiempo real: Acelera en caso necesario el inicio de los programas o la velocidad de reacción
del equipo.

Módulos generales
• TuneUp Rescue Center: Permite volver a deshacer los cambio realizados y administrar los puntos de
recuperación del sistema de Windows.
• TuneUp Update Wizard: Comprueba que el software de TuneUp Utilities se encuentra actualizado.
• Informe de optimización de TuneUp: Muestra el informe de lo que TuneUp ha optimizado en el equipo hasta el
momento.
TuneUp Utilities 238

Interfaz de inicio
En versiones previas a TuneUp 2010 su interfaz de inicio era de tres columnas y señalando información y errores
sobre el mantenimiento, el rendimiento y el estado del sistema; y a un lado los modulos de TuneUp.
Pero, luego en la versión 2010 de TuneUp cambia el área de inicio por un área única divida en cuatro columnas en
donde se señala la información y errores acerca del mantenimiento del sistema, mejora del rendimiento, solución de
problemas y personalizacion de Windows; además, hay un área para el Modo Turbo y un área de avisos.
En cada una de las columnas, en la parte inferior, se pueden desplegar una barra que muestra los diferentes modulos
según la columna en la que se encuentre y al poner el puntero sobre cada uno de estos modulos se muestra la
información de estos en el área de avisos.

Enlaces externos
• TuneUp Utilities International [6]
• TuneUp Utilities España [2]
• TuneUp Utilities Alemania [7]
• TuneUp Utilities Francia [8]
• TuneUp Utilities Inglaterra [9]
Información Adicional [10]

Referencias
[1] http:/ / en. wikipedia. org/ wiki/ Tuneup_utilities
[2] http:/ / www. tuneup. es
[3] http:/ / www. tuneup. de/ products/ tuneup-utilities/
[4] http:/ / www. tune-up. com/ products/ tuneup-utilities/
[5] http:/ / www. tuneup. es/ support/
[6] http:/ / www. tune-up. com
[7] http:/ / www. tuneup. de
[8] http:/ / www. tuneup. fr
[9] http:/ / www. tuneup-software. co. uk
[10] http:/ / tuneup-utilities. softonic. com/
Desfragmentador de disco de Windows 239

Desfragmentador de disco de Windows


Windows Disk Defragmenter

Desarrollador

Microsoft Corporation

Información general

Última versión 6.0.6001


estable 4 de febrero de 2008

Género Desfragmentador de
disco

Sistema operativo Windows

Licencia Microsoft EULA

En español

Desfragmentador de Windows es un programa incluido en Microsoft Windows diseñado para aumentar la


velocidad de acceso al disco (y, en ocasiones, aumentar la cantidad de espacio utilizable) mediante la
desfragmentación, es decir, la reordenación de los archivos almacenados en un disco de manera que sus pedazos
ocupen un espacio contiguo. El objetivo es minimizar el tiempo de movimiento de los cabezales del disco y
aumentar al máximo la velocidad de transferencia.

Historia
Los programas de defragmentación han formado parte de la optimización de disco desde que ésta se estableció en
1975. Pocos, excepto Norton (Symantec) y Microsoft, han distribuido programas de desfragmentación por separado
de métodos de optimización de disco.
Los sistemas MS-DOS antiguos, hasta la versión 5.0 incluida, y Windows NT hasta la versión 4.0 no incluían
utilidades de desfragmentación.
La inclusión gratuita de Defrag, con licencia de Symantec, en MS-DOS versión 6 redujo el uso de productos
comerciales alternativos porque suponían un gasto adicional innecesario para los clientes potenciales.

Windows 9x y ME
Windows 95, Windows 98 y Windows Me incluyen también un desfragmentador. Puede ser invocado de forma
programada mediante el asistente de mantenimiento y acepta opciones de línea de comandos.[1] Su mayor limitación
es que, si el contenido de la unidad cambia durante la desfragmentación, el proceso se reinicia desde el principio (por
razones de seguridad).[2]

Versiones modernas
Windows 2000 y versiones posteriores de Windows incluyen una versión de licencia limitada de Diskeeper
producido por Diskeeper Corporation (antes Executive Software). Windows XP, además, incluye un Defrag.exe de
línea de comandos.[3]
Las técnicas utilizadas por el desfragmentador son los siguientes:[4]
1. Mover todos los índices o información del directorio a un solo lugar. Trasladar este lugar al el centro de los datos,
es decir, a un tercio espacio del total, por lo que el promedio de traslado del cabezal en busca de datos se reduce a
la mitad en comparación con tener la información de directorio en la parte delantera.
Desfragmentador de disco de Windows 240

2. Mover los archivos poco usados lejos del área de directorio.


3. Admitir que el usuario indique qué archivos ignorar, y en cuáles hacer hincapié.
4. Hacer archivos contiguos para que puedan leerse sin búsquedas innecesarias.

Cambios en Windows Vista


En Windows Vista, el desfragmentador incluye una opción para ejecutarse automáticamente mediante el
Programador de Windows y utiliza el recientemente incorporado algoritmo de baja prioridad a fin de que pueda
seguir defragmentando empleando menos recursos (menos actividad de CPU para lectura/escritura de disco) cuando
el ordenador está en uso. La interfaz de usuario se ha simplificado, eliminando totalmente el gráfico de colores y el
indicador de progreso. Tampoco es posible seleccionar las unidades que defragmentar, aunque Windows Vista
Service Pack 1 agrega esta característica.
Si los fragmentos de un archivo tienen más de 64 MB de tamaño, el archivo no es desfragmentado si se usa la
versión GUI. Microsoft ha declarado que esto se debe a que no hay beneficio discernible para el rendimiento puesto
que el tiempo de búsqueda de esos grandes trozos de datos es insignificante en comparación con el tiempo necesario
para leerlos.[5] El resultado, sin embargo, es que el desfragmentador no requiere una cierta cantidad de espacio libre
a fin de desfragmentar con éxito un volumen, a diferencia de la operación de desfragmentación completa, que
requiere al menos el 15% de espacio libre en el volumen. La utilidad de línea de comandos, Defrag.exe en Windows
Vista, ofrece más control sobre el proceso de desfragmentación, como realizar una desfragmentación completa
mediante la consolidación de todos los fragmentos de archivo independientemente de su tamaño.[6] Además,
Defrag.exe no requiere derechos de administrador. Esta utilidad se puede utilizar para desfragmentar volúmenes
específicos o simplemente para analizar los volúmenes como el defragmentador de Windows XP.
Actualmente, el Desfragmentador de disco es mantenido por el equipo "Microsoft's Core File Services" (CFS). En el
Service Pack 1 de Windows Vista se ha actualizado la versión para Vista de manera que incluya las mejoras
desarrolladas en Windows Server 2008. De estas mejoras, la más notable es la habilidad para seleccionar qué
volúmenes deben ser defragmentados, que se ha añadido de nuevo.[7]

Limitaciones
En Windows 2000 y sistemas posteriores, el Desfragmentador de disco ha sufrido las siguientes limitaciones:
• No desfragmenta archivos de la papelera de reciclaje. Tampoco puede desfragmentar archivos en uso.[8]
• No se puede analizar más de un volumen a la vez, ni pueden ejecutarse dos instancias de la aplicación a la vez.[9]
• Sólo pueden desfragmentarse los volúmenes locales; no se soportan volúmenes extraíbles o de red.[9]
• Las versiones GUI anteriores a la incluida con Windows Vista no se pueden ejecutar como tareas programadas;
sin embargo, la utilidad de línea de comandos desde Windows XP puede ser ejecutada como tarea programada.
Además, la versión para Windows 2000 tenía las siguientes limitaciones, que se retiraron en la versión para
Windows XP:[9]
• No se podían defragmentar volúmenes NTFS con tamaños de cluster mayores de 4 kilobytes (KB).
• No era posible afinar el movimiento de datos NTFS no comprimidos. Al mover el cluster de un archivo se
desplazaba también los 4 KB del archivo en que se contenía el cluster.
• Los metadatos NTFS, como la Tabla Maestra de Archivos (MFT), o los metadatos que describen los contenidos
de un directorio, no se desfragmentaban.
• Los archivos cifrados con EFS no se desfragmentaban.
Desfragmentador de disco de Windows 241

Véase también
• Desfragmentación

Referencias
[1] Windows 95 Defrag.exe Command-Line Parameters (en inglés, traducción automática disponible) (http:/ / support. microsoft. com/ kb/
155326)
[2] Description of the Disk Defragmenter Tool in Windows 98/Me (en inglés, traducción automática disponible) (http:/ / support. microsoft. com/
kb/ 186171)
[3] Descripción de la nueva herramienta de línea de comandos Defrag.exe que se incluye con Windows XP (http:/ / support. microsoft. com/ kb/
283080/ es)
[4] "Inside Windows NT Disk Defragmenting", Microsoft Technet (en inglés) (http:/ / technet. microsoft. com/ en-us/ sysinternals/ bb897427.
aspx)
[5] (http:/ / blogs. technet. com/ filecab/ articles/ 440717. aspx) (en inglés)
[6] Disk Defragmenter User Guide (http:/ / www. windowsvistauserguide. com/ disk_defragmenter. htm). WindowsVistaUserGuide.com (27 de
enero de 2007)
[7] Disk Defragmenter in Windows Vista and Windows Server 2008 (en inglés) (http:/ / blogs. technet. com/ filecab/ archive/ 2007/ 01/ 26/
don-t-judge-a-book-by-its-cover-why-windows-vista-defrag-is-cool. aspx)
[8] Disk Fragmentation and System Performance (http:/ / blogs. technet. com/ askperf/ archive/ 2008/ 03/ 14/
disk-fragmentation-and-system-performance. aspx) (en inglés)
[9] Disk Defragmenter Limitations in Windows 2000, Windows XP, and Windows Server 2003 (http:/ / support. microsoft. com/ kb/ 227463)
242

Sistema de Cableado Estructurado

Cableado estructurado
Es el sistema colectivo de cables, canalizaciones, conectores, etiquetas, espacios y demás dispositivos que deben ser
instalados para establecer una infraestructura de telecomunicaciones genérica en un edificio o campus. Las
características e instalación de estos elementos se debe hacer en cumplimiento de estándares para que califiquen
como cableado estructurado. El apego de las instalaciones de cableado estructurado a estándares trae consigo los
beneficios de independencia de proveedor y protocolo (infraestructura genérica), flexibilidad de instalación,
capacidad de crecimiento y facilidad de administración.
El cableado estructurado consiste en el tendido de cables en el interior de un edificio con el propósito de implantar
una red de área local. Suele tratarse de cable de par trenzado de cobre, para redes de tipo IEEE 802.3. No obstante,
también puede tratarse de fibra óptica o cable coaxial.

Descripción
El tendido de cierta complejidad cuando se trata de cubrir áreas extensas tales como un edificio de varias plantas. En
este sentido hay que tener en cuenta las limitaciones de diseño que impone la tecnología de red de área local que se
desea implantar:
• La segmentación del tráfico de red.
• La longitud máxima de cada segmento de red.
• La presencia de interferencias electromagnéticas.
• La necesidad de redes locales virtuales.
• Etc.
Salvando estas limitaciones, la idea del cableado estructurado es simple:
• Tender cables en cada planta del edificio.
• Interconectar los cables de cada planta.

Cableado horizontal o "de planta"


Todos los cables se concentran en el denominado armario de distribución de planta o armario de
telecomunicaciones. Se trata de un bastidor donde se realizan las conexiones eléctricas (o "empalmes") de unos
cables con otros. En algunos casos, según el diseño que requiera la red, puede tratarse de un elemento activo o pasivo
de comunicaciones, es decir, un hub o un switch. En cualquier caso, este armario concentra todos los cables
procedentes de una misma planta. Este subsistema comprende el conjunto de medios de transmisión (cables, fibras,
coaxiales, etc.) que unen los puntos de distribución de planta con el conector o conectores del puesto de trabajo. Ésta
es una de las partes más importantes a la hora del diseño debido a la distribución de los puntos de conexión en la
planta, que no se parece a una red convencional en lo más mínimo.
Cableado estructurado 243

Cableado vertical, troncal o backbone


Después hay que interconectar todos los armarios de distribución de planta mediante otro conjunto de cables que
deben atravesar verticalmente el edificio de planta a planta. Esto se hace a través de las canalizaciones existentes en
el edificio. Si esto no es posible, es necesario habilitar nuevas canalizaciones, aprovechar aberturas existentes
(huecos de ascensor o escaleras), o bien, utilizar la fachada del edificio (poco recomendable). En los casos donde el
armario de distribución ya tiene electrónica de red, el cableado vertical cumple la función de red troncal. Obsérvese
que éste agrega el ancho de banda de todas las plantas. Por tanto, suele utilizarse otra tecnología con mayor
capacidad. Por ejemplo, FDDI o Gigabit Ethernet.

Cuarto principal de equipos y de entrada de servicios


El cableado vertical acaba en una sala donde, de hecho, se concentran todos los cables del edificio. Aquí se sitúa la
electrónica de red y otras infraestructuras de telecomunicaciones, tales como pasarelas, puertas de enlace,
cortafuegos, central telefónica, recepción de TV por cable o satélite, etc., así como el propio Centro de proceso de
datos (es aplicable).

Subsistemas de Cableado Estructurado


El cableado estructurado está compuesto de varios subsistemas:
• Sistema de cableado vertical.
• Sistema de cableado horizontal.
• Sala de área de trabajo.
• Cuarto o espacio de telecomunicaciones.
• Cuarto o espacio de equipo.
• Cuarto o espacio de entrada de servicios.
• Administración, etiquetado y pruebas.
• Sistema de puesta a tierra para telecomunicaciones.
El sistema de canalizaciones puede contener cableado vertical u horizontal.

Estándares Americanos de Cableado Estructurado


• TIA-526-7 “Measurement of Optical Power Loss of Installed Single-Mode Fiber Cable Plant “– OFSTP-7 -
(February 2002)
• TIA-526-14-A Optical Power Loss Measurements of Installed Multimode Fiber Cable Plant – OFSTP-14 -
(August 1998)
• ANSI/TIA/EIA-568-B.1 de Alambrado de Telecomunicaciones para Edificios Comerciales, Parte 1:
Requerimientos Generales, mayo de 2001.
• Adenda ANSI/TIA/EIA-568-B.1-1-2001, Adenda 1, Radio de Curvatura Mínimo para Cables de 4 Pares UTP y
STP, julio de 2001.
• TIA/EIA-568-B.1-2 Commercial Building Telecommunications Cabling Standard Part 1: General Requirements
Addendum 2 – Grounding and Bonding Requirements for Screened Balanced Twisted-Pair Horizontal Cabling -
(February 2003)
• TIA/EIA-568-B.1-3 Commercial Building Telecommunications Cabling Standard Part 1: General Requirements
Addendum 3 – Supportable Distances and Channel Attenuation for Optical Fiber Applications by Fiber Type -
(February 2003)
• TIA/EIA-568-B.1-4 Commercial Building Telecommunications Cabling Standard Part 1: General Requirements
Addendum 4 – Recognition of Category 6 and 850 nm Laser Optimized 50/125 μm Multimode Optical Fiber
Cabling - (February 2003)
Cableado estructurado 244

• TIA/EIA-568-B.1-5 Commercial Building Telecommunications Cabling Standard Part 1: General Requirements


Addendum 5 – Telecommunications Cabling for Telecommunications Enclosures – (March 2004)
• TIA/EIA-568-B.1-7 Commercial Building Telecommunications Cabling Standard Part 1: General Requirements
Addendum 7 - Guidelines for Maintaining Polarity Using Array Connectors – (January 2006)
• TIA/EIA-568-B.2 Commercial Building Telecommunications Cabling Standard Part 2: Balanced Twisted-Pair
Cabling Components - (December 2003)
• TIA/EIA-568-B.2-1 Commercial Building Telecommunications Cabling Standard Part 2: Balanced Twisted-Pair
Cabling Components – Addendum 1 – Transmission Performance Specifications for 4-Pair 100 ohm Category 6
Cabling - (June 2002)
• TIA/EIA-568-B.2-2 Commercial Building Telecommunications Cabling Standard Part 2: Balanced Twisted-Pair
Cabling Components – Addendum 2 – Revision of Sub-clauses - (December 2001)
• TIA/EIA-568-B.2-3 Commercial Building Telecommunications Cabling Standard Part 2: Balanced Twisted-Pair
Cabling Components – Addendum 3 – Additional Considerations for Insertion Loss & Return Loss Pass/Fail
Determination - (March 2002)
• TIA/EIA-568-B.2-4 Commercial Building Telecommunications Cabling Standard Part 2: Balanced Twisted-Pair
Cabling Components – Addendum 4 – Solderless Connection Reliability Requirements for Copper Connecting
Hardware - (June 2002)
• TIA/EIA-568-B.2-5 Commercial Building Telecommunications Cabling Standard Part 2: Balanced Twisted-Pair
Cabling Components – Addendum 5 – Corrections to TIA/EIA-568-B.2 – (January 2003)
• TIA/EIA-568-B.2-6 Commercial Building Telecommunications Cabling Standard Part 2: Balanced Twisted-Pair
Cabling Components – Addendum 6 – Category 6 Related Component Test Procedures – (December 2003)
• TIA/EIA-568-B.2-11 Commercial Building Telecommunications Cabling Standard Part 2: Balanced Twisted-Pair
Cabling Components – Addendum 11 - Specification of 4-Pair UTP and SCTP Cabling – (December 2005)
• TIA/EIA-568-3 Optical Fiber Cabling Components Standard - (April 2002)
• TIA/EIA-568-3.1 Optical Fiber Cabling Components Standard – Addendum 1 – Additional Transmission
Performance Specifications for 50/125 μm Optical Fiber Cables – (April 2002)
• TIA-569-B Commercial Building Standard for Telecommunications Pathways and Spaces - (October 2004)
• TIA-598-C Optical Fiber Cable Color Coding - (January 2005)
• TIA/EIA-606-A Administration Standard for Commercial Telecommunications Infrastructure - (May 2002)
• J-STD-607-A Commercial Building Grounding (Earthing) and Bonding Requirements for Telecommunications -
(October 2002)
• TIA-758-A Customer-owned Outside Plant Telecommunications Infrastructure Standard – August 2004

Estándares de Cables UTP/STP


• Cat 1: actualmente no reconocido por TIA/EIA. Fue usado para comunicaciones telefónicas POTS, IGDN y
cableado de timbrado.
• Cat 2: actualmente no reconocido por TIA/EIA. Fue frecuentemente usado para redes token ring (4 Mbit/s).
• Cat 3: actualmente definido en TIA/EIA-568-B. Fue (y sigue siendo) usado para redes ethernet (10 Mbit/s).
Diseñado para transmisión a frecuencias de hasta 16 MHz.
• Cat 4: actualmente no reconocido por TIA/EIA. Frecuentemente usado en redes token ring (16 Mbit/s). Diseñado
para transmisión a frecuencias de hasta 20 MHz.
• Cat 5: actualmente no reconocido por TIA/EIA. Frecuentemente usado en redes ethernet, fast ethernet (100
Mbit/s) y gigabit ethernet (1000 Mbit/s). Diseñado para transmisión a frecuencias de hasta 100 MHz.
• Cat 5e: actualmente definido en TIA/EIA-568-B. Frecuentemente usado en redes fast ethernet (100 Mbit/s) y
gigabit ethernet (1000 Mbit/s). Diseñado para transmisión a frecuencias de hasta 100 MHz.
• Nota sobre Cat 5e: Siendo compatible con Gigabit ethernet (1000 Mbit/s) se recomienda especificamente el
uso de cable de Categoria 6 para instalaciones de este tipo, de esta manera se evitan perdidas de rendimiento
Cableado estructurado 245

a la vez que se incrementa la compatibilidad de toda la infraestructura.


• Cat 6: actualmente definido en TIA/EIA-568-B. Usado en redes gigabit ethernet (1000 Mbit/s). Diseñado para
transmisión a frecuencias de hasta 250 MHz.
• Cat 6a: actualmente definido en TIA/EIA-568-B. Usado en un futuro en redes 10 gigabit ethernet (10000 Mbit/s).
Diseñado para transmisión a frecuencias de hasta 500 MHz.
• Cat 7: actualmente reconocido por TIA/EIA. Usado en redes 10 gigabit ethernet (10000 Mbit/s). Diseñado para
transmisión a frecuencias de hasta 600 MHz.

Véase también
• WAN (Wide Area Network, Red de área amplia)
• MAN (Metropolitan Area Network, Red de área metropolitana)
• LAN (Local Area Network, Red de área local)
• WLAN(Wireless Local Area Network, Red de área local inalámbrica)

Backbone
La palabra backbone se refiere a las principales conexiones troncales de Internet. Está compuesta de un gran número
de routers comerciales, gubernamentales, universitarios y otros de gran capacidad interconectados que llevan los
datos a través de países, continentes y océanos del mundo mediante mangueras de fibra optica
Parte de la extrema resiliencia de Internet se debe a un alto nivel de redundancia en el backbone con los proveedores
Tier los cuales estan muy regulados y al hecho de que las decisiones de encaminamiento IP se hacen y se actualizan
durante el uso en tiempo real.
El término backbone también se refiere al cableado troncal o subsistema vertical en una instalación de red de área
local que sigue la normativa de cableado estructurado.

Cronología
El backbone original de Internet fue ARPANET.
En 1989 se creó el backbone NSFNet. El ejército de los Estados Unidos de América se separó, creando la red
MILNET, y ARPANET se cerró.
Un plan fue desarrollado para primero expandir más la red NSFNet, antes de convertirlo en obsoleto, creando una
nueva arquitectura de red basada en un encaminamiento descentralizado.
Con el retiro del backbone de Internet de la NSFNet el 30 de abril de 1995, Internet a partir de ahora consiste
enteramente de varios ISPs comerciales y redes privadas (así como redes entre universidades), conectadas a puntos
de peering.
El término backbone de Internet suele referirse a los enlaces entre proveedores y puntos de peering. Sin embargo,
con el uso universal del protocolo de encaminamiento BGP, Internet funciona sin ninguna red central.
Con la llegada de la burbuja de las punto com de 2002, un número grande de empresas de telecomunicaciones se
vieron amenazadas por la bancarrota, y algunas quebraron completamente: por ejemplo, la red EBONE desapareció
completamente. Ésta fue una prueba exitosa del nivel de tolerancia de errores y redundancia de Internet.
Backbone 246

Visión general
La "columna vertebral" de Internet consiste en muchas redes diferentes. Normalmente, el término se usa para
describir grandes redes que se interconectan entre ellas y pueden tener ISPs individuales como clientes. Por ejemplo,
un ISP local puede proporcionar servicio para una única ciudad, y conectar a un proveedor regional que tiene varios
ISPs locales como clientes. Este proveedor regional conecta a una de las redes del backbone, que proporciona
conexiones a escala nacional o mundial.
Estos proveedores backbone normalmente proporcionan instalaciones de conexión en muchas ciudades para sus
clientes, y ellos mismos conectan con otros proveedores backbone en IXPs (Internet Exchange Point) como el
CATNIX de Barcelona, el ESPANIX de Madrid o el GALNIX de Santiago de Compostela. El más grande de estos
IXP en términos de tasa de transferencia y rutas accesibles es el ChtIX en Roubaix Valley, Francia.

Quiénes lo implementan
La redes de backbones suelen implementarlas entes comerciales, educativos o gubernamentales, como redes
militares. Algunas grandes compañías que proporcionan conectividad backbone son UUnet (ahora una división de
Verizon), British Telecom, Global Crossing, Cogent Communications, AT&T, Sprint Nextel, OVH, France
Télécom, BSNL, Teleglobe, Qwest y Savvis. En América Latina, entre otros, se puede encontrar IMPSAT,
TELECOM y G&DCOM.

Tipos de backbone
Existen 2 tipos: cascada (cascadeado) y colapsado. En el primero, todos los puestos de trabajo (host, terminales)
están conectados a un enlace troncal con el cuarto de equipos (ER); esta arquitectura es casi obsoleta y genera mucho
tráfico innecesario en la red. En el colapsado existen varios tramos que salen del ER, permitiendo una mejor
distribución de servicios, sin saturar ningún sector de la red y dando una mejor calidad de señal a los tramos lejos al
ER.

Véase también
• encaminamiento
• punto neutro
Encaminamiento 247

Encaminamiento
Encaminamiento (o enrutamiento, ruteo)
es la función de buscar un camino entre
todos los posibles en una red de paquetes
cuyas topologías poseen una gran
conectividad. Dado que se trata de encontrar
la mejor ruta posible, lo primero será definir
qué se entiende por mejor ruta y en
consecuencia cuál es la métrica que se debe
utilizar para medirla.

Parámetros

Métrica de la red
Puede ser por ejemplo el número de saltos
necesarios para ir de un nodo a otro. Aunque
ésta no se trata de una métrica óptima ya
que supone “1” para todos los enlaces, es
sencilla y suele ofrecer buenos resultados.
Cálculo de una ruta óptima para vehículos entre un punto de origen (en verde) y un
Otro tipo es la medición del retardo de punto de destino (en rojo) a partir de cartografía del proyecto OpenStreetMap.

tránsito entre nodos vecinos, en la que la


métrica se expresa en unidades de tiempo y sus valores no son constantes sino que dependen del tráfico de la red .

Mejor Ruta
Entendemos por mejor ruta aquella que cumple las siguientes condiciones:
• Presenta el menor retardo medio de tránsito.
• Consigue mantener acotado el retardo entre pares de nodos de la red.
• Consigue ofrecer altas cadencias efectivas independientemente del retardo medio de tránsito
• Permite ofrecer el menor costo.
El criterio más sencillo es elegir el camino más corto, es decir la ruta que pasa por el menor número de nodos. Una
generalización de este criterio es el de “coste mínimo”. En general, el concepto de distancia o coste de un canal es
una medida de la calidad del enlace basado en la métrica que se haya definido. En la práctica se utilizan varias
métricas simultáneamente.
Encaminamiento 248

Encaminamiento en redes de circuitos virtuales y de datagramas


Cuando la red de conmutación de paquetes funciona en modo circuito virtual, generalmente la función de
encaminamiento establece una ruta que no cambia durante el tiempo de vida de ese circuito virtual. En este caso el
encaminamiento se decide por sesión.
Una red que funciona en modo datagrama no tiene el compromiso de garantizar la entrega ordenada de los paquetes,
por lo que los nodos pueden cambiar el criterio de encaminamiento para cada paquete que ha de mandar. Cualquier
cambio en la topología de la red tiene fácil solución en cuanto a encaminamiento se refiere, una vez que el algoritmo
correspondiente haya descubierto el nuevo camino óptimo.

Clasificación de los métodos de encaminamiento


Los algoritmos de encaminamiento pueden agruparse en:

Determinísticos o estáticos
No tienen en cuenta el estado de la subred al tomar las decisiones de encaminamiento. Las tablas de encaminamiento
de los nodos se configuran de forma manual y permanecen inalterables hasta que no se vuelve a actuar sobre ellas.
Por tanto, la adaptación en tiempo real a los cambios de las condiciones de la red es nula.
El cálculo de la ruta óptima es también off-line por lo que no importa ni la complejidad del algoritmo ni el tiempo
requerido para su convergencia. Ej: algoritmo de Dijkstra.
Estos algoritmos son rígidos, rápidos y de diseño simple, sin embargo son los que peores decisiones toman en
general.

Adaptativos o dinámicos
Pueden hacer más tolerantes a cambios en la subred tales como variaciones en el tráfico, incremento del retardo o
fallas en la topología. El encaminamiento dinámico o adaptativo se puede clasificar a su vez en tres categorías,
dependiendo de donde se tomen las decisiones y del origen de la información intercambiada:
• Adaptativo centralizado. Todos los nodos de la red son iguales excepto un nodo central que es quien recoge la
información de control y los datos de los demás nodos para calcular con ellos la tabla de encaminamiento. Este
método tiene el inconveniente de que consume abundantes recursos de la propia red.
• Adaptativo distribuido. Este tipo de encaminamiento se caracteriza porque el algoritmo correspondiente se ejecuta
por igual en todos los nodos de la subred. Cada nodo recalcula continuamente la tabla de encaminamiento a partir
de dicha información y de la que contiene en su propia base de datos. A este tipo pertenecen dos de los más
utilizados en Internet que son los algoritmos por vector de distancias y los de estado de enlace.
• Adaptativo aislado. Se caracterizan por la sencillez del método que utilizan para adaptarse al estado cambiante de
la red. Su respuesta a los cambios de tráfico o de topología se obtiene a partir de la información propia y local de
cada nodo. Un caso típico es el encaminamiento “por inundación” cuyo mecanismo consiste en reenviar cada
paquete recibido con destino a otros nodos, por todos los enlaces excepto por el que llegó.
Encaminamiento 249

Tipos de Encaminamiento Información de Decisión de encaminamiento Adaptación a los cambios


control

Determinísticos ESTÁTICOS NO OFF-LINE NO


NO OFF-LINE REDUCIDA
CUASIESTÁTICOS

Adaptativos CENTRALIZADO NODO CENTRAL NODO CENTRAL SI


ENTRE NODOS CADA NODO SI
DISTRIBUIDO
NO CADA NODO SI
AISLADO

Encaminamiento adaptativo con algoritmos distribuidos


El encaminamiento mediante algoritmos distribuidos constituye el prototipo de modelo de encaminamiento
adaptativo. Los algoritmos se ejecutan en los nodos de la red con los últimos datos que han recibido sobre su estado
y convergen rápidamente optimizando sus nuevas rutas.
El resultado es que las tablas de encaminamiento se adaptan automáticamente a los cambios de la red y a las
sobrecargas de tráfico. A cambio, los algoritmos tienen una mayor complejidad. Existen dos tipos principales de
algoritmos de encaminamiento adaptativo distribuido.

Algoritmos por “vector de distancias”


“Artículo principal: Vector de distancias”
Estos métodos utilizan el algoritmo de Bellman-Ford. Busca la ruta de menor coste por el método de búsqueda
indirecta El vector de distancias asociado al nodo de una red, es un paquete de control que contiene la distancia a los
nodos de la red conocidos hasta el momento.
Cada nodo envía a sus vecinos las distancias que conoce a través de este paquete. Los nodos vecinos examinan esta
información y la comparan con la que ya tienen, actualizando su tabla de encaminamiento.
Ejemplos de protocolos por vector de distancias: RIP (versión 1 y 2), IGRP.

Algoritmos de “estado de enlace”


“Artículo principal: Estado de enlace”
Este tipo de encaminamiento se basa en que cada nodo llegue a conocer la topología de la red y los costes (retardos)
asociados a los enlaces, para que a partir de estos datos, pueda obtener el árbol y la tabla de encaminamiento tras
aplicar el algoritmo de coste mínimo (algoritmo de Dijkstra) al grafo de la red
Los protocolos estado de enlace incluyen OSPF e IS-IS.
Encaminamiento 250

Protocolos de encaminamiento y sistemas autónomos


En Internet, un sistema autónomo o AS se trata de un conjunto de redes IP y routers que se encuentran bajo el control
de una misma entidad (en ocasiones varias) y que poseen una política de encaminamiento similar a Internet.
Dependiendo de la relación de un router con un sistema autónomo (AS), encontramos diferentes clasificaciones de
protocolos:
1. Protocolos de encaminamiento Ad hoc. Se encuentran en aquellas redes que tienen poca o ninguna infraestructura.
2. IGPs (Interior Gateway Protocols). Intercambian información de encaminamiento dentro de un único sistema
autónomo. Los ejemplos más comunes son:
• IGRP (Interior Gateway Routing Protocol). La diferencia con la RIP es la metrica de enrutamiento
• EIGRP (Enhanced Interior Gateway Routing Protocol). Es un protocolo de enrutamiento vector-distancia y estado
de enlace
• OSPF (Open Shortest Path First). Enrutamiento jerárquico de pasarela interior
• RIP (Routing Information Protocol). No soporta conceptos de sistemas autonomos
• IS-IS (Intermediate System to Intermediate System). Protocolo de intercambio enrutador de sistema intermedio a
sistema intermedio
3. EGPs (Exterior Gateway Protocol). Intercambian rutas entre diferentes sistemas autónomos. Encontramos:
• EGP. Utilizado para conectar la red de backbones de la Antigua Internet.
• BGP (Border Gateway Protocol). La actual versión, BGPv4 data de 1995.

Véase también
• Router
• Estado de enlace
• Vector de distancias
• IGRP
• IS-IS
• OSPF
• RIP
• BGP
• Zebra - Maneja RIP, OSPF, MPLS, BGP, etcétera
• Quagga - Desarrollado a partir de Zebra
• Iproute2
• Problema de rutas de vehículos
Punto neutro 251

Punto neutro
Es una infraestructura física a través de la cual los proveedores de servicios de Internet (PSI) intercambian el tráfico
de Internet entre sus redes. Esta instalación reduce la porción del tráfico de un PSI que debe ser entregado hacia la
red, lo que reduce el costo promedio por bit de la entrega de su servicio. Además, el aumento del número de rutas
"aprendidas" a través del punto neutro mejora la eficiencia de enrutamiento y la tolerancia a fallas.

Propósito
El propósito principal de un punto neutro es permitir que las redes se interconecten directamente, a través de la
infraestructura, en lugar de hacerlo a través de una o más redes de terceros. Las ventajas de la interconexión directa
son numerosas, pero las razones principales son el coste, la latencia y el ancho de banda. El tráfico que pasa a través
de la infraestructura no suele ser facturado por cualquiera de las partes, a diferencia del tráfico hacia el proveedor de
conectividad de un PSI. La interconexión directa, a menudo situada en la misma ciudad que ambas redes, evita la
necesidad de que los datos viajen a otras ciudades (potencialmente hacia otros continentes) para pasar de una red a
otra, lo que reduce la latencia. La tercera ventaja, la velocidad, es más notable en las áreas que tienen poco
desarrolladas las conexiones de larga distancia. Los PSI en estas regiones podrían tener que pagar entre 10 o 100
veces más por el transporte de datos que los PSI en América del Norte, Europa o Japón. Por lo tanto, estos PSI tienen
normalmente conexiones más lenta y limitadas hacia el resto de la Internet. Sin embargo, una conexión a un punto
neutro local les puede permitir el transferir datos sin límite, y sin costo, mejorando enormemente el ancho de banda
entre los clientes de los dos PSI adyacentes.
La técnica y la logística de negocios de intercambio de tráfico entre los PSI se rige por los acuerdos de interconexión
mutua. En virtud de dichos acuerdos, el tráfico a menudo se intercambia sin compensación. Cuando un punto neutro
incurre en costos de operación, por lo general éstos son compartidos entre todos sus participantes. En los
intercambios más caros, los participantes pagan una cuota mensual o anual, por lo general determinada por la
velocidad del puerto o puertos que están usando, o menos comúnmente por el volumen de tráfico efectuado a través
de la infraestructura del punto neutro. Las cuotas basadas en el volumen de tráfico no son populares porque no
ofrecen incentivos al crecimiento del punto neutro. Algunos puntos neutros cobran una tarifa de configuración para
compensar los gastos de puerto del puerto del conmutador y cualesquiera adaptadores de medios, tales como
convertidores de interfaces gigabit, transceptores enchufables, transceptores XFP, etc.
Punto neutro 252

Evolución de los puntos neutros


Un Punto Neutro normalmente
consiste en uno o más conmutadores
de red, a los cuales se conectan cada
uno de los PSI participantes. Antes de
la existencia de los conmutadores, los
puntos neutros normalmente usaban
concentradores con enlaces de fibra
óptica entre repetidores (FOIRL) o
anillos FDDI, migrando hacia los
conmutadores Ethernet y FDDI tan
pronto estos estuvieron disponibles en
1993 y 1994, respectivamente. Los
conmutadores ATM fueron
brevemente usados por unos pocos
Conmutador de fibra óptica en el punto neutro de Amsterdam.
puntos neutros al final de los años 90,
lo que representa aproximadamente el
4% del mercado en su mejor momento, y hubo un intento fallido del punto neutro de Suecia, NetNod, para utilizar
SRP/DPT (tecnología conjunta de FDDI y SONET), pero ha prevalecido Ethernet, que representa más del 95% de
las topologías de conmutadores en Internet. Todas las velocidades de puerto Ethernet se encuentran en los puntos
neutros actuales, que van desde los puertos de 10 Mbit/s en uso en países pequeños, hasta los puertos de 10 Gbit/s en
centros importantes como los de Seúl, Nueva York, Londres, Frankfurt, Amsterdam, y Palo Alto.

Puntos Neutros en España


Actualmente en España existen los puntos neutros de Galnix, Euskonix, Catnix y Espanix, siendo este último el más
importante en cuanto a cantidad de tráfico en España, y uno de los mas altos de Europa, pasando de los 125Gb/seg.

Véase también
• Lista de puntos neutros (en inglés)
• Lista de puntos neutros por tamaño (en inglés)

Enlaces externos
• Espanix [1]
• European Internet Exchange Association [2]
• EUSKONIX [3]
• galNIX [4]
• Listado de puntos neutros [5] (en idioma inglés)
• Listado de puntos neutros, página oficial de BGP4 [6] (en idioma inglés)
• NAP del CABASE [7]
• NAP Perú [8]
• NAP Colombia [9]
Punto neutro 253

Referencias
[1] http:/ / www. espanix. net/
[2] http:/ / www. euro-ix. net
[3] http:/ / www. euskonix. net/
[4] http:/ / www. galnix. net
[5] http:/ / www. dmoz. org/ Computers/ Internet/ Routers_and_Routing/ Internet_Exchanges/
[6] http:/ / www. bgp4. as/ internet-exchanges
[7] http:/ / www. cabase. org. ar/ interna. php?sec=3
[8] http:/ / www. nap. pe
[9] http:/ / www. nap. com. co

Topología de red
La topología de red se define como la cadena de comunicación usada por los nodos que conforman una red para
comunicarse. Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su apariencia estética, por
la cual puede comenzar con la inserción del servicio de internet desde el proveedor, pasando por el router, luego por
un switch y este deriva a otro switch u otro router o sencillamente a los hosts (estaciones de trabajo), el resultado de
esto es una red con apariencia de árbol porque desde el primer router que se tiene se ramifica la distribución de
internet dando lugar a la creación de nuevas redes o subredes tanto internas como externas. Además de la topología
estética, se puede dar una topología lógica a la red y eso dependerá de lo que se necesite en el momento.
En algunos casos se puede usar la palabra arquitectura en un sentido relajado para hablar a la vez de la disposición
física del cableado y de cómo el protocolo considera dicho cableado. Así, en un anillo con una MAU podemos decir
que tenemos una topología en anillo, o de que se trata de un anillo con topología en estrella.
La topología de red la determina únicamente la configuración de las conexiones entre nodos. La distancia entre los
nodos, las interconexiones físicas, las tasas de transmisión y los tipos de señales no pertenecen a la topología de la
red, aunque pueden verse afectados por la misma.

Tipos de arquitecturas

Redes de araña
• La topología en estrella es la posibilidad de fallo de red conectando todos los nodos a un nodo central. Cuando se
aplica a una red basada en la topología estrella este concentrador central reenvía todas las transmisiones recibidas
de cualquier nodo periférico a todos los nodos periféricos de la red, algunas veces incluso al nodo que lo envió.
Todos los nodos periféricos se pueden comunicar con los demás transmitiendo o recibiendo del nodo central
solamente. Un fallo en la línea de conexión de cualquier nodo con el nodo central provocaría el aislamiento de ese
nodo respecto a los demás, pero el resto de sistemas permanecería intacto. El tipo de concentrador hub se utiliza
en esta topología, aunque ya es muy obsoleto; se suele usar comúnmente un switch.
La desventaja radica en la carga que recae sobre el nodo central. La cantidad de tráfico que deberá soportar es grande
y aumentará conforme vayamos agregando más nodos periféricos, lo que la hace poco recomendable para redes de
gran tamaño. Además, un fallo en el nodo central puede dejar inoperante a toda la red. Esto último conlleva también
una mayor vulnerabilidad de la red, en su conjunto, ante ataques.
Si el nodo central es pasivo, el nodo origen debe ser capaz de tolerar un eco de su transmisión. Una red en estrella
activa tiene un nodo central activo que normalmente tiene los medios para prevenir problemas relacionados con el
eco.
• Una topología en árbol (también conocida como topología jerárquica) puede ser vista como una colección de
redes en estrella ordenadas en una jerarquía. Éste árbol tiene nodos periféricos individuales (por ejemplo hojas)
Topología de red 254

que requieren transmitir a y recibir de otro nodo solamente y no necesitan actuar como repetidores o
regeneradores. Al contrario que en las redes en estrella, la función del nodo central se puede distribuir.
Como en las redes en estrella convencionales, los nodos individuales pueden quedar aislados de la red por un fall