Está en la página 1de 629

II.

Elementos que intervienen en La Comunicación

Publicado por Esther | en 1. La Comunicación en La Empresa | 07-10-2009 | 2 comentarios

A continuación analizamos cada uno de los elementos que intervienen en el proceso de


comunicación:

Emisor: es la persona o conjunto de personas que transmiten el mensaje.

Receptor: es el destinatario del mensaje y quíen debe interpretar el sentido de éste.

Mensaje: es el objeto de la comunicación, la información, opinión, datos o pensamiento.

Canal: Es el medio a través del cual se transmite la información. Ejemplo: En la comunicación


oral el canal sería la voz y el aire que la transporta

Código: Son el conjunto de símbolos o signos utilizados para expresar el mensaje (gestos,
palabras, código morse, etc.). El código más usado es el lenguaje verbal, tanto oral como escrito.

Contexto: Es la situación real en la que se encuentra el emisor y el receptor en el momento de la


comunicación, y que permite comprender el significado del mensaje.

Retroalimentación: Es lo que permite al emisor determinar si el receptor ha recibido y


comprendido adecuadamente su mensaje.

La comunicación escrita

El pensante Idiomas y lenguaje

Para la Lingüística, la Comunicación hecha en base al Lenguaje será esencialmente verbal, puesto
que esta disciplina concibe a los elementos que intervienen dentro de este proceso como hechos y
capacidades netamente ligadas a la oralidad, es decir a la capacidad del individuo de generar y
comprender un Lenguaje, conformado en base a signos lingüísticos.

Lo más reciente:

Recetas de bebidas a base de arracacha

Receta de ensalada a base de arracacha


Comunicación Escrita

Sin embargo, hace miles de años, el hombre primitivo se encontró también con la necesidad de
plasmar en un medio físico aquellos que podía comunicar o entender a través del lenguaje verbal,
inventando entonces la escritura, y con ello la Historia. No obstante, para la Lingüística la escritura
se reduce al registro que puede hacer un hablante de lo que previamente ha ideado en palabras,
puesto que para esta disciplina el pensamiento también va hilado a través del Lenguaje.

No obstante, más allá de las discusiones que pretenden dilucidar si la escritura se puede
considerar lenguaje o no, lo cierto es que ésta constituye una forma de comunicación, entre un
escritor y un lector, la cual usa un medio físico para su transmisión. Incluso, si se revisan los
elementos que influyen dentro de la Comunicación escrita se puede llegar a la conclusión de que
realmente se trata de una forma o sistema comunicativo, el cual cuenta con los siguientes
elementos:

Emisor: papel que cumpliría el escritor

Receptor: función desempeñada por el lector o grupo de lectores

Mensaje: que estaría constituido por el contenido del mensaje transmitido.

Medio: conformado por el soporte material en el cual el emisor plasma el mensaje.

Código: el cual estaría conformado por la Lengua en la cual está escrito el mensaje, y que en
teoría debería ser manejada por ambos participantes, a fin de lograr la correcta codificación y
decodificación del mensaje, procurando su entendimiento, fin último de todo proceso
comunicativo.

Características de la Comunicación Escrita

Así mismo, estas diferencias sustanciales con respecto a la Comunicación Oral, hacen que la
Comunicación Escrita cuente con ciertas características o aspectos un poco diferentes, lo cual
viene a reforzar la afirmación de los lingüistas de contar con dos formas distintas de comunicación,
cuando de registros orales y escritos se trata.

En este sentido, resulta pertinente señalar cuáles son esas características totalmente inherentes al
acto comunicativo que se da por medios escritos. A continuación, algunas de las más relevantes:

¿Cuál era la profesión de Benito Juárez?


Repartos directamente proporcionales

Frases de amor

Sobre la inmediatez

A diferencia de la comunicación oral, la cual es simultánea e inmediata, la comunicación escrita no


necesita del factor instantáneo para poder realizarse, puesto que el emisor puede dejar su
pensamiento por escrito, siendo éste leído por el receptor incluso siglos después. De esta forma, la
Comunicación Escrita no necesita del factor inmediato para realizarse.

Sobre el contacto de los involucrados

En este sentido, los participantes de un proceso de comunicación escrito, así como no necesitan
encontrarse en el mismo espacio y tiempo, tampoco deben conocerse, al contrario de lo que
sucede la comunicación oral, en donde emisor y receptor deben sostener una interacción personal
para que se dé el proceso como tal. Por el contrario, en la escrita no necesitan siquiera ser de la
misma época, o que el emisor se encuentre vivo en el momento de que el receptor lee el mensaje.

Sobre la retroalimentación

Sin embargo, el hecho de que sea una comunicación diferida, a distancia y en donde los
involucrados no llegan a conocerse también involucra que este tipo de comunicación carezca de
retroalimentación, es decir, que el emisor no tiene forma de saber cómo fue tomado su mensaje
por parte del receptor, a diferencia de la oral donde la retroalimentación es inmediata. No
obstante, el receptor –en caso de que sean contemporáneos- puede responder igualmente por
escrito, exponiendo sus apreciaciones.

Sobre el carácter comunicativo

Finalmente, las Ciencias de la Comunicación han indicado que la comunicación escrita debe
perseguir en todo momento intención comunicativa, es decir, que el escritor proceda a registrar
sus ideas sobre un soporte físico, a fin de que un lector -contemporáneo o del futuro- pueda leerlo
y enterarse de este contenido. En este sentido, esta característica haría que no todos los textos
escritos pudiesen ser considerados formas de comunicación escrita. En esta caso, los libros,
poemarios, enciclopedias, páginas virtuales, mensajes de textos, entre otras formas pueden ser
consideradas o catalogadas como formas de comunicación escrita, porque han sido creadas por un
escritor a fin de que un lector los reciba, procese y entienda.
No obstante, otras formas escritas como los diarios, aun cuando hacen uso de la palabra escrita,
no son consideradas formas de comunicación escrita, pues su intención es personal e íntima, es
decir, en el momento en que el escritor las creó no lo hizo teniendo en mente ningún lector. Sin
embargo, algunos teóricos literarios han indicado que la afirmación anterior puede no ser tan
cierta, basando su apreciación en la teoría de que por naturaleza toda persona que escribe lo hace
pensando en un lector ideal, aún cuando no tenga intenciones de compartir lo escrito, lo que
entonces lo hace comunicación, aún cuando no llegue a transmitirse, pues su pulsión inicial así la
ha concebido.

Factores de la comunicación son, en la teoría de la información, los


elementos que intervienen en todo proceso de comunicación. Su inventario más completo
establece once: fuente, emisor, código, señal, mensaje, canal, redundancia, situación, contexto y
receptor (mejor denominado destinatario).algo mejor.

Concepto y evolución

Quienes trataron en primer lugar sobre factores de la comunicación fueron el ingeniero y


matemático Claude E. Shannon y el sociólogo Warren Weaver en su The mathematical Theory of
Communication, Urbana: The University of Illinois Press, 1949, y el inventario entonces se limitaba
a seis elementos que intervenían en la transmisión de un mensaje o información: fuente,
transmisor, señal, ruidos, receptor y destinatario.

Este esquema fue luego ampliado con más elementos: emisor, código, mensaje, canal,
redundancia, señal (emitida y recibida), situación y contexto. Shannon se encargó de los aspectos
cuantificables del proceso, mientras que Warren Weaver expandió este esquema al señalar que
los problemas de comunicación se podían analizar en tres niveles: técnico, semántico (referido al
significado e interpretación del mensaje) y pragmático (sobre las consecuencias de la
comunicación en el comportamiento de las personas).

Posteriormente, investigadores californianos de la Escuela de Palo Alto adoptaron una postura


muy crítica respecto a este modelo porque consideraban que no conseguía abarcar el complejo
universo de la comunicación humana, repleto de interacciones.1 Paul Watzlawick, Janet Helmick
Beavin y Don D. Jackson definieron en 1967 (en un trabajo traducido en 1985 con el título Teoría
de la comunicación humana. Interacciones, patologías y paradojas) cinco axiomas de la
comunicación humana, que pueden resumirse así:
1) Es imposible no comunicar. En la interacción humana, toda conducta tiene el valor de un
mensaje. Como no existe la no conducta ni la anticonducta, tampoco existe la no comunicación y
siempre estamos comunicando.

2) Toda comunicación tiene un nivel de contenido (lo que decimos) y un nivel relacional (a quién
y cómo lo decimos), de forma que el último clasifica al primero y es, por tanto, una
metacomunicación. Eso significa que toda comunicación incluye, además del significado de las
palabras, más información sobre cómo el que habla quiere ser entendido y que lo entiendan y
cómo el primero va a ver su relación con el receptor de la información. Así pues, no sólo
transmitimos datos, sino también un tipo de relación con nuestro interlocutor. Por ejemplo, el
comunicador dice: «Cuídate mucho». El nivel de contenido en este caso podría ser evitar que pase
algo malo y el nivel de relación sería de amistad-paternalista.

3) La naturaleza de una relación depende de la gradación que los participantes mantengan con
las secuencias comunicacionales entre ellos: cuando emisor y receptor inician una comunicación
en que cada uno interpreta su propio comportamiento como mera relación ante el otro, además
cada uno cree que su conducta es causa de la conducta del otro, algo que no es así, porque el
proceso es más bien cíclico (no solo causa-efecto).

4) Las personas utilizan dos modalidades de comunicación: la comunicación digital (símbolos


lingüísticos y/o escritos, de carácter principalmente lingüístico y abstracto: lo que se dice) y la
analógica (lenguaje no verbal, de tipo no lingüístico y que incluye contenido y contexto: lo que se
quiere decir).

5) Los intercambios comunicacionales pueden ser tanto simétricos como complementarios: esto
depende de si la relación entre las personas está basada en intercambios igualitarios (conducta
reciproca), o de si está basada en intercambios aditivos en donde uno y otro se complementan
produciendo un acoplamiento reciproco de la relación. Una relación complementaria presenta
algún tipo de autoridad como padre e hijo, mientras que una relación simétrica es la que presenta
series de iguales condiciones (entre hermanos o amigos).23

Los once factores

La fuente es la información o contenido en bruto que será transportada y transmitida en el


mensaje codificado. Por ejemplo, la distribución de temperaturas mínimas de un país para un
parte meteorológico. Hay varios tipos de fuente: por la naturaleza generativa de sus mensajes,
puede ser aleatoria o determinista. Por la relación entre los mensajes emitidos, puede ser
estructurada o no estructurada (caótica). Su incertidumbre se cuantifica mediante la entropía de
Shannon.

El emisor: Es quien recoge la información o fuente y mediante un código elabora el mensaje y lo


emite o transmite a través de un transmisor. Este emisor puede ser físico o una máquina. En el
ejemplo anterior, sería el meteorólogo y el transmisor sería la cámara.
El código: es el sistema de signos y reglas de combinación de los mismos con que se codifica el
mensaje que sirve para transmitir una información o fuente según un sistema simbólico
comprensible o descifrable para el emisor y el receptor, quienes deben compartir un grado similar
de conocimiento del mismo para que la transmisión tenga éxito. En el ejemplo anteriormente
citado, podría ser la escala Réaumur de temperaturas, que consigna un intervalo de ochenta
grados, o la Celsius, cuyo intervalo es cien grados, o la Fahrenheit, que lo tiene de 120 grados; la
información sería la misma, pero cada código la cifraría con distintos números según el código
empleado. Y, asimismo, el parte meteorológico se haría en el código del idioma que compartieran
meteorólogo y público.

El canal: Es el medio físico a través del cual discurre el mensaje; por ejemplo, en el caso del
parte meteorológico, el aire por el que se retransmiten las ondas de radio y el sonido de la
televisión y los nervios auditivos del oído.

El mensaje: Es la información ya elaborada mediante un código, transmitida por el emisor y


recibida por el receptor: un parte meteorológico.

La señal emitida es la intensidad de la transmisión una vez sale del emisor, siempre más intensa
y menos modificada o distorsionada que la señal recibida.

El contexto es lingüístico y consiste en los mensajes anteriores y posteriores al enviado que


hacen posible su comprensión completa, así como el marco de referencia, el universo de discurso
y las implicaciones y presuposiciones necesarias para que sea interpretado correctamente. Así,
cuando el meteorólogo hablase de "mal tiempo" el agricultor lo interpretaría de distinta manera
que el ciudadano que quiera irse de picnic, pero ambos correctamente porque disponen de
marcos de referencia conformes a sus intenciones.

La situación es extralingüística y consiste en el tiempo, el espacio y el ambiente que rodea a la


transmisión del mensaje: su marco espacio-temporal.

El ruido es cualquier elemento físico (sordera, opacidad del canal que provoca debilitamiento de
la señal, interferencias, poca intensidad de la señal, excesiva intensidad de la señal, adulteración
de la señal, recorte de la señal) o psíquico (mal o pobre conocimiento del código, distracción) que
provoque una distorsión en la percepción y comprensión del mensaje. Por lo general provoca una
fuga o pérdida de información y se combate mediante la redundancia.

La redundancia es la cantidad de veces que se repite el mensaje o partes del mensaje para que
se refuerce la intensidad de la transmisión, proporcionando un margen para que las pérdidas o
distorsiones del mensaje producidas por el ruido no impidan que este se transmita enteramente.

El destinatario: Es la persona que descifra la señal recibida portadora del mensaje por medio de
un receptor o perceptor recipiendiario de la misma que lo recibe pero no lo descifra (el televisor,
por ejemplo); el destinatario es el receptor verdadero que lo descifra e interpreta (el personaje
que ve y escucha el parte meteorológico) usando el mismo código que el emisor.

Análisis modernos de los factores de la comunicación


La Escuela de Palo Alto, la hermenéutica y la teoría social de la acción comunicativa de Jurgen
Habermas han estudiado profundamente las implicaciones que posee la teoría de la comunicación
en las sociedades humanas y las numerosas dificultades que la obstaculizan. Las discrepancias no
resueltas en la puntuación de las secuencias comunicacionales pueden llevar a impases
interaccionales, en los que los participantes se hacen acusaciones mutuas de locura o maldad. Las
discrepancias de puntuación tienen lugar en todos aquellos casos en que por lo menos uno de los
comunicantes no cuenta con la misma cantidad de información que el otro, pero no lo sabe. Estos
casos de comunicación patológica constituyen círculos viciosos que no se pueden romper a menos
que la comunicación misma se convierta en el tema de comunicación (metacomunicación). Pero
para ello tienen que colocarse afuera del círculo. Se observa en estos casos de puntuación
discrepante un conflicto acerca de cuál es la causa y cuál el efecto, cuando en realidad ninguno de
estos conceptos resulta aplicable debido a la circularidad de la interacción.

Otros análisis inciden en el ámbito de la comunicación de masas y política, como el conductista de


Harold Dwight Lasswell, o el de Wilbur Schramm.

Factores de la Comunicación: Emisor. Mensaje. Receptor

por Mariana Fernández Vita La Escritura 23 January, 2016 7

Facebook

Twitter

Google+

¿Qué son los Factores de la Comunicación? Ejemplos

Factores de la Comunicación Definición

Se denominan factores de la comunicación a aquellos elementos que participan en todo proceso


de comunicación.
¿Qué es Comunicación y sus Elementos?

Concepto de comunicación: Es el proceso mediante el cual se transmite una cierta información


entre quien emite y quien recibe. Ejemplos de comunicación: Recibir una carta, enviar un fax,
confeccionar un informe.

¿Cuáles son los Factores de la Comunicación Humana?

Los factores que intervienen en el proceso de comunicación, sin los cuales ésta no se posibilita,
son los siguientes:

Factores de la comunicación: Emisor, receptor, canal, código, mensaje.

Factores de la comunicación: Emisor, receptor, canal, código, mensaje.

Emisor

Es el “productor” del mensaje, o agente que transmite la información. No siempre es una persona,
puede ser un individuo solo, un grupo, un aparato o una máquina. ¿Qué es emitir? Emitir es
difundir, publicar, anunciar algún mensaje de interés. Cuando hablamos de “emisora” o “fuente”
se puede referir a una agencia que reúne datos o noticias para divulgarlas. Se denomina fuente a
todo aquello que emite mensajes.

Ejemplos de emisor: Locutor y ejemplos de fuentes de emisión: Computadora y ejemplo de


mensajes sus archivos; un dispositivo de transmisión de datos y mensajes los datos enviados.

Lee también: Aspectos formales de la Escritura

Receptor

Es el agente, que puede ser una persona o una máquina, que recibe la información transmitida por
un emisor. El receptor efectúa un proceso inverso al del emisor, ya que debe descifrar e
interpretar el mensaje en los signos utilizados por el emisor. Debe decodificar el mensaje que
recibe del emisor. Por eso, para que la comunicación sea efectiva, tanto el emisor como el
receptor, deben utilizar el mismo código. En la mayor parte de las comunicaciones el emisor y el
receptor alternan sus roles, en el intercambio el emisor se vuelve receptor y viceversa.
La lengua oral y escrita es uno de los códigos más utilizados para establecer la comunicación entre
los seres humanos.

Ejemplos de receptor: Los ejemplos más fáciles de entender son:

En un programa de televisión o de radio los locutores y periodistas son los Emisores y los
televidentes y oyentes los Receptores.

En una entrevista, el entrevistador es el emisor cuando realiza las preguntas y el entrevistado es


el receptor; cuando el entrevistado responde será entonces el emisor y el entrevistador el
receptor.

En una clase, el emisor es el profesor y los alumnos de la clase son los receptores.

Lee también: Origen de la Escritura Sumeria Cuneiforme

Factores de la Comunicación Ejemplos

Código

Factores de la comunicación: Código

Factores de la comunicación: Código

Es el medio por el cual se construye el mensaje, puede ser verbal o no verbal (ejemplo una
imagen). Es el conjunto o sistema de signos que utiliza el emisor para codificar el mensaje. Este
conjunto de elementos se combinan siguiendo ciertas reglas a fin de ser interpretadas y lograr
entender la información. El ejemplo más sencillo de entender qué es el código son las lenguas
humanas, de las que hacen uso las diversas sociedades y por medio de la emisión de distintos
sonidos, logran comunicarse unos con otros. Para que la comunicación se logre concretar, el
emisor y el receptor deben utilizar el mismo código, la comunicación no tendrá éxito si el emisor y
el receptor no comparten el mismo código. Si hablan distintas lenguas, o escriben en distintos
idiomas el mensaje no se entiende.

Ejemplos de códigos: La lengua española, el sistema braille, señales de tránsito.

¿Cuáles son los códigos lingüísticos?


Código lingüístico natural: Hablado u oral que nos llega a través de los sentidos, (oído) se
aprende de padres a hijos y el gestual o lenguaje de señas

Código lingüístico escrito: Se incorpora por medio de la lectura, no es espontáneo de padres a


hijos sino que requiere de aprendizaje, permanece a través del tiempo, gracias a éste se han
transmitido las culturas y costumbres que han llegado hasta nuestros días.

Canal

Factores de la comunicación: Canal

Factores de la comunicación: Canal

Es el medio por el que viaja la información que va desde el emisor al receptor. El canal es el
soporte que elige el emisor para enviar su mensaje, este puede ser sonoro, táctil o visual. Son
canales para transmitir ideas o pensamientos y se clasifican en dos grupos personales y masivos.
Los personales como se indica es por la voz directade una persona a uno o a varios, en cambio el
canal masivo se dirige a “masas” muchas personas y puede ser a través de radio, televisión,
informático, escrito. Ejemplos de canales de comunicación: El auditivo para el lenguaje oral, el
táctil para el lenguaje braille que usan las personas no videntes, el teléfono, la computadora.

Mensaje

Es la información propiamente dicha que el emisor transmite. El mensaje es lo que concretamente


se está diciendo. Es fundamental en el proceso de información, ya que es el objeto de la
comunicación (y que de no existir el mensaje la comunicación no se efectuaría). Es la información
que el emisor envía al receptor a través de un canal (oral o escrito). Ejemplos de mensajes: Carta,
aviso publicitario, noticia.

Lee también: Aparato Respiratorio

Contexto

Es la situación extra- lingüística que rodea al mensaje. En palabras simples, es el ambiente físico o
de situación (político, social, histórico o de cualquier otra índole). Son circunstancias temporales,
espaciales y socioculturales que rodean al acto comunicativo y que nos permiten comprender el
mensaje.

Factores que afectan la Comunicación Efectiva

¿Cuándo decimos que hay interferencia o ruido?


En aquellos casos en que alguno de los factores de la comunicación falla, se altera, se modifica, o
se interrumpe un mensaje y no se posibilita el intercambio de información, se dice que existe
“ruido” o “interferencia”. Cuando emitimos un mensaje es fundamental tener en cuenta a quién
nos estamos dirigiendo y debemos asegurarnos que el receptor conozca del tema y comparta el
código y el canal. La situación comunicacional no debe ser considerada una estructura rígida, sino
una circunstancia dinámica donde exista la posibilidad de reasignar los roles a cada momento.

En el caso de los mensaje por medio de imágenes: El ruido o interferencia puede darse porque el
receptor no está prestando atención, entonces el mensaje no es exitoso.

Comunicación no verbal

Factores de la comunicación: Comunicación No verbal

Factores de la comunicación: Comunicación No verbal

Hay estudios que afirman que el 55% de la comunicación entre seres humanos es por medio de la
comunicación no verbal, sin hablar y un 38% por medio de lo que es denominado paralenguaje
que son la comunicación escrita, emoticones, la distribución de espacios entre palabras, estilo de
escritura (se estudia mediante la grafología)

El concepto de morfopsicología fue acuñado por Louis Corman, quien sostenía que es innegable el
vínculo entre las formas del la cara y la personalidad, las conductas, la inteligencia. En esta página
encontrarás un artículo completo acerca de la lectura del rostro y todo lo que puedes averiguar
por medio de las expresiones faciales.

¿Qué es la comunicación no verbal?

La comunicación no verbal es aquella en la cual el mensaje se transmite sin hablar, utilizando


gestos, expresiones faciales, lenguaje corporales, modo de vestirse, contacto visual.

Lee también: Lectura del rostro y personalidad

Objetivos de la comunicación no verbal

Ejemplos de los factores de la comunicación

Dentro de los fines de la comunicación no verbal se considera que colabora en la ilustración del
mensaje, para enfatizarlo, e incluso para contradecirlo.
Contribuye a reforzar las ideas y propósitos del emisor y ayuda al receptor a una mejor
decodificación del mensaje recibido.

Lee también:Qué es la grafología: Conocer por la letra

Ejemplos

Factores de la comunicación ejemplo 1

La abuela leyendo en la tablet una novela de amor.

Emisor: Libro novela en tablet

Receptor: La abuela

Mensaje: La historia de amor de la novela

Código: Lengua española

Contexto: El mundo en la novela

Canal: Comunicación indirecta, contexto: Escritura informática , libro en tablet.

Factores de la comunicación ejemplo 2

Factores de la Comunicación

Factores de la Comunicación

El profesor de francés está enseñando “Los atractivos de París”.

Emisor: Profesor

Receptor: Alumnos en el clase

Mensaje: Su discurso, lo de que habla.

Código: Idioma Francés

Contexto: Tema que enseña los atractivos de la cuidad de París.


Canal: Oral, discurso, comunicación directa.

Factores de la comunicación ejemplo 3

El jefe está preguntando a Pedro por su llegada tarde al trabajo.

Emisor: Jefe de Pedro

Receptor: Pedro

Mensaje: Pregunta por su demora

Código: lengua española

Contexto: Situación que el Pedro llegó atrasado

Canal: Oral, conversación, comunicación directa.

Factores de la comunicación ejemplo 4

La familia está viendo el noticiero por televisión.

Emisor: Periodista.

Receptor: La familia

Mensaje: Las noticias

Código: Lengua española

Contexto: Situación del país y en el mundo que presentan en noticiero.

Canal: Comunicación indirecta, medio: televisión.

Factores de la comunicación ejemplo 5

Ana y Luis están hablando por celular.

Emisor: Ana o Luis dependiendo de la conversación.

Receptor: Ana o Luis dependiendo de la conversación.

Mensaje: Temas de actualidad.

Código: Lengua española


Contexto: Vida actual de ambos

Canal: Comunicación indirecta, oral, medio: teléfono móvil.

Aquí finaliza este artículo acerca de factores de la comunicación, sigue en esta web aprendiendo
muchísimo más acerca de la historia de la escritura.

La publicidad es una forma de comunicación que intenta incrementar el consumo de un producto


o servicio, insertar una nueva marca o producto dentro del mercado de consumo, mejorar la
imagen de una marca o reposicionar un producto o marca en la mente de un consumidor. Esto se
lleva a cabo mediante campañas publicitarias que se difunden en los medios de comunicación
siguiendo un plan de comunicación preestablecido.

A través de la investigación, el análisis y estudio de numerosas disciplinas, tales como la psicología,


la neuroanatomía, la sociología, la antropología, la estadística, y la economía, que son halladas en
el estudio de mercado, se podrá, desde el punto de vista del vendedor, desarrollar un mensaje
adecuado para una porción del público de un medio. Esta porción de personas, que se encuentra
detalladamente delimitada, se conoce como público objetivo o target.

Terminología

La publicidad se diferencia de otras dos actividades también dirigidas a influir en la opinión de la


gente: las relaciones públicas y la propaganda.

Los términos publicidad y propaganda se usan indistintamente en algunos países de habla


española y se intercambian, pero a nivel profesional y académico ambos términos hacen
referencia a dos conceptos distintos.1 2La principal diferencia es el tipo de conducta que se
propone modificar. En el caso de la publicidad, se pretende influir en las conductas de consumo de
una persona mediante campañas o acciones publicitarias en diferentes medios y con diferentes
objetivos (lanzamiento de un producto, posicionamiento de marca, recordación de marca, etc.)
para que el consumidor lleve a cabo un acto de consumo en un corto o largo plazo. Entretanto, la
propaganda trata de que una persona se adhiera a una ideología o creencia.
Por otro lado, también se diferencian los términos publicista y publicitario. Un publicista es aquel
que se dedica a la publicación de artículos de difusión como puede ser la publicación de una
revista; mientras que un publicitario es el encargado de crear y difundir publicidad como actividad
primaria.3

Notoriedad de marca

La notoriedad de marca es una de las principales maneras en que la publicidad puede estimular la
demanda de un tipo de producto determinado e incluso identificar como denominación propia a
dicho producto. Ejemplos de esto los hay en productos como adhesivos textiles, lencería
femenina, papel higiénico, cinta adhesiva, pegamento en barra, encendedores de fuego,
reproductores de música, refrescos, etc. La notoriedad de marca de fábrica se puede establecer a
un mayor o menor grado dependiendo del producto y del mercado. Cuando se crea tanto valor de
marca, esta tiene la capacidad de atraer a los compradores incluso sin publicidad, se dice que se
tiene notoriedad de marca. La mayor notoriedad de marca se produce cuando la marca de fábrica
es tan frecuente en la mente de la gente que se utiliza para describir la categoría entera de
productos. Kleenex, por ejemplo, puede identificarse como pañuelos de celulosa o como una
etiqueta para una categoría de productos, es decir, se utiliza con frecuencia como término
genérico. Una de las firmas más acertadas al alcanzar una notoriedad de marca de fábrica es la
aspiradora Hoover, cuyo nombre fue durante mucho tiempo en los países anglosajones sinónimo
de aspiradora. Un riesgo legal para el fabricante de la notoriedad de marca es que el nombre
puede aceptarse tan extensamente que se convierte en un término genérico, y pierde la
protección de la marca registrada. Un ejemplo de este caso sería el nombre comercial del ácido
acetilsalicílico, la aspirina.

En ocasiones, determinados productos adquieren relevancia debido a la publicidad, no


necesariamente como consecuencia de una campaña intencionada, sino por el hecho de tener una
cobertura periodística relevante. En Internet o tecnologías digitales se habla de publicidad no
solicitada o spam al hecho de enviar mensajes electrónicos, tales como correos electrónicos,
mensajes cortos u otros medios sin haberlo solicitado, y por lo general en cantidades masivas. No
obstante, Internet es un medio habitual para el desarrollo de campañas de publicidad interactiva
que no caen en invasión de la privacidad, sino al contrario, llevan la publicidad tradicional a los
nuevos espacios donde se pueda desarrollar.

Industria publicitaria

La publicidad, como actividad empresarial, involucra a distintos actores en la tarea de transmitir


una idea sobre un producto o servicio a su público objetivo.

Anunciantes
Prácticamente cualquier empresa en el mundo moderno tiene necesidades publicitarias, desde la
que pega un simple cartel en la calle hasta la que quiere estar presente en prensa, radio o
televisión. A causa de ello, el mundo de la publicidad ha crecido hasta convertirse en una gran
industria que mueve cientos de miles de millones de euros a nivel mundial cada año. Dentro de un
país como España, según un estudio, la inversión publicitaria total en el año 2014 fue de 10.461
millones de euros, entre medios convencionales y no convencionales.4 El mayor anunciante en ese
año fue Procter & Gamble España S.A. (con 122,4 millones de €), seguido de L'Oréal, El Corte
Inglés, y varias compañías de telecomunicaciones como Movistar o Vodafone.

Agencias de publicidad

W. M. Taylor

Las agencias de publicidad, agencias de medios o centrales de medios (diseño gráfico, boutiques
creativas, productoras, etc.) son partícipes muchas veces dentro del desarrollo publicitario, que
está elaborado por varios factores; entre los cuales, el más importante es el brief, que contiene las
ideas previas para desarrollar el producto publicitario. El brief es un documento que específica
todas las características propias del producto o servicio en sí, la historia de la empresa, un análisis
de la competencia (directa, indirecta o genérica), una descripción del público objetivo, que
mayoritariamente se hace según variables duras, como el nivel socioeconómico (NSE), edad, sexo,
ubicación geográfica y ciclo de vida familiar. Además, el brief puede contener un historial de todas
las campañas previas que se han realizado hasta la fecha; mayoritariamente este historial es
agregado cuando el anunciante decide cambiar de agencia de publicidad.

Medios de comunicación

La publicidad llega al público mediante los soportes publicitarios, que pueden ser medios de
comunicación masiva o bien medios alternativos. Los medios de comunicación emiten los anuncios
a cambio de una contraprestación previamente fijada para adquirir espacios en un contrato de
compra-venta por la agencia de publicidad y el medio. Por ejemplo, en televisión, una cadena
emite el anuncio en sus retransmisiones durante un horario previamente fijado por la agencia
(tarea que se conoce como planificación de medios); este contrato es denominado contrato de
emisión o de difusión.

Historia

Commons-emblem-question book orange.svg

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.

Este aviso fue puesto el 31 de diciembre de 2017.

Publicidades antiguas
Desde que existen productos que comercializar ha existido la necesidad de comunicar su
existencia; la forma más común de publicidad era la expresión oral. En Babilonia se encontró una
tablilla de arcilla con inscripciones para un comerciante de ungüentos, un escribano y un zapatero
que data del 3000 a. C. Ya desde la civilización egipcia, Tebas conoció épocas de gran esplendor
económico y religioso; a esta ciudad tan próspera se le atribuye uno de los primeros textos
publicitarios. La frase encontrada en un papiro egipcio ha sido considerada como el primer
reclamo publicitario del que se tiene memoria. Hacia 1821 se encontró en las ruinas de Pompeya
una gran variedad de anuncios de estilo grafiti que hablan de una rica tradición publicitaria en la
que se pueden observar vendedores de vino, panaderos, joyeros, tejedores, entre otros. En Roma
y Grecia, se inició el perfeccionamiento del pregonero, quien anunciaba de viva voz al público la
llegada de embarcaciones cargadas de vinos, víveres y otros, y que eran acompañados en
ocasiones por músicos que daban a estos el tono adecuado para el pregón; eran contratados por
comerciantes y por el estado. Esta forma de publicidad continuó hasta la Edad Media. En Francia,
los dueños de las tabernas voceaban los vinos y empleaban campanas y cuernos para atraer a la
clientela; en España, utilizaban tambores y gaitas, y en México los pregoneros empleaban los
tambores para acompañar los avisos.

En Roma surgen dos nuevos medios: el album, y el libellus. El album consistía en una superficie
blanca sobre la que se escribía; ya fueran pergaminos, papiros, o paredes blanqueadas. Cualquier
superficie blanca serviría para dar a conocer mercancías, anunciar espectáculos, anunciar ventas
de esclavos y comunicar decisiones políticas. El libellus, considerado el antecesor del cartel, era de
menor tamaño que el album. Una vez se había escrito en él el mensaje o comunicado, se pegaba a
la pared.

La imprenta

Parte de lo que se conoce actualmente como publicidad nace con la imprenta de Johannes
Gutenberg, quien se ocupó de mostrar su invento a un grupo de mercaderes de Aquisgrán. Con la
crónica mundial de Nuremberg, figuran una serie de almanaques que contienen las primeras
formas de publicidad. En 1453 surge la llamada Biblia de Gutenberg y los famosos almanaques se
convierten en los primeros periódicos impresos. La imprenta permitió la difusión más extensa de
los mensajes publicitarios y, con la aparición de nuevas ciudades, la publicidad se consolida como
instrumento de comunicación.

La publicidad moderna

La publicidad moderna comenzó a evolucionar en Estados Unidos y Gran Bretaña a finales del siglo
XVIII durante la revolución industrial. Aparecieron los agentes de publicidad; el primero conocido
fue Volney B. Palmer, quien en 1841 inauguró en Filadelfia una oficina con la cual obtuvo
considerable éxito. En España en 1872, el pionero de la publicidad, Rafael Roldós, fundó en
Barcelona la primera agencia del país, que todavía en la actualidad sigue activa.
A principios del siglo XX, las agencias se profesionalizan y seleccionan con mayor rigor los medios
donde colocar la publicidad. Es así como la creatividad comienza a ser un factor importante a la
hora de elaborar un anuncio. En los años 30 nace una famosa técnica creativa: el brainstorming,
aunque no fue hasta la década de 1960 cuando se usó de manera habitual.

Aportaciones de David Ogilvy

Cabe enfatizar las aportaciones del llamado “padre de la publicidad”, David Ogilvy. Fue uno de los
nombres más destacados en el mundo de la publicidad moderna y uno de los pocos pensadores
que forjaron este negocio después de los años veinte. Ogilvy fue durante su vida cocinero,
vendedor, diplomático y granjero. En 1938, Ogilvy emigró a los Estados Unidos, y no fue hasta esa
fecha que comenzó su fructífera carrera como publicista, trabajando en el Audience Research
Institute de George Gallup, en Nueva Jersey.

En 1948 fundó la Agencia Hewitt, Ogilvy, Benson & Mather con oficinas en Nueva York (que con el
tiempo se convirtió en Ogilvy & Mather Worldwide), con el apoyo financiero de la agencia de
Londres, Mather & Crowther.

En 1962 la prestigiosa revista Time nombró a Davil Ogilvy el “mago más solicitado” de la industria
publicitaria de la época. Y lo cierto es que si Ogilvy hubiera desarrollado su carrera en el siglo XXI
también tendría muchísimo “tirón” entre los anunciantes. El legendario publicitario británico era
un genio y las ideas de los genios son atemporales, eternas, no entienden de siglos ni de épocas,
según refiere Marketing Directo, portal especializado en marketing, publicidad y medios.

Sus ideas y las técnicas publicitarias acerca de la publicidad en las cuales enfatiza el uso y
conceptos de persuasión, lenguaje, escritura y competencias, hacen que estas herramientas sigan
vigentes a la fecha.

Puso en marcha el concepto de imagen de marca y, junto con Bill Bernbach, sentó las bases de la
llamada "revolución creativa". Se trataba de hacer hincapié en la importancia que las marcas
tienen en sí mismas y convertir el propio producto en el verdadero protagonista de la publicidad.

Algunas de las frases que inmortalizó dentro de la industria publicitaria son: "Nunca hagas un
anuncio que no quisieras que viese tu propia familia", "La mejor manera de conseguir nuevas
cuentas es crear para nuestros clientes el tipo de publicidad que atraerá a clientes futuros",
"Dentro de cada marca hay un producto, pero no todos los productos son marcas", "Cuando haga
publicidad para los extintores de fuego, comience con el fuego", "No compita con su agencia en el
área de la creatividad”, entre otras.

Objetivos

Página publicitaria en un almanaque, 1892

La publicidad tiene dos objetivos, de acuerdo con las preferencias del anunciante, sus objetivos, o
las demandas del mercado:

En primera instancia, idealmente, la publicidad informa al consumidor sobre los beneficios de un


determinado producto o servicio, resaltando la diferenciación sobre otras marcas.

En segundo lugar, la publicidad busca inclinar por medios psicológicos la balanza motivacional
del sujeto hacia el producto anunciado, de manera que la probabilidad de que el objeto o servicio
anunciado sea adquirido por el consumidor se haga más alta gracias al anuncio. Esta clase de
publicidad es significativamente dominante en los anuncios above the line, pues el tiempo en
televisión, o el espacio en el periódico son limitados, y se hace necesario crear la preferencia por el
producto anunciado a partir de argumentos rápidos que no siempre son la demostración objetiva
de la superioridad del producto por encima del de la competencia, o de lo necesario que es, sino,
muchas veces, simplemente una concatenación de estímulos apetitivos (véase Psicología) con el
producto; ejemplo de esto son muchos de los comerciales de Coca-Cola, donde se muestran
principalmente situaciones felices y gente consumiendo el producto, cosa que generalmente se
solidifica dentro de consignas implícitas como «Tomar Coca-cola es ser feliz», «Si tomas Coca-cola
serás feliz» o «La gente feliz toma Coca-cola».

Por otro lado, la publicidad permite la independencia económica de los medios de comunicación
respecto del Estado.

Uno de los principales objetivos de la publicidad es crear demanda o modificar las tendencias de
demanda de un producto (bien o servicio). Entendiendo que la comercialización busca identificar
el mercado apropiado para cada producto, la publicidad es la comunicación por la cual la
información sobre el producto es transmitida a estos individuos (público objetivo). Los anuncios
intentan generalmente encontrar una propuesta única de venta (USP, del inglés Unique Selling
Proposition) de cualquier producto y comunicarla al usuario. Esto puede tomar la forma de una
característica única del producto o de una ventaja percibida. Frente a la competencia creciente
dentro del mercado, debido a los crecientes de sustitutivos, cada vez se produce más creación de
marca en publicidad. Ésta consiste en comunicar las cualidades que dan una cierta personalidad o
reputación a una marca de fábrica, es decir, un valor de marca que la hace diferente a las de su
competencia y su objetivo central es vender productos para obtener grandes ganancias.

Principios de la publicidad
Aunque existen una gran cantidad de teorías de la publicidad, una de las más antiguas (1895) es la
teoría o regla AIDA, nacida como simple recurso didáctico en cursos de ventas y citada de
continuo:

Atención

Interés

Deseo

Acción

Según esta regla, estos son los 4 pasos básicos para que una campaña publicitaria alcance el éxito;
esto es, en primer lugar, habría que llamar la atención, después despertar el interés por la oferta,
seguidamente despertar el deseo de adquisición y, finalmente, exhortar a la reacción, u ofrecer la
posibilidad de reaccionar al mensaje, derivando, generalmente, en la compra.

Ausencia de evidencia empírica

Sin embargo:

Existe poca evidencia empírica que apoye el hecho de que cuando un individuo pasa de una
etapa a otra de orden superior se incremente la probabilidad de compra.

El paso de un individuo de una etapa a otra en el proceso permite la retroalimentación


(feedback) dentro de una misma secuencia.

Existe la posibilidad de que el individuo siga un orden diferente al establecido, ya que la


secuencia de este modelo depende de muchas variables, tales como el nivel de implicación del
individuo con el producto, la clase de motivación, etc.

Se cuestiona la hipótesis de que el comportamiento del ser humano en su faceta de comprador


de productos anunciados sea lógico racional, puesto que la realidad nos demuestra que el factor
emocional es, en numerosas ocasiones, más resolutivo que el racional.

La ausencia de evidencia empírica que apoyase estos modelos motivó que a principios de los años
1970 se comenzara, por un lado, a abandonar y, por otro, a cuestionarse los procesos que miden
la aceptación de la publicidad desde el punto de vista de la actitud hacia la marca. En esta línea,
los modelos clásicos sufren las siguientes modificaciones:

Se refuerzan las reacciones o respuestas del individuo hacia el mensaje emitido.


Se identifican antecedentes de la persuasión representados en los siguientes modelos: a)
modelos de estructuras cognitivas; b) modelos de respuestas cognitivas; ambos modelos
representantes de los modelos de audiencia activa: los consumidores buscan y evalúan
activamente la información que reciben (receptores altamente implicados) o, lo que es lo mismo,
llevan a cabo un procesamiento detenido de la misma.

Condicionamiento clásico

Por último, por medio del condicionamiento clásico, el cual es inicialmente un estímulo neutral.

El modelamiento se refiere al aprendizaje resultante de observar a otros. Fue principalmente


desarrollado por Albert Bandura, quien reconoció que las influencias del modelamiento pueden
fortalecer o debilitar las inhibiciones de la conducta que los individuos han aprendido
previamente.

Técnicas de publicidad

Publicidad navideña

Algunas estrategias para la realización de una publicidad efectiva son:

Asociación psicoemotiva al consumidor. Por medio de:

Estética: imágenes, música, personas, etc.

Humor: Pretende asociar un producto a una idea o circunstancia divertida, transmitir


sensación positiva acerca del producto y así asociarlo más fácilmente.

Sentimientos o evocación: No hace referencia directa al producto, sino la sensación que te


produce; en vez de convencerte lo que intenta es seducirte: amor materno, enamoramiento, etc.
Por ejemplo: "¿Te gusta conducir?"

Dramatización: Es la forma más antigua de la publicidad, representa un episodio de la vida real,


la persona tiene que percibir que es una dramatización, si no es un 'testimonio'.

Testimonio: Si no se percibe que es una 'dramatización' entonces es un testimonio. Por ejemplo


de unas figuras o personas famosas o reconocidas de forma positiva, o de personajes de
asociación proactiva.

Demostración o argumentación: Mensajes que influyen una demostración del producto.


Normalmente proporcionan una respuesta a un problema real. Este estilo se basa en las
características del producto y su eficacia (típico de las 'cremas de mujeres'). Por ejemplo pruebas,
tests y ensayos.
Descripción: Presenta de una manera objetiva un producto, sus partes o su composición. Muy
usado en los anuncios de coches.

Exposición: Ni 'argumentación' ni ' descripción'. Redactado o presentado como una lista de


oferta. Usado por ejemplo en anuncios de supermercados con sus ofertas alimenticias, o en
objetos en venta con días de descuento.

Impacto: Es algo impactante, juegos de palabras o rimas. Sólo busca impactar al futuro
comprador y así captar su atención.

Oportunidad: El mensaje debería aprovechar el momento, coyuntura o situación del tiempo de


referencia.

Frecuencia: El consumidor comienza a retener un mensaje cuando este es repetitivo.

Sinceridad: El fraude produce desconfianza en el consumidor.

Propuesta única de venta. (USP)5

Todo anuncio debe hacer una proposición concreta al consumidor.

La proposición debe distinguirse de la competencia (ventaja competitiva, elemento


diferenciador o posicionamiento); esta es la condición más importante de la USP.

Debe ser tan atractiva que influya sobre la totalidad del mercado meta del producto.

Actualmente la proposición de venta es de carácter emocional cambiando su denominación a


(ESP)

Imagen de marca.

Recurso a un símbolo para asociarlo sistemáticamente al producto o a la marca.

Como consecuencia se producirá un reconocimiento automático del símbolo (color, eslogan,


elemento simbólico, etc.) por parte del consumidor.

Se trata de la primera gran estrategia que concede prioridad a la imagen.

Se encuentra en pleno auge durante los años 70-80.

Subliminal.

Produce un efecto indemostrable y arriesgado.

Es la estrategia más efectiva si llega hasta el final.

En principio (años 60) es utilizada para cualquier tipo de producto.

Posteriormente lo subliminal es explotado para productos como el tabaco, el alcohol, la


lencería, etc.

Se puede detectar con elementos objetivos como la composición del anuncio. Ésta trabaja con
la relación entre primer plano y segundo plano como metáfora de la parte consciente e
inconsciente del individuo6
Posicionamiento, ubicación o llamada: Incita a los oyentes a que participen en una campaña
publicitaria determinada. Selecciona un segmento del público para convertirlo en el centro de la
campaña. De esta manera realiza una interpelación directa a ese tipo de consumidor y todo gira en
torno a la relación con un consumidor. El segundo paso de selección consiste en la selección de
facetas de la subjetividad de los consumidores (trabajo cualitativo). La selección del público va a
ser interpelada pero el resto también puede serlo. Todos pueden ser movilizados por la campaña
ya que esta estrategia combina lo particular con lo general. Esta estrategia es utilizada para
productos genéricos (no específicos) ya que compiten en un mercado saturado.

Enigma o suspenso: Presenta al público una incógnita que con el tiempo se va desvelando, hasta
que en un momento dado se muestra la solución. Produce un deseo, resolver el significado de algo
(provoca una expectativa). Nace en los años 70.7

Estrategia creativa en la publicidad

La estrategia se define como “lo que se quiere decir” a la audiencia; implica que tanto la campaña
como el mensaje deberán ser tolerantes, consistentes y sólidos porque persiguen objetivos que se
relacionan con los gustos, valores, intereses, expectativas y todo aquello que implica la primacía y
el juicio de la audiencia, en el diseño de un cromo publicitario se exige un vocabulario adecuado,
excelente redacción de textos, óptima selección de colores, imágenes apropiadas y
evidentemente, un medio de difusión conveniente.

La creatividad que se apoye en la estrategia es la que buscara traducir el objetivo de comunicación


en una expresión adecuada para que el publico objetivo responda en los términos deseados por el
anunciante.

La estrategia creativa:

Consiste en establecer como comunicar lo que se dirá en un mensaje comercial o publicitario.

Determina cual será la forma más efectiva de hacer llegar el mensaje a los consumidores.

Deberá ser formulada por el equipo creativo junto con el equipo del departamento de contacto-
cuenta y el de medio.8

Publicidad de Unicef en un tren

Medios publicitarios
Los medios, actividades o canales que utiliza la publicidad para anunciar productos o servicios,
comúnmente se dividían en ATL o "Above the line" y BTL o "Below the line".

Sin embargo, estos términos resultan inefectivos en la actualidad debido a la heterogeneidad de


las actividades y modelos de agencia.

"Above the line" (ATL) se refería a aquellos medios y actividades cuya inversión se contaba para
determinar la comisión, y por eso quedaban "arriba de la línea" sumatoria de "la cuenta". Después
de calcular comisiones, quedaban las actividades "Below the line" (BTL) que se refieren a todas
aquellas consideradas "aparte" de la cuenta para calcular la comisión. Hoy en día la diferenciación
de estos dos términos resulta impráctica debido a que medios masivos tradicionales como la TV y
la radio han dejado de pagar comisión a las agencias (salvo por las agencias de medios), como
también medios masivos digitales, como el WWW o la TV online puede causar comisiones. La
discreción a este respecto depende más bien de los acuerdos con cada agencia y medio y menos
del tipo o categorización de los medios y actividades por lo que hoy resulta imposible definir qué
es ATL y qué es BTL de manera categórica.

Above the line; medios convencionales

Artículo principal: Above the line

Anuncios en prensa

Anuncios en televisión: Publicidad realizada a través de cadenas de televisión, bien a través de


spots, patrocinios, microespacios temáticos... Es un medio caro y de gran impacto. Sólo utilizable
para productos o servicios de amplio consumo. Se han introducido nuevas fórmulas como el
patrocinio de programas o recomendación de presentadores (placement). Es sin lugar a dudas el
ATL más poderoso.9

Anuncios en radio: Desplazada en relevancia por la televisión, mantiene un público que por
necesidades concretas o preferencias subjetivas escuchan el medio fielmente.

Anuncios en prensa: Medio muy segmentado por su naturaleza: existen revistas de niños,
jóvenes, mujeres, profesionales, etc. Se trata de un medio leído por personas que gustan de
información por lo que la publicidad puede ser más extensa y precisa.

Anuncios en exteriores: Vallas, marquesinas, transporte público, letreros luminosos, «unipole»,


vallas prisma, etc. Debe ser muy directa e impactante, «un grito en la calle».

Publicidad online o anuncios en línea: Anuncios que están estratégicamente ubicados, en un


sitio web o portal, como: foros, blogs o páginas dedicadas. Se pueden presentar en Banners,
Google adwords, Google adSense, MicroSpot, entre otras. (La web 2.0 ha llevado a un nuevo nivel
a este medio). En el pasado, por incipiente era considerado BTL sin embargo hoy es el medio más
importante en la estrategia publicitaria, por lo que no podría estar por debajo de la línea del
presupuesto (BTL).

Below the line; medios alternativos

Artículo principal: Below the line

Eventos y Activaciones: Es la activación de marcas y productos en puntos de ventas o zonas de


influencia del público objetivo. Estos pueden producirse en supermercados, restaurantes,
discotecas, estadios, espectáculos, etc., o cualquier lugar en donde podamos encontrar al público
objetivo. Este medio comunica directamente al GO, mediante el uso de activaciones vistosas y
complejas o simplemente con anfitrionas e impulsadoras en equipos pequeños.

Product placement: Es la presentación de marcas y productos de manera discreta en programas


de T.V. o series, noticieros y similares.

Anuncios cerrados: Anuncios desarrollados para exhibirlos en medios específicos tales como
videojuegos o películas.

Anuncios en punto de venta: Se realiza por medio de displays o visualizadores, muebles


expositores, habladores, carteles o pósteres, etc., que se sitúan en el lugar en el que se realizará la
venta. Es un refuerzo muy importante pues es allí donde se decide la compra. Generalmente, se
utilizan como BTL o complemento de campañas publicitarias y promociones en marcha.

La web 2.0 incluye redes sociales, y con esto la posibilidad de que todos los consumidores puedan
aportar sus comentarios acerca de los productos. No únicamente para hacer publicidad a través de
banners.

Through the line (TTL, ‘a través de la línea’); medios asimilados o híbridos

Artículo principal: Through the line

Conjunto de herramientas donde los medios del ATL y BTL, se desarrollan sinérgicamente para una
campaña.

Al tener en cuenta la base de una para el desarrollo de la otra, cabe mencionar que no es
necesario emplear las dos técnicas de publicidad.

Eficacia de la publicidad

Hay dos grupos de efectos de la publicidad: económicos y psicológicos. Afirmaciones como "la
eficacia de la publicidad no tiene que ver de forma inmediata con el efecto de las ventas" son en
parte ciertas, ya que éstas son el resultado de un conjunto de factores como la publicidad, imagen,
marca, precio o distribución.

Aunque está extendida la tesis de que es imposible aislar el efecto vendedor específico de la
publicidad, esto es posible a través de métodos econométricos y de experimentación. El efecto de
la publicidad puede traducirse en valores psicológicos como la percepción, el recuerdo, las
actitudes, y la intención de compra, medibles mediante encuesta.

Asimismo, otro error es afirmar que la publicidad eficaz es aquella que cumple los objetivos que le
han sido marcados, sin embargo cuando los objetivos están correctamente bien planteados y se
trabaja con una metodología concreta es más probable que la publicidad pueda ser eficaz. Es
necesario hablar de objetivos lógicos o realistas, a partir de un estudio previo para poder conocer
la situación comercial de partida, de la marca o empresa. Además para que las expectativas sean
lógicas es necesario saber la cuota de mercado, el porcentaje de las ventas propias con respecto a
la competencia. La eficacia a largo plazo puede medirse de una manera menos mensurable como
la percepción de calidad o de estatus de la marca más allá de la calidad intrínseca de la misma. Se
llama valor de marca al conjunto de valores que adopta una marca apoyándose, entre otros
medios, en la publicidad.

Los métodos para medir la eficacia de la publicidad son el pre-test y el post-test, el primero se
aplica antes del lanzamiento de las campañas publicitarias y el segundo tras aparecer en los
medios. En este caso, también son útiles los incentivos y premios, galardones que miden la eficacia
de dichas campañas y que son votados por los propios profesionales.10

Eficacia publicitaria

Para calcular la eficacia publicitaria existen una serie de ratios, como STATS y Adstock. Stats fue
difundido por Jones (1995) y se calcula como el cociente entre el porcentaje de los que han
comprado la marca habiendo visto su publicidad y los que han comprado la marca sin haber visto
la publicidad, y ello referido a un período muy reciente como el día anterior o la última semana.
Por ejemplo, y según un sondeo, si los que declaran haber visto publicidad de la marca son 300 y
los que han comprado son 100, y los que han comprado son 80 dentro de un conjunto de 400 que
no han visto anuncios, entonces tendríamos un stat de: (100/300:80/400)*100= 165.

El stat por cada marca se puede calcular mediante panel de fuente única o bien mediante sondeo,
siendo el primer método más costoso pero más fiable (los stat por panel suelen resultar inferiores
a los de sondeo).
Adstock fue creado por Broadbent (1979) y es un método para calcular el remanente de impacto
publicitario para aquilatar mejor la planificación de medios en el tiempo. Utiliza el concepto de
half life o media vida y es el tiempo que tarda en caer a la mitad el impacto de una campaña
(expresada en GRP). Para la medición es necesario disponer un sondeo continuado que muestre
en qué momento se ha producido la caída a la mitad del efecto. Por ejemplo, una campaña de 60
GRP semanales que llega a obtener un aumento en las ventas del 5% por semana durante el
tiempo de campaña, luego desaparece la campaña y es a los 8 días cuando se comprueba que las
ventas sobre los que declaran en la encuesta se encuentran en el 2,5% de más sobre lo habitual
(en total), podemos decir que el half life es de 8 días para 60 GRP semanales. El índice de caída se
calcula para ese half life como 1-0,917/1+0,917=0,0432 (0,917 es el fruto de la tabla de cálculo
establecida por el mismo Broadbent); y desde ahí se calcula que el remanente a futuro de impacto
publicitario que permanece es de 60GRP*0,0432=2,59GRP.

Actualmente, en los medios online podemos obtener con herramientas como Google Analytics,
datos fiables de aquellos usuarios que respondieron al correo, rellenaron el cupón, pincharon en el
banner o entraron en el microsite.

Con esta herramienta se pueden conocer datos tales como el número de clics respecto al número
de impresiones, o, en el caso de una venta online, saber cuántos usuarios han realizado la compra.
Estas herramientas evalúan la eficacia de las campañas en el medio Internet.

Otro medidor de efectividad de una campaña publicitaria hacia una marca específica, es el return
of investment (ROI) que calcula en cifras la rentabilidad que ha ganado la marca posterior a la
campaña. Es cuantificable, pues se estipula como la cantidad de dinero que ha ganado la marca en
relación a lo invertido anteriormente en publicidad. Si la campaña fue exitosa, la estrategia que se
formuló lo fue también, es decir, que el mensaje fue idóneo, sonoro e impactante, memorable, es
decir que generó recordación en el público objetivo o target.

Publicidad social

Las mismas técnicas de publicidad que promocionan productos comerciales y servicios se pueden
utilizar para informar, para educar, motivar y concienciar al público objetivo sobre temas de
importante relevancia para la sociedad, tales como el sida, el ahorro de energía o la deforestación.
La publicidad social es aquel esfuerzo dirigido a modificar determinadas conductas sociales que se
convierten en problemas para la convivencia en sociedad, la metodología usada para su creación
es similar a la que utiliza la publicidad comercial.

Es importante resaltar la diferencia entre campañas de publicidad social y campañas de


responsabilidad empresarial, ya que estas últimas son producidas con una marca como principal
emisor y, a pesar de cumplir con los objetivos de una campaña de bien público, la empresa tiene
un rédito positivo a nivel de imagen de marca.

La publicidad, en su forma no comercial, es una herramienta educativa de gran envergadura capaz


de alcanzar y de motivar a gran cantidad de público. «La publicidad justifica su existencia cuando
se utiliza para el interés público; es una herramienta de demasiado gran alcance para utilizarla
solamente para los propósitos comerciales» —atribuido a Howard Gossage, de David Ogilvy—.

Publicidad de servicio público, publicidad no comercial, publicidad de interés público,


mercadotecnia de causa y mercadotecnia social son diferentes términos o aspectos del uso de
técnicas sofisticadas de publicidad y de comunicaciones de marketing (asociadas generalmente a
empresa comercial) al servicio de asuntos de interés y de iniciativas no comerciales. La publicidad
de servicio público alcanzó su auge durante la I y II Guerra mundial bajo la dirección de varias
agencias estatales de Estados Unidos.

Regulación de la publicidad

Desde los años 2000 ha aumentado el esfuerzo por proteger el interés público regulando el
contenido y el alcance de la publicidad.

Existe la autorregulación, por parte de la misma industria, que se encarga de establecer ciertas
normas fundamentales para la sana práctica de la comunicación comercial. En todo el mundo
existen diversos organismos encargados de velar por esta autorregulación publicitaria, bajo los
principios fundamentales del respeto por la legi slación local, la veracidad, la competencia honesta
y leal y la moral social predominante. Además en los últimos años han existido diversas iniciativas
de alfabetización mediática, y más específicamente publicitaria, que buscan empoderar a los
receptores frente a las campañas publicitarias de los medios de comunicación.11

Argentina

La publicidad resulta un medio o instrumento del cual se vale el empresario para promover la
realización de negocios y es puesta en el mercado de tal forma de concitar la atención del
consumidor.

En este sentido, el artículo 8º de la ley 24.240 establece que las "precisiones" en la publicidad
obligan a la empresa dueña del producto o servicio publicitado y asimismo la jurisprudencia ha
entendido que el "entorno" publicitario cuando es esencial al marco general de la contratación
también la obliga conforme a los arts. 10 y 961 del CCCN.12
Europa en general

En Europa y en otros lugares, se produce una discusión vigorosa sobre cuánta publicidad infantil
debe ser regulada. Esta discusión fue exacerbada por un informe lanzado por la Fundación de
Familia de J. Kaiser Family en febrero de 2004[¿cuál?] que sugirió que los alimentos anunciados
para niños constituían un factor importante en la epidemia de la obesidad infantil que se extendía
a lo largo de Estados Unidos.

Perú

Mediante la ley 28.705 se regula y restringe el consumo, venta y publicidad de productos hechos
con tabaco en el Perú, disponiéndose las medidas en el capítulo IV, denominado "De la publicidad,
promoción y patrocinio del tabaco".13

Se prohíbe, por ejemplo, la publicidad directa o indirecta de productos de tabaco en medios de


comunicación de televisión de señal abierta, radio u otro medio similar.

Suecia

Algunos ejemplos son la actual prohibición de la publicidad del tabaco (salvo excepciones como
presentaciones dentro del sector, etc.), y la prohibición total de la publicidad a los niños menores
de doce años impuesta por el gobierno sueco en 1991; aunque esa regulación continúa con efecto
para las difusiones que se originan dentro del país, ha sido rebajada por el Tribunal de Justicia de
las Comunidades Europeas, que dictaminó que Suecia está obligada a aceptar lo que aparezca en
la programación de países vecinos o vía satélite.

Crítica a la publicidad

A medida que los esfuerzos de publicidad y de comercialización de productos se han hecho más
presentes en nuestra cultura, la industria ha sufrido la crítica de grupos tales como Adbusters por
fomentar el consumismo usando técnicas propias de la propaganda. "Ciertas variables sociales
como el etnocentrismo, los estereotipos, la influencia, el estatus y el sexismo, pueden influir en las
decisiones de consumo de las personas; y por otra el marketing al incorporar éstas, puede
contribuir a mantener o modificar ciertos comportamientos sociales" (Velandia y Rozo, 2009,
p.19).Tales críticas han planteado preguntas sobre si este medio es el que crea estas actitudes o si
simplemente es mero reflejo de estas tendencias culturales14. "Un anuncio se considera sexista
cuando maneja de manera estereotipada los roles de hombres y mujeres".15

Publicidad en el metro, en España. La publicidad se ha convertido en un reflejo de los rasgos


sociales de una sociedad.
Un ejemplo de las variables sociales serían los estereotipos y roles de género. La publicidad
participa en la construcción estereotipada de los roles de hombres y mujeres; lo que tiene claras
implicaciones sociales relacionadas con la inequidad de género (Davies, Spencer & Steele, 2005),
evidenciado, por ejemplo, en las ideas que se tienen sobre el deber ser y actuar de hombres y
mujeres. "Los estereotipos de género tienen como una de sus funciones la construcción de
explicaciones a hechos sociales, como, por ejemplo, que existan pocas mujeres en cargos de
poder, ya que están más capacitadas para desempeñarse en las labores del hogar y en el cuidado
de los hijos; explicaciones que justifican el orden social y las desigualdades de género”.15 No
obstante las implicaciones sociales, se pueden presentar las de consumo, ya que el uso de
representaciones que no corresponden al cambio social (Belch & Belch, 2001; García & Martínez,
2009) donde la mujer ejerce liderazgo y el hombre ocupa roles familiares, puede llevar a que los
consumidores no se identifiquen, con lo cual disminuye la probabilidad de adquisición de los
productos (Morrison & Shaffer, 2003; Pérez, 2000).

De acuerdo con García y Martinez, 2009 en la promoción de nuevos productos “existe una mayor
tendencia (79% de los casos) al uso de una representación femenina en la promoción de
productos para el cuerpo y de uso domestico (baño, cocina, etc.), sin tener una representación
significativa en categorías como deportes, política, tecnología; mientras que en la publicidad de
categorías como productos financieros y empresariales, automóviles y telecomunicaciones los
porcentajes de aparición de mujeres está por debajo del 15% en contraste”.

En el caso de los roles y estereotipos del sexo femenino que existen en la publicidad, “Las mujeres
representadas son en su mayoría jóvenes, incluyendo en esta definición adolescentes, post-
adolescentes y adultas jóvenes, es decir mujeres de menos de 40 años (...) las mujeres
protagonistas de los avisos representan a mujeres de raza blanca, de una clase social que podría
definirse como media en función de atributos como indumentaria, tipo de hogar representado, y
actividades que se realizan en las escenas (...) la adjunción de características específicas del “ser
mujer”, incluyendo la frivolidad y la emocionalidad, se manifiesta en avisos que muestran a las
mujeres siempre en el rol de consumidoras −de ciertos rubros en detrimento de otros−, es
solidaria de la “división sexual del trabajo” −generalmente se las ignora en sus roles productivos− y
complementaria de la “naturalización de la responsabilidad de la limpieza del hogar, la cocina y
crianza de hijos/as”.16

Al paso del tiempo, en la industria de la publicidad, ya están apareciendo nuevos estereotipos;


describen a una mujer como trabajadora incansable, la de madre soltera y la de la joven que
comparte casa con su pareja. También comentan la aparición de la imagen de la mujer
desempeñando profesiones antes reservadas sólo al hombre.17
Se distorsiona la imagen real de las mujeres utilizando patrones culturales como por ejemplo:

Niñas de varias edades muy socializadas en papeles femeninos clásicos;

Jovencitas y casi adolescentes más definidas como jóvenes que como mujeres;

La mujer mayor, la abuelita. En los anuncios con protagonistas mayores, se busca más al grupo
de edad que al sexo;

La madre de familia de mediana edad (feliz, sin cansancio, al servicio de todo y toda la familia).
En ella se confunden los roles de ama de casa, madre y esposa;

La mamá juvenil, responsable y activa. Suele aparecer bella y feliz, aunque esté embarazada o
tenga uno o dos hijos, casi siempre guapos y poco latosos;

La mujer-objeto (objeto sexual). Es pasiva, se presta a la contemplación y el deseo masculino sin


tener opinión;

La seductora, mujer de mundo (no exactamente mujer fatal). En anuncios de perfumes, belleza,
automóviles, etc;

La mujer fatal. Anuncian perfumes o productos muy exclusivos y generalmente caros y


superfluos.

La novia, amante, compañera ideal (una variante de la seductora, pero más sencilla y natural);

La profesional de éxito (a la que se tiende a sumar alguno de los tipos anteriores) pero que no
abandona los estereotipos clásicos de la mujer de siempre.

Es interesante que en la radio existe un porcentaje tan bajo de anuncios sexistas mientras que, en
la televisión estas categorías presentan un porcentaje mucho más elevado.17 En cuanto a roles,
las mujeres son representadas mayoritariamente en situaciones donde ejecutan papeles
tradicionalmente femeninos (madre, ama de casa) caracterizados por la dependencia y el cuidado
de otros (hijos, esposo) o en situaciones que las limitan a ser un objeto sexual…las
representaciones masculinas son más asociadas a productos de tecnología, automóviles; en roles
de liderazgo, independencia, inteligencia, trabajo fuera del hogar desempeñándose en un rol
profesional (Furnham & Mak, 1999; Royo-Vela, cols., 2008).

Véanse también: Contrapublicidad y Anticonsumismo.

Futuro

Actualmente se distinguen dos clases de publicidad según la clase de medios en que se emite: la
publicidad offline (a través de los medios clásicos, como televisión, radio, prensa...) y la publicidad
online (a través de los nuevos medios, como Internet). Los nuevos medios tales como Internet
están permitiendo nuevas formas de interactividad con los usuarios y generando en especial lo
que se conoce como "suscripción a contenido por demanda". Esto permite que los prospectos se
agrupen en grupos objetivos de manera voluntaria y pueda comunicárseles información que están
dispuestos a consumir. RSS (Really Simple Sindication) está recreando la publicidad de maneras
novedosas y más inteligentes. Los podcasts (una forma de RSS en audio) permiten que los usuarios
descarguen automáticamente contenido de estaciones radiales según sus preferencias personales.
Lo anterior nos ha llevado a caracterizar estos medios como medios dirigidos o relevantes, ya que
mediante ellos la publicidad llega a la gente que nos interesa de forma específica y no al público
en general.

Esto tiene un alto potencial publicitario. Del mismo modo, cuando uno se suscribe a un contenido
RSS puede estar dando permiso al remitente de adjuntar publicidad relativa al tema de su interés.
Nuevas plataformas como el product placement y las campañas de guerrilla utilizan medios no
convencionales para sus piezas de comunicación. Los blogs son también herramientas que dan
liderazgo de opinión a las marcas que los utilizan y al mismo tiempo una gran fuente de enlaces y
contenido focalizado. Las redes sociales proporcionan también un público objetivo focalizado, que
ofrece una predisposición positiva así como una fácil y rápida propagación. El consumidor pasa de
ser pasivo a participativo.

Un estudio presentado hace menos de un año por la consultora A. T. Kearney, que estudió
minuciosamente las preferencias de los nuevos procesos de compra llamados omnichannel revela
nuevas tendencias en los hábitos de compra. Dependiendo del producto o servicio, hasta un 90%
de las decisiones de compra se realizan en el punto de venta.18 Por esta razón, la publicidad
interactiva o a través de los medios dirigidos en el punto de venta se ha convertido en un valor en
alza. Existen numerosas iniciativas de pantallas interactivas/pasivas en sucursales bancarias,
supermercados, hoteles, etc. Existen numerosas nuevas soluciones software de publicidad
interactiva (Admiradn o SaaS). Dichas soluciones permiten a los gestores de los circuitos gestionar
cientos de puntos de ventas desde un entorno web, y automatizar la creación y envío de
contenidos multimedia publicitarios.

¿Qué es la publicidad y para qué sirve?

La publicidad puede entenderse como una fórmula de comunicación pagada por las empresas para
anunciarse en los diferentes medios disponibles en el mercado. Sin embargo, dada la cantidad de
medios en los que los negocios pueden anunciarse, existen muchos tipos de publicidad.
Publicidad offline. Podemos enumerar los principales: publicidad en prensa, publicidad en radio,
publicidad en TV, publicidad exterior o publicidad directa están entre algunos de los formatos
disponibles offline.

Publicidad digital. Dentro de la comunicación patrocinada online existen una gran cantidad de
alternativas: vídeo, anuncios en buscadores, display, redes sociales, email marketing, etc.

Dependiendo de los objetivos empresariales se deben utilizar unos formatos publicitarios u otros.
Decidir el plan de medios es una de las fases estratégicas más importantes al crear una campaña
de publicidad. Esta será, junto con la medición, la clave para tomar las decisiones más adecuadas
para potenciar la imagen, notoriedad y ventas de la marca.

Conceptos que desde Cyberclick consideramos que no debes perder de vista dentro de la
publicidad, y más, dentro de la publicidad digital son estos:

Publicidad en redes sociales. ¿Dónde se encuentra nuestro público? La mayoría está en las redes
sociales. Esto significa que no podemos dejar las social ads fuera de nuestra estrategia de
inversión publicitaria. Recuerda, Google y Facebook son las dos grandes plataformas publicitarias a
día de hoy en el entorno digital.

Publicidad en Facebook. Es la reina de las redes sociales y muchas empresas no podrán dejar de
lado Facebook Ads. Las posibilidades de campañas, tipos de objetivo y formatos, la variedad de
segmentaciones de la audiencia y muchos otros parámetros, permiten impactar a nuestro target
correcto en el momento adecuado.

Publicidad en Twitter. Twitter Ads es una de las plataformas actuales más interesantes para
hacer publicidad. Con una audiencia estable y muy enfocada a la actualidad informativa. El primer
lugar donde encontrarás qué está pasando en el mundo es en Twitter. Aunque es cierto que el
crecimiento de usuarios se ha estancado, la comunidad de esta social media es muy activa. Un
target medio alto, bien formado y preocupado por el aquí y el ahora. Encontrarás que los
seguidores de Twitter son muy valiosos para tu empresa.

Publicidad en LinkedIn. La red profesional por excelencia a nivel internacional. La mayoría de


directivos y empleados tienen colgado su currículum en esta red y la usan para realizar
networking. Con LinkedIn Ads encontrarás un target muy bien segmentado y predispuesto a
escuchar tu mensaje, eso sí, los costes de media son un poco más elevados que en otras redes
sociales, pero con un ROI excelente.

Publicidad en Instagram. La red social más de moda en estos momentos. La generación


millennial está muy presente en Instagram y es muy activa. Además, el crecimiento de usuarios no
para de crecer. La plataforma publicitaria ideal para cualquier empresa con un target comprendido
entre 18 y 35 años. No dejes de lado Instagram Ads.
Agencia de Publicidad Online. ¿No sabes qué agencia elegir? Quieres entender mejor cómo
funcionan las empresas del sector de la publicidad digital. Entonces ten muy presente este
concepto y descubre más sobre el tema.

Campaña publicitaria. Textos, copy, imágenes, vídeos, segmentación, canales de publicidad, etc.
Estos son conceptos muy asociados a una campaña publicitaria. Se entiende como un grupo de
creaciones e ideas que se realizan con el objetivo de vender un producto o servicio.

Publicidad online o Publicidad Digital. La publicidad en el entorno digital o en internet se


denomina publicidad online o publicidad digital. Descubre las diferencias entre la publicidad
tradicional y la focalizada en la red.

Tipos de publicidad. Hay muchos tipos de publicidad o acciones publicitarias, pero eso sí, se
deben usar en el momento adecuado dentro del embudo de conversión del usuario, porque cada
formato de publicidad es más efectivo en una fase u otra (en la TOFU, MOFU o BOFU). Para
descubrir los tipos de publicidad para internet y en qué momento se deben usar, lo mejor es
descubrir cómo funciona la metodología Funnel Advertising.

Qué es la publicidad en 10 puntos clave (decálogo)

Tiene un fin promocional, para dar a conocer un producto o servicio y fomentar su compra.

Su principal función es persuadir al consumidor.

Es parte de la estrategia de marketing de la empresa, sea online u offline.

Se dirige a un buyer persona determinado.

Tiene costes para el anunciante (empresa que paga la publicidad).

La publicidad busca ser original y captar la atención de las personas.

Emplea una amplia variedad de productos y canales creativos.

Uno de sus fundamentos es la repetición del mensaje para que cale entre la audiencia.

Mayoritariamente suele ofrecer productos o servicios personalizados.

La publicidad debe ser ética.

LAS 10 CARACTERÍSTICAS
La estrategia publicitaria

La fase del diseño de la campaña, o estrategia publicitaria consta de diferentes procesos que
analizamos a continuación. Pese a que los negocios que no son del sector del marketing no le dan
demasiada importancia a este aspecto, sin un buen planteamiento inicial será muy complicado
lograr los resultados esperados por la publicidad.

Copy strategy: en este proceso se define la idea principal de la campaña. Debe incluir los
objetivos de la marca para luego ser enviada al equipo creativo que transformará esa propuesta
inicial en un contenido publicitario final.

Estrategia creativa: una vez se obtiene el producto en la fase anterior este es analizado por el
departamento creativo en dos fases. La primera de ellas es la del contenido. De esa se encargan
los “copies”, apostando por crear mensajes y argumentaciones que convenzan al usuario final. La
segunda es la codificación. En este proceso se transforma el mensaje del copy en un arte final que
puede incluir imágenes, vídeos, infografías o tipografías específicas. Es toda la parte del diseño
visual realizada por los creativos publicitarios.

Estrategia de medios: definidos los dos pasos anteriores queda por especificar en qué medios
será publicada la campaña ya diseñada. Todo dependerá de los objetivos de alcance y
segmentación que precise la empresa. Lo ideal es analizar todas las opciones hasta dar con el
planning perfecto.

El lenguaje de la publicidad

Cuando una marca tiene claro que desea invertir en publicidad, no es suficiente con tener claro el
mensaje a comunicar en una estrategia específica. Dentro de la estrategia creativa se llevan a cabo
procesos de codificación importantes que transforman propuestas empresariales en historias con
contenido para comunicar. El lenguaje publicitario es muy importante para lograr conectar con el
público. A nadie se le ocurriría lanzar un anuncio en el que se diga “Cómprame a mí”. Aunque este
sea el objetivo corporativo. Hay que transformar esa propuesta antes de lanzarlo al mercado.

Una de las opciones de transformación es la de apostar por la creación de un slogan corporativo


potente. Se trata de una de las estrategias que mejor funcionan en el mercado. Gracias a ellas se
consigue una posición ventajosa en la mente de las personas. Cabe por ejemplo recordar el
ejemplo de una conocida marca de coches: ¿Te gusta conducir? Con una frase que se puede
utilizar en el día a día, el público potencial recuerda siempre a esa compañía y a sus automóviles.
Es más, gracias a ese mensaje simple pero efectivo, BMW está siempre en el top 3 de las marcas
de automoción ante preguntas básicas como: Dime el nombre de las marcas de coches que antes
te vengan a la cabeza.

Otras fórmulas específicas del lenguaje de la publicidad están relacionadas con la música. Aunque
actualmente no es un formato demasiado utilizado por las marcas, muchas de ellas han
conseguido que sus consumidores las recordasen tarareando canciones pegadizas. Un buen
ejemplo en España está en la canción del Cola Cao ¿Quién no se acuerda de ella?

Los 8 tipos de publicidad digital que no debes perder de vista

Diferencias entre publicidad online vs offline

Con la llegada de Internet aparecieron una serie de formatos de publicidad que se agrupan en el
concepto de publicidad online. Precisamente una de las diferencias más importantes entre
tipologías publicitarias es esa. Si el medio o soporte que se utiliza en una campaña está en la red,
entonces hablamos de publicidad online. Sino, se hace referencia a esas campañas como acciones
de publicidad offline.

Una buena campaña de publicidad puede contar con ambas tipologías para alcanzar sus objetivos.
Sin embargo, por una serie de razones que especificamos a continuación, la inversión en medios y
soportes online ha ido aumentando en los últimos años. Cada vez que se les pregunta a las
empresas sobre sus presupuestos para publicidad casi siempre se comprueba, que año tras año, se
plantean una mayor inversión en la red.

El coste. Está claro que con todas las tipologías tan diversas que existen de publicidad offline y
online, no se puede generalizar. Hay acciones más y menos costosas. Pero, de forma habitual, en
Internet se puede lograr una efectividad alta a un precio mucho más razonable que en las
campañas de publicidad convencional.
Conversión directa vs. indirecta. Una de las diferencias más importantes entre la comunicación
pagada que se emite en medios tradicionales con respecto a la publicidad de Internet está en el
tipo de conversión. En la red, el usuario está expuesto a una campaña con la que puede
interactuar de manera inmediata. Por ejemplo: ver un anuncio, hacer click en él, ir a la tienda y
comprar. Esto no se puede lograr con la otra tipología publicitaria.

Métricas y métodos de contratación. Las estadísticas de la publicidad digital son


extremadamente precisas y se pueden obtener fácilmente. Todos los datos, de todos los usuarios,
son accesibles para el anunciante. En las campañas offline no es posible obtenerlos. De hecho, las
empresas deben conformarse con una muestra representativa de alcance de usuarios, como
ocurre por ejemplo con los ratings de las TV. Además, la publicidad online se puede contratar casi
de inmediato. En los medios tradicionales hay que disponer de más tiempo para su publicación.

Ajustes en tiempo real. Otra de las ventajas del mundo digital está centrada en los ajustes de las
campañas de publicidad en el tiempo. Con el análisis específico mediante métricas, una empresa
puede cambiar su estrategia de inversión en cuestión de minutos si ha optado por la comunicación
pagada online.

Alcance del target. La discusión sobre el alcance entre publicidad online y offline sigue sobre la
mesa. Es cierto que para que los anuncios digitales lleguen al público, este debe contar con
Internet. Y eso puede resultar una barrera. Sin embargo, no es menos cierto que en la red se
permite una amplia segmentación con la que alcanzar a aquellos segmentos de la población
considerados target específico. Lo contrario se da en los medios offline. Ellos son capaces de
alcanzar grandes masas de la población, pero sin filtros concretos.

La publicidad es una necesidad para las empresas. Es necesario el diseño de estrategias


específicamente diseñadas para tus productos con el fin de darlos a conocer y crear una buena
reputación de ellos en el mercado objetivo. Como has visto, no resulta un proceso tan sencillo. Por
eso te recomendamos encomendar esta tarea a profesionales especializados en el sector que te
ofrezcan los mejores resultados.

Significado de Publicidad

Qué es Publicidad:

La publicidad es un tipo de comunicación comercial para la presentación, promoción y divulgación


de productos o servicios. Es una rama de la mercadotecnia.
La publicidad es difundida mediante anuncios comerciales a través de los medios de comunicación
(tradicionales o no tradicionales), con el objetivo de informar y persuadir al público espectador de
realizar una acción de consumo, es decir, comprar o adquirir algo.

La publicidad se hace mediante campañas publicitarias, que son un conjunto de acciones,


estrategias y comunicaciones que se realizan con la intención de llamar la atención de un
determinado público (también llamado público objetivo o target) sobre determinado producto o
servicio.

Las campañas publicitarias se llevan a cabo con diferentes objetivos: aumentar el consumo de un
determinado producto, insertar una marca o producto en el mercado, posicionar o reposicionar la
imagen de una marca, generar recordación en la mente del consumidor de una marca, etc.

La publicidad, para aumentar la eficacia de su comunicación y lograr la acción de compra, puede


utilizar diferentes técnicas publicitarias: apelar a las emociones del público, apoyarse en
testimonios o demostraciones, valerse de dramatizaciones de situaciones cotidianas, entre otras.

Con estas técnicas, la publicidad no busca sino despertar el deseo, el interés o la fascinación de los
potenciales consumidores por un producto o servicio.

Hoy en día, la publicidad es una disciplina que se alimenta de muchas otras áreas de conocimiento,
como la comunicación social, la psicología, la sociología, la antropología, la estadística o la
economía para entender la mejor forma de comunicar un mensaje publicitario, llegar a una
audiencia y medir los resultados obtenidos.

Debido a que los objetivos de la publicidad son eminentemente comerciales, se diferencia de una
manera importante de la propaganda, que persigue objetivos de tipo político, religioso o social en
sus comunicaciones.

Vea también Mercadotecnia.

Diferencia entre publicidad y propaganda

La publicidad y la propaganda son cosas diferentes, aunque comparten algunas características.


Por ejemplo, tanto la publicidad como la propaganda presentan, promueven y divulgan un
mensaje al público espectador con el objetivo de llamar su atención, persuadirlo, producir una
modificación en su comportamiento o llevarlo a ejecutar una acción.

La diferencia entre la propaganda y la publicidad estriba en que la publicidad tiene una finalidad
comercial: presentarnos un producto o servicio para generar una acción de consumo. En cambio,
la propaganda busca trasmitirnos ideas u opiniones, sean estas de tipo político, religioso, filosófico
o social, sin fines de lucro.

Así, pues, mientras que la publicidad tiene un objetivo comercial, la propaganda tiene una
finalidad básicamente moral.

Ejemplos de propagandas son aquellas que promueven la educación ambiental, la lucha contra las
drogas o la discriminación racial, pero también una campaña política. Son, pues, mensajes que
buscan difundir información, concientizar, persuadir o modificar conductas sin procurar el lucro.

Publicidad subliminal

La publicidad subliminal comprende un tipo de anuncios publicitarios de carácter sonoro, visual o


audiovisual, que contiene mensajes no explícitos o que no son percibidos conscientemente por las
personas, con la finalidad de crear estímulos e influir en la conducta del público para generar una
acción de consumo.

En teoría, la publicidad subliminal se propone manipular el subconsciente de las personas sin que
estas lo adviertan. Para ello, se vale técnicas como las imágenes escondidas, las ilusiones visuales,
el doble sentido, las emisiones de ultrafrecuencia, etc.

No obstante, no se ha podido demostrar hasta qué punto estos métodos de persuasión son
eficaces comercialmente.

Publicidad engañosa

La publicidad engañosa es aquella en la cual un anuncio publicitario implica un mensaje contrario


al desempeño real del producto o servicio comercializado.
En este sentido, es un tipo de publicidad deshonesta, pues su comunicación pretende inducir a
error a sus destinatarios, o a silenciar u obviar algunos aspectos fundamentales del producto o
servicio que podrían influir en la decisión final de compra.

Vea también Publicidad engañosa.

Publicidad ATL

La publicidad ATL (siglas de above the line, que en inglés significa ‘arriba de la línea’) es el tipo de
comunicación comercial que emplea medios masivos tradicionales, como la televisión, la radio, la
prensa, el cine o la publicidad exterior, para promocionar y difundir un producto, bien o servicio, y
llegar a un público amplio con mayor impacto y resonancia.

Es un tipo de publicidad para productos de consumo masivo o en busca de construcción o


posicionamiento de marca.

Publicidad BTL

La publicidad BTL (siglas de below the line, que en inglés traduce ‘debajo de la línea’) es un tipo de
comunicación publicitaria no masiva, también conocida como marketing de guerrilla, que se vale
del ingenio, la creatividad y el sentido de la oportunidad para promocionar y difundir un producto,
bien o servicio, a través de canales alternativos a los tradicionales.

En este sentido, plantea un contacto directo con el público objetivo (la comunicación va dirigida a
su segmento específico) y emplea estrategias como el telemercadeo, el correo directo, las
relaciones públicas, el punto de venta, el merchandising, el patrocinio, el product placement, la
venta directa, así como los anuncios en internet y las redes sociales.

La publicidad BTL genera un mayor impacto, reacción y respuesta del público objetivo, y también
permite obtener una retroalimentación inmediata y datos concretos de la efectividad de la
campaña publicitaria para la medición de los resultados.

Vea también Publicidad BTL.

Publicidad digital
La publicidad digital, publicidad en internet o publicidad en línea, es aquella que se vale de las
plataformas digitales, sea en formato web o móvil, para promocionar y comercializar un producto,
bien o servicio, y generar una acción de consumo en el público.

La publicidad digital se vale de todos los recursos que tiene a su disposición en internet, como
páginas web, banners, redes sociales, blogs, correo electrónico, videos, webinars o video
conferencias, podcastings, mensajería SMS, entre otros.

Actualmente, la colocación de publicidad en internet se vale de sistemas como AdWords y


AdSense, que identifican los intereses de los usuarios para, bajo ese criterio, mostrar los anuncios.

propaganda es una forma de comunicación que tiene como objetivo influir en la actitud de una
comunidad respecto a alguna causa o posición, presentando solamente un lado o aspecto de un
argumento.23 La propaganda es usualmente repetida y difundida en una amplia variedad de
medios con el fin de obtener el resultado deseado en la actitud de la audiencia.

De modo opuesto al suministro de información libre e imparcial, la propaganda, en su sentido más


básico, presenta información parcial o sesgada para influir una audiencia. Con frecuencia presenta
hechos de manera selectiva y omite otros deliberadamente para sustentar una conclusión, o usa
mensajes controlados para producir una respuesta emocional, más bien que racional, respecto de
la información presentada. El efecto deseado es un cambio en la actitud de una audiencia
determinada acerca de asuntos políticos, religiosos o comerciales. La propaganda, por lo tanto,
puede ser usada como un «arma de guerra» en la lucha ideológica o comercial.45

Mientras que el término «propaganda» ha adquirido en algunos casos una connotación


sumamente negativa debido a los ejemplos de su uso más manipulador y chauvinista (p. ej., la
propaganda nazi para justificar el Holocausto), el sentido original de la palabra era neutro.5

Cuando la propaganda tiene como fin el promover el consumo y las ventas de bienes o servicios,
es llamada publicidad. Debido a que este último campo de la actividad comunicativa es muy
amplio y extendido, generalmente se prefiere darle al término propaganda un significado más
restringido a los ámbitos ideológico, político o religioso.

Etimología
Etimológicamente la palabra propaganda proviene de propagar, tomada del participio de futuro
pasivo del verbo latino propagare que significa 'perpetuar, acrecentar, extender'.5 Aunque a veces
la palabra propaganda es usada como sinónimo de exageración, falsedad y abuso, la propaganda
como tal significa expansión, diseminación, multiplicación rápida. La palabra tiene su origen en la
institución de la iglesia católica dedicada a la misión, la Sagrada Congregación para la Propagación
de la Fe (Sacra Congregatio de Propaganda Fide), fundada en 1622 por el papa Gregorio XV. La
institución fue rebautizada en 1982 y hoy se llama Congregación para la Evangelización de los
Pueblos (Congregatio pro Gentium Evangelisatione).

Historia

Ejemplo de propaganda de la Guerra Civil Inglesa.

Los edictos de Asoka (siglo III a. C.) son una serie de edictos escritos que se han conservado en
columnas o rocas naturales distribuidas por el Norte del subcontinente indio. Estas inscripciones
estaban ubicadas en enclaves importantes como cerca de las ciudades, rutas comerciales o
centros religiosos, con lo que el gobierno de Asoka se aseguraba de llegar al máximo número de
gente posible. Eran preceptos morales, religiosos y prestaciones sociales en relación a hombres y
animales.

Siendo conocida mucho antes en la India y China, la propaganda en Europa tiene sus inicios
escritos ya en inscripciones de mensajes publicitarios entre los comerciantes griegos. En la curia
romana se la utilizaba para difundir su mensaje religioso. Esta herramienta vuelve a ser utilizada y
a expandirse gracias al impulso de la Iglesia católica con su departamento de administración
pontificia dedicado a controlar las rutas misioneras del Nuevo Mundo. En el periodo de la
Contrarreforma se emplea la expresión de propaganda fide con intención pastoral, cuando el 22
de junio de 1622 el papa Gregorio XV instituye la Congregación para la Evangelización de los
Pueblos o Propaganda Fide, con el fin de propagar el catolicismo en los continentes en vías de
colonización.

Siglo XX

Cartel donde se promueve el trabajo femenino (Young Women's Christian Association).

Propaganda estadounidense de la Segunda Guerra Mundial, donde se apremia a los ciudadanos a


aumentar la producción.

Sin embargo, no es hasta la Primera Guerra Mundial cuando se inicia la sistematización del uso de
la información al servicio de los intereses belicistas.8 El periodista Walter Lippmann y el
relacionista público Edward Bernays fueron los responsables de orquestar la primera campaña
antialemana en Estados Unidos para que el pueblo estadounidense diese su visto bueno a la
entrada de este país en la contienda.
Un ambiente de rivalidad internacional materializado en actitudes chovinistas, sumado a la
tensión propia de la época (agresivas políticas coloniales, conflictos anclados en la memoria como
la guerra franco-prusiana) iniciaron el conflicto.8 Los sectores belicistas estimularon la agresividad
recurriendo al empleo de todos los medios a su alcance, entre los que destacó el uso de la prensa
y el collage masivo de carteles propagandísticos. Los medios de comunicación (prensa y radio)
pasaron a ser controlados y censurados por los gobiernos.8

Los mensajes propagandísticos intentaban evitar la desmoralización y el derrotismo, hubo un


fuerte control de la información que se recrudeció especialmente tras la crisis de 1917.19

La Guerra Civil Española constituye un verdadero hito, fue la antesala de la Segunda Guerra
Mundial, donde se pondrían en práctica los elementos persuasivos más importantes. Como parte
de la propaganda franquista ha quedado implantada la idea de que en la Guerra Civil Española
había dos bandos enfrentados. De esta manera se le pretendió dar legitimidad al hecho de apoyar
con las armas un levantamiento contra el legítimo gobierno democrático.

Durante la Alemania Nazi, Adolf Hitler buscó modificar el sentido peyorativo que había adquirido
el término propaganda en los años posteriores a la Primera Guerra Mundial. En este sentido, su
primera acción propagandística consistió en imbuir en el pueblo alemán un concepto positivo de la
propaganda.5 Joseph Goebbels era el encargado de promocionar o hacer públicos los avisos del
gobierno.10 Usó lo que hoy en día se conoce como el marketing social, ensalzando sentimientos
de orgullo, promoviendo odios y en ocasiones mintiendo y convenciendo de cosas alejadas de la
realidad. También tuvo otras técnicas y métodos como el de hacer esperar al público alemán por
las noticias en tiempos de victoria para crear un fuerte suspenso y hacer que cuando recibieran las
buenas nuevas la alegría sea más duradera.11

La propaganda ideológica durante la Segunda Guerra Mundial y la evaluación de sus efectos,


confirmaron la eficacidad de los mecanismos de persuasión, haciendo de la guerra ideológica un
componente primordial en los conflictos armados posteriores.4

En la Guerra Fría (1946-1989), la oposición y tensión entre las dos principales potencias mundiales
de la segunda mitad del siglo XX: Estados Unidos y la URSS, que representaban a la forma de
gobierno capitalista y comunista, respectivamente. No obstante, los intereses de ambos países
evitaron un enfrentamiento directo entre las dos potencias. Por ello, el desarrollo de aquel
periodo estuvo marcado específicamente por el combate simbólico y retórico impulsado por los
dirigentes de cada uno de los bloques en cuestión. De este modo, la propaganda cobrará un valor
especial.
En el caso de los estadounidenses, la Voz de América, un ejemplo de propaganda blanca, operaba
como estación oficial de radio del gobierno. Gracias al control de este medio de comunicación, el
ejecutivo podía emitir su discurso de manera que llegara al grueso de la población. Más tarde, el
abuso de este canal será considerado por algunos críticos como una violación de la soberanía
popular. El uso de la propaganda gris lo llevará a cabo especialmente fuera del territorio, sobre
todo en la URSS y Europa del Este, donde se emitirán noticias y programas de entretenimiento en
los que se insertarán mensajes correspondientes a la ideología estadounidense. Dichos contenidos
serán emitidos por dos emisoras controladas por la CIA, Radio Free Europe y Radio Liberty.

Por lo que respecta a los soviéticos, estos pusieron en marcha unas estrategias similares a las de
los estadounidenses. También los ideólogos comunistas hicieron uso de una estación oficial que
transmitiera sus discursos oficiales, Radio Moscow. A su vez, utilizaron la propaganda gris en
territorio estadounidense a través de las emisoras Radio Peace y Freedom. Pero los soviéticos, en
el marco de su sistema estatalista, emplearon también la escuela como medio en el que desplegar
su propaganda anti-americana. Se pretendía crear en los niños una mala imagen sobre el modo de
vida estadounidense y hacer creer que la URSS era una potencia con muchos más recursos y
riqueza.

Desde ambos sectores del conflicto se introdujo la llamada propaganda negra, sobre todo en
periodos de crisis.

Siglo XXI

Después de los atentados del 11 de septiembre de 2001 el gobierno estadounidense inició lo que
denomina Guerra contra el terrorismo, comprendida como una Guerra de cuarta generación,
donde se hizo uso de los medios masivos, especialmente de los medios televisivos; sin excluir
internet. La política estadounidense se ha centrado en propagar el supuesto Choque de
civilizaciones, propaganda que promovió y logró el respaldo popular necesario para la invasión de
Irak de 2003 con el argumento de que Saddam Husein poseía armas de destrucción masiva y que
apoyaba a la red Al Qaeda.

Estados Unidos en relación al programa nuclear de Irán utilizó en 2006 la denominación de


fascismo islámico1213 en una retórica tendente a justificar un ataque contra Irán.

Si bien los gobiernos cuentan con la capacidad de difundir su retórica por medios masivos globales
en forma extensa, los grupos que son atacados mediaticamente y los que se oponen a las guerras
se valen de los medios alternativos y de internet principalmente, logrando influir en la opinión
pública.14 Por otra parte, la estrategia de los medios alternativos es distinta, ya que se centran en
ofrecer información que no se publica en los grandes medios y la participación horizontal del
espectador al poder publicar su opinión junto con la información alternativa, situación que
contradice los principios de la propaganda.

Características

La meta de la propaganda es aumentar el apoyo (o el rechazo) a una cierta posición, antes que
presentarla simplemente en sus pros y sus contras. El objetivo de la propaganda no es hablar de la
verdad, sino convencer a la gente: pretende inclinar la opinión general, no informarla. Debido a
esto, la información transmitida es a menudo presentada con una alta carga emocional, apelando
comúnmente a la afectividad, en especial a sentimientos patrióticos, y apela a argumentos
emocionales más que racionales.5

La propaganda se inserta en el campo de la comunicación, un terreno que engloba diversas áreas


de conocimiento que, por su naturaleza, pueden dar lugar a confusión. Se articula a partir de un
discurso persuasivo que busca la adhesión del otro a sus intereses. Es de carácter monológico y
requiere el recurso del anuncio. La propaganda generalmente se repite y se dispersa sobre una
amplia variedad de medios con el fin de crear el resultado deseado en las actitudes de la
audiencia.15

Su planteamiento consiste en utilizar una información presentada y difundida masivamente con la


intención de apoyar una determinada opinión ideológica o política. Aunque el mensaje contenga
información verdadera, es posible que sea incompleta, no contrastada y partidista, de forma que
no presente un cuadro equilibrado de la opinión en cuestión, que es contemplada siempre en
forma asimétrica, subjetiva y emocional.3 Su uso primario proviene del contexto político,
refiriéndose generalmente a los esfuerzos patrocinados por gobiernos o partidos para convencer a
las masas; secundariamente se alude a ella como publicidad de empresas privadas.2

En cuanto al discurso periodístico, la propaganda tiende a esquematizar y simplificar los conceptos


en lugar del carácter más argumentativo del periodismo.

En el caso del discurso pedagógico, éste presenta el problema desde diversos puntos de vista que
permiten al receptor formarse un criterio propio. En cambio, la propaganda se repliega en un solo
punto de vista que tiende hacia el dogmatismo.

La propaganda, cuando es utilizada de forma no ética, es en realidad un modo de desinformación


y censura y usa la metodología de la retórica para convencer a los destinatarios de la misma. En el
sentido político del término se desarrolló fundamentalmente en el siglo XX con la Sociología
moderna y la consolidación de la sociedad de masas. El ministro de propaganda de Adolf Hitler,
Joseph Goebbels, sociólogo, lo primero que hizo para llegar al poder fue apoderarse de los medios
de comunicación de masas para adoctrinar al pueblo con propaganda política.

Técnicas de propaganda

Técnicas

Fabricación de falsos documentos

Inspiración del miedo

Testimonios

Mentalidad «gregaria»

Redefinición de palabras o conceptos

Buscar la desaprobación

Generalizar o estereotipar

Imprecisiones intencionales o mentiras por omisión

Proyección

Simplificación exagerada

Eslogan

Chivo expiatorio

Trueques semánticos

Trucos de propaganda política (Clyde R. Miller)16

Insulto y difamación del adversario

Explotación de tópicos y lugares comunes

Técnica del «transfer»

Referencia a la autoridad y el prestigio

Ser modesto, ponerse en el lugar de los más desgraciados

Técnica de la mentira, falsedad y calumnia

Técnica que explota la frase «lo hacen todos»


El fenómeno de la propaganda se ha diversificado y tecnificado en un alto grado, al mismo tiempo
que los medios de comunicación también se desarrollan. En las sociedades capitalistas, el auge de
la publicidad comercial y de la propaganda política han sido parejos desde principios del siglo XX
hasta la actualidad. Son las grandes empresas y expertos publicitarios los que hoy en día organizan
las campañas electorales de los políticos en sus más mínimos detalles.17

La Psicología Social sirve de ayuda e inspiración de la propaganda. Una serie de técnicas derivan de
la falacia otras usan la manipulación emocional. También se ha afirmado que la industria y los
políticos emplean la llamada «seducción subliminal» como técnica de publicidad y propaganda.

Jean-Léon Beauvois ha creado el concepto de propaganda oscura (propagande glauque en francés)


para definir los procesos de influencia inconscientes que tienen como objetivo crear un apriori
positivo o negativo de determinado concepto. Ejemplos de ello serían la sonrisa o el tono afable
de un presentador de televisión a la hora de hablar de temas que desea valorizar, pero sin entrar
nunca un verdadero debate de ideas (el proceso de construcción europea, el crecimiento
económico, los derechos humanos, etc.). Otro ejemplo podría ser la ausencia de héroes
vinculados, por ejemplo, a ideologías comunistas o revolucionarias en las grandes películas
comerciales. Estas películas vehiculan además numerosos estereotipos, tanto étnicos como
históricos. El Pentágono financia y/o apoya proyectos cinematográficos,18 con un fuerte
contenido patriótico. Según Beauvois, estos procesos son los más activos en la fábrica de las
opiniones de base en las sociedades democráticas occidentales.

Éric Hazan ha seguido una metodología más heterodoxa en su estudio sobre las formas actuales
de propaganda. Inspirándose de los análisis de Victor Klemperer respecto a la lengua de la
Alemania Nazi, el editor francés ha estudiado las palabras, los giros y los procedimientos a través
de los cuales la lengua pública actual acoge y transmite valores ideológicos sin pretender nunca
hacerlo.

Anne Morelli ha elaborado un sistema analítico de la propaganda de guerra basado en las obras de
Arthur Ponsonby y George Demartial.

Véanse también: Modelo de propaganda y Spin (relaciones públicas).

Diferencia entre propaganda y publicidad

En inglés, la palabra propaganda tiene connotaciones negativas. No es necesariamente así en otras


lenguas, y el uso del término puede llevar a malentendidos con gente de otros idiomas. Por
ejemplo, en Brasil y algunos países hispanoamericanos, el término propaganda fue adoptado
incorrectamente como sinónimo de publicidad comercial. No obstante, esta definición está
reflejada en el diccionario de la Real Academia Española19.
Por lo que respecta a la frontera entre publicidad comercial y política, la principal diferencia es el
tipo de conducta que se propone modificar. En el caso de la publicidad, se pretende influir en las
conductas de consumo de una persona mediante campañas o acciones publicitarias en diferentes
medios y con diferentes objetivos (lanzamiento de un producto, posicionamiento de marca,
recordación de marca, etc.) para que el consumidor lleve a cabo un acto de consumo en un corto o
largo plazo. Mientras que en la propaganda se trata de que una persona se adhiera a una ideología
o creencia.6

Otra de las discrepancias es que la publicidad comercial se dirige al individuo, mientras que el
público objetivo de la propaganda es el grupo social para identificar al ciudadano con los valores
del conjunto.7 No obstante, en la actualidad la frontera entre ambos términos se vuelve difusa
debido a la convergencia de intereses entre las grandes empresas y partidos políticos.

El uso del cine, radio y televisión como herramientas propagandísticas

Un film o programa televisivo propagandístico es aquel cuyo fin es el de utilizar la fuerza de estos
medios para influenciar en la opinión del espectador y convencerlo para apoyar una causa
determinada, como podría ser en el campo político o religioso. Muchos países sumergidos en
dictaduras totalitarias han visto cómo sus líderes han utilizado estos medios para ganarse la
confianza y el apoyo de la población, así como de aislarles de cualquier influencia u opinión
proveniente del exterior.

Segunda Guerra Mundial

Durante el transcurso de la Segunda Guerra Mundial se llevaron a cabo varios documentos


audiovisuales con fines propagandísticos para concienciar a la población del poder y la barbarie
enemiga y aumentar el ánimo de tropas y civiles.

Alemania

La Alemania nazi fue la primera en golpear durante el conflicto bélico con el título Triumph des
Willens de Leni Riefenstahl. Esta producción fue solicitada por el mismísimo Adolf Hitler y en ella
se mostraba el congreso del Partido Nacionalista de 1934 en Núremberg.20 La propaganda nazi no
solo se limitaba a documentales o películas, incluía medio como carteles y libros. En 1933 el
Partido Nazi creó el Ministerio de Propaganda dirigido por Joseph Goebbles y que se encargaría de
llevar a cabo la regulación de la prensa, la literatura, el arte visual, el cine, el teatro, la música y la
radiodifusión.21

Estados Unidos
El primer film de Hollywood que trata de influir a la consciencia pública fue Confesiones de una
espía nazi de Anatole Livak, en 1939, estrenada cuatro meses antes del comienzo de la guerra.
Trata sobre la presencia nazi en Estados Unidos. Otras películas posteriores a ésta fueron El gran
dictador de Charles Chaplin, Foreign Correspondent de Alfred Hitchcock o Man Hunt de Fritz
Lang.20

Antes de la entrada de Estados Unidos en la Segunda Guerra Mundial el Pentágono mostraba una
serie de cortometrajes llamados Signal_Corps_(United_States_Army) orientados a concienciar al
ejército, pese a no ser del todo efectivos. Este hecho llevo a que el Gobierno se encomendara a
cineastas de gran importancia y originara películas como La batalla de Midway de John Ford, The
Memphis Belle de William Wyler o San Pietro de John Huston. Durante el transcurso de la Segunda
Guerra Mundial el Gobierno de los Estados Unidos, en concreto el General George Marshall,
encargó a Frank Capra la creación de la serie de 7 capítulos Why We Fight. Inicialmente el director
mostró su desacuerdo a dicho encargo.20

Capra se basó en el documental de Leni Riefenstahl e invirtió las imágenes mediante una nueva
narrativa para pasar de las triunfales del documental a representaciones de la barbarie del
totalitarismo y delirio de sus mandatarios. También se utilizaron animaciones creadas por la
productora Disney, películas de ficción y materiales capturados al enemigo.20

España

España durante la dictadura franquista

Ya desde el inicio de la dictadura de Franco se podía percibir cual seria el calado de las
transmisiones televisivas, ya que, cualquier ensayo realizado por extranjeros o nacionales debía
tener su consentimiento y su aprobación puesto que era quien debía fijar las características del
modelo televisivo.22

El 28 de octubre de 1956 comenzaron oficialmente la retransmisiones regulares de televisión en


España. TVE fue el medio propagandístico más potente que el régimen franquista utilizó para
transformar la realidad de manera favorable y hacerla llegar a la población. Inicialmente, Franco
fue reacio a la televisión por el miedo a que producciones extranjeras pudieran enturbiar los
valores en los cuales la población española debía ser. Gran parte de las días elegidos para la
inauguración de estudios o de retransmisiones coinciden con aniversarios de fechas simbólicas
para el régimen franquista, como la inauguración de los Estudios de Prado del Rey el 18 de julio de
1964 (XXV años de Paz).22

A mediados de los 60, Franco realiza un discurso donde claramente se puede intuir el fin del medio
televisivo para su régimen. Las palabras textuales son las siguientes:
Canarios y españoles todos que me escucháis:

Nos congratulamos por este acto, con el que al incorporar a la red de Televisión Española una
nueva y potente emisora, se dota a las provincias isleñas de un nuevo medio de difusión de la
cultura y de la verdad de España. Canarias, presente siempre en el quehacer nacional, vinculada al
conjunto de la Patria con fuertes lazos espirituales que fecundó la sangre vertida por sus hijos en
la empresa de nuestro Movimiento Nacional, que constituye una de las más apreciadas fuentes de
nuestro comercio exterior y uno de los más importantes centros de atracción turística, por la
belleza incomparable de sus tierras y la hospitalidad de sus moradores, se convierte hoy en nuevo
eslabón de esta cadena de unión que en el mundo moderno son los programas de televisión, a
través de los cuales recibiréis cotidianamente, y con el abrazo de la Península, el testimonio de la
verdad de España y de la indiscutibilidad de sus realidades .23

En oposición a la propaganda llevada a cabo por el régimen de Franco se crea, a instancias de


Dolores Ibárruri "La Pasionaria", Radio España Independiente. Lleva a cabo sus emisiones desde el
22 de julio de 1941 hasta el 14 de julio de 1977, primero desde Moscú y a partir del 5 de enero de
1955 desde Bucarest.

RTVE

El 16 de octubre de 2003, RTVE y Alfredo Urdaci, se refirió al sindicato Comisiones Obreras como
"ce ce o o" para informar sobre la demanda impuesta por dicho sindicato a RTVE por el
tratamiento informativo dado en la huelga general del 20 de junio de 2002. Los servicios jurídicos
del sindicato creyeron oportuno emprender nuevas acciones legales al considerar que se habían
burlado del tribunal, del propio sindicato y de la opinión pública.24

En el 2015 el diario británico Financial Times acusa al gobierno de Mariano Rajoy de crear una
programación, en la cadena pública, para favorecer a su partido y silenciar los partidos de la
oposición, en fechas cercanas a las elecciones generales del 20 de diciembre de 2015. Como
ejemplos de esta manipulación el artículo habla sobre los casos de corrupción y de que los
telediarios de TVE dan menor cobertura a los casos que afectan al Partido Popular, y hace
referencia al trato que se le da al partido de Pablo Iglesias (Podemos), el cual tilda de injusto, en
referencia a que promueve hostilidad hacia su líder.
Profesor Rafael gutierrez

Introducción

los sistemas operativos son aquellos que ayudan a nuestras computadoras a tener un
funcionamiento adecuado con diversas aplicaciones que se puedan instalar y descargar
adecuadamente , los principales sistemas que ayudan a tener un funcionamiento correcto a las
computadoras son Windows , Macintosh y Linux por ello el trabajo se divide en 4 capítulos, el
primer capítulo se presenta la introducción a sistemas operativos incluyendo la definición , historia
y evolución de sistemas operativos , el segundo capítulo trata de Windows y sus diferentes
versiones desde sus principios hasta la época actual, en el tercero se desarrolla el sistema
operativo Macintosh al igual que Windows este presenta sus versiones desde sus inicios hasta la
actual actualización ,por último el cuarto es Linux que contiene su respectiva información con el
formato de los don anteriores.Es importante saber este tema ya que podríamos saber con qué
sistema funciona nuestra pc y si ay algún sistema que convenga más para nuestra satisfacción,
también es importante porque así sabremos cuanto mejoro el sistema de nuestras computadoras
y ver qué tan avanzada esta la tecnología actual.Esta investigación va dirigida a las personas que
tengan interés en la historia de la informática o quieran saber más sobre los sistemas de sus
computadoras

CAPITULO I

Información general

DEFINICION DE SISTEMAS OPERATIVOS

Un sistema operativo es un programa que actúa como intermediario entre el usuario y el


hardware de un sistema de cómputo. El propósito de un sistema operativo es ofrecer un ambiente
en el que el usuario pueda ejecutar programas de una forma cómoda y eficiente según Santiago
Candela Sala. (1)

Conjunto de programas que se integran con el hardware para facilitar al usuario, el


aprovechamiento de los recursos disponibles. Algunos de sus objetivos principales son:

Provee de un ambiente conveniente de trabajo.


Hace uso eficiente del Hardware.

Provee de una adecuada distribución de los recursos.

Para un Sistema Operativo real deberá satisfacer las siguientes funciones:

Gobierna el Sistema.

Asigna los recursos.

Administra y controlar la ejecución de los programas.

Un sistema de cómputo en muchos casos cuenta con demasiados recursos para ser utilizados por
un solo usuario, es en estos casos cuando se puede dar servicio a varios procesos.

HISTORIA DE SISTEMAS OPERATIVOS

Según Gary Nutt los sistemas operativos han estado relacionados históricamente con la
arquitectura de las computadoras en las cuales se ejecutan, razón por la cual su historia. Los
Sistemas Operativos, al igual que el Hardware de los computadores, han sufrido una serie de
cambios revolucionarios llamados generaciones. (2)

En el caso del hardware, las generaciones han sido marcadas por grandes avances en los
componentes utilizados, pasando de válvulas (primera generación) a transistores (segunda
generación), circuitos integrados (tercera generación), a circuitos integrados de gran y muy gran
escala (cuarta generación),

Según Santiago Candela Sola los primeros sistemas operativos estaban constituidos por una
unidad central de proceso como un terminal denominada la consola del operador del sistema para
dar órdenes al sistema i depurar lo programas como una unidad de entrada de programas i otra de
salida. (1)
Primera generación de sistemas operativos (1945-55)

En esta década aparecen los sistemas de procesamiento por lotes, donde los trabajos se reunían
por grupos o lotes. Cuando se ejecutaba alguna tarea, ésta tenía control total de la máquina. Al
terminar cada tarea, el control era devuelto al sistema operativo, el cual limpiaba, leía e iniciaba la
siguiente tarea. Aparece el concepto de nombres de archivo del sistema para lograr independencia
de información. Los laboratorios de investigación de General Motors poseen el crédito de haber
sido los primeros en poner en operación un sistema operativo para su IBM 701. (3)

En la primera generación tenemos descripciones de sus características básicas:

Utilidad: máquinas de cálculo.

Tecnología: dispositivos mecánicos ? tubos de

Vacío y paneles.

Método de programación: cables ?Interruptores y tarjetas perforadas.

Diseño/construcción/operación/programación/-

Mantenimiento: genios como Ariquen, von

Merman o Macuche.

Segunda generación de sistemas operativos (1955-65)

En esta generación se desarrollan los sistemas compartidos con multiprogramación, en los cuales
se utilizan varios procesadores en un solo sistema, con la finalidad de incrementar el poder de
procesamiento de la máquina. El programa especificaba tan sólo que un archivo iba a ser escrito
en una unidad de cinta con cierto número de pistas y cierta densidad. El sistema operativo
localizaba entonces una unidad de cinta disponible con las características deseadas, y le indicaba al
operador que montara una cinta en esa unidad. (3)

En la segunda generación tenemos las descripciones más específicas:

Utilidad: calculo científico e ingeniería.

Tecnología: la invención del transistor redujo su tamaño y

Precio y los popularizo ? mainframes/IBM 1401/7094.

Método de programación: ensamblador y lenguajes de alto

Nivel (FORTRAN) sobre tarjetas perforadas.

Paso de procesamiento secuencial a procesamiento por loto

Fms

Ibsys

Tercera generación de sistemas operativos (1965-80)

En esta época surge la familia de computadores IBM/360 diseñados como sistemas para uso
general, por lo que requerían manejar grandes volúmenes de información de distinto tipo, lo cual
provocó una nueva evolución de los sistemas operativos: los sistemas de modos múltiples, que
soportan simultáneamente procesos por lotes, tiempo compartido, procesamiento en tiempo real
y |multiprocesamiento. (3)

En la tercera generación encontramos las características específicas:


usos principales: Calculo científico e Ingeniería.

Procesamiento de Caracteres.

Circuito integrado ?+barato ? +popular ?IBM 360, GE-645, DECPDP-1.

Logros destacables: Multiprogramación.

Spooling: Tiempo compartido.

Os/360

Ctss

Multics

Unix.

Cuarta generación de sistemas operativos(1980-hoy)

Los sistemas operativos conocidos en la época actual son los considerados sistemas de cuarta
generación. Con la ampliación del uso de redes de computadoras y del procesamiento en línea es
posible obtener acceso a computadoras alejadas geográficamente a través de varios tipos de
terminales. Con estos sistemas operativos aparece el concepto de máquinas virtuales, en el cual el
usuario no se involucra con el hardware de la computadora con la que se quiere conectar y en su
lugar el usuario observa una interfaz gráfica creada por el sistema operativo. (3)

En la cuarta generación encontramos las características más fundamentales:

(V)LSI ? ++barato ?++popular ? IBM PC.&µP: 8080, Z80, 8086, 286,386, 486, Pentium, Core 2,
Athlon, Alpax, Ultrasparc.
Logros destacables:

GUI.

SO de red.

SMP.

SO distribuidos.

Windows

Microsoft Windows es un sistema operativo, es decir, un conjunto de programas que posibilita la


administración de los recursos de una computadora. Este tipo de sistemas empieza a trabajar
cuando se enciende el equipo para gestionar el hardware a partir desde los niveles más básicos.

Es importante tener en cuenta que los sistemas operativos funcionan tanto en las computadoras
como en otros dispositivos electrónicos que usan microprocesadores (teléfonos móviles,
reproductores de DVD, etc.)Estos fueron mencionados por Flynn y Ann Mclver Mchoes. (4)

Precisamente en el año 2013 este software se encuentra celebrando su treinta aniversario pues
fue el 10 de noviembre de 1983 cuando Bill Gates se animó a presentar a aquel. No obstante, es
cierto que no sería hasta dos años más tarde cuando el citado producto no comenzó a
comercializarse en todo el mundo.

En aquel momento llegó al mercado presentándose como una extensión del conocido sistema MS-
DOS y con una serie de características entre las que destacaba que el usuario se veía favorecido
por las utilidades que tenía a su disposición así como la facilidad de manejo de las mismas.

Desde aquel entonces hasta nuestros días Microsoft Windows ha presentado diversas versiones
con el claro objetivo de ir adaptándose a los tiempos y, sobre todo, a las necesidades que tenía el
usuario en todo momento. Así, entre aquellas tendríamos que destacar Windows NT, Windows 95,
Windows 98, Windows 2000, Windows XP, Windows Vista, Windows 7 y Windows 8, que es la
última hasta el momento.

Nutt, Gary menciono sus principales aplicaciones (que pueden ser desinstaladas por los usuarios o
reemplazadas por otras similares sin que el sistema operativo deje de funcionar), se encuentran el
navegador Internet Explorer, el reproductor multimedia Windows Media, el editor de imágenes
Paint y el procesador de texto Bordad.

La principal novedad que aportó Windows desde sus orígenes fue su atractivo visual y su facilidad
de uso. De hecho, su nombre ("ventanas") proviene de la forma en que el sistema presenta al
usuario los recursos de su computadora, lo que facilita las tareas cotidianas. Windows, de todas
formas, suele recibir numerosas críticas por sus problemas de seguridad y por otros fallos. (2)

Macintosh

Investigando un poco sobre lo que el Mac tiene en común, pude llegar a la siguiente definición de
la palabra "Macintosh", cuando ésta se refiere a computadoras:

Una Macintosh es una computadora personal que usa alguna versión del sistema operativo Mac
OS y que forma parte de una familia de computadoras de escritorio y portátiles comercializadas y
desarrolladas por la compañía Apple Inc.

Anteriormente dijimos que el clan Macintosh tenía que ver con las computadoras de Apple, y es
que fue John Macintosh quien descubrió la variedad de manzana que le da nombre al Mac.

John Macintosh encontró, en una de sus propiedades, cerca de Ontario, Canadá, en 1796, varios
árboles que habían crecido salvajemente, y los plantó en su jardín. Sólo uno sobrevivió y a partir
de ese árbol se han dado todos los demás que producen manzanas Macintosh, tos fueron
mencionados por Santiago Candela Sala. (1)

Por otro lado, Apple pudo haber nombrado a su computadora exactamente igual que el nombre
de la manzana, sin embargo el nombre estaba tomado por una compañía de audio, así que para
evitar problemas legales, agregaron una "a" a la palabra y terminó siendo "Macintosh" en lugar de
"Macintosh".
La primera computadora que fabricó Apple fue la Apple I y fue lanzada en 1976, pero la primera
computadora con el nombre "Macintosh" fue lanzada en 1984 y a partir de ahí Apple ha
comercializado un buen número de sus aparatos con ese nombre; con la abreviación del nombre
(Mac) o creando palabras compuestas al agregar Mac a alguna otra, como sería la palabra "Mac
Book" o "Mac". (5)

Linux

Linux es, a simple vista, Mchoes Flynn y Ann Mclver es una implementación de libre distribución
UNIX para computadoras personales (PC), servidores, y estaciones de trabajo. Fue desarrollado
para el i386 y ahora soporta los procesadores i486, Pentium, Pentium Pro y Pentium II, así como
los clones AMD y Cyrix. También soporta máquinas basadas en SPARC, DEC arpa, Power PC/ Power
Mac, y Mac/Amiga Motorola 680x0. (4)

Como sistema operativo, Linux es muy eficiente y tiene un excelente diseño. Es multitarea,
multiusuario, multiplataforma y multiprocesador; en las plataformas Intel corre en modo
protegido; protege la memoria para que un programa no pueda hacer caer al resto del sistema;
carga sólo las partes de un programa que se usan; comparte la memoria entre programas
aumentando la velocidad y disminuyendo el uso de memoria.

Santiago Candela Sola un sistema de memoria virtual por páginas; utiliza toda la memoria libre
para cache; permite usar bibliotecas enlazadas tanto estática como dinámicamente; se distribuye
con código fuente; usa hasta 64 consolas virtuales; tiene un sistema de archivos avanzado pero
puede usar los de los otros sistemas; y soporta redes tanto en TCP/IP como en otros
protocolos. (1)

EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS

Cada generación Sucesiva de hardware ha ido acompañada de reducciones substanciales en los


costos, tamaño, emisión de calor y consumo de energía, y por incrementos notables en velocidad
y capacidad. En la actualidad existe gran variedad de Sistemas Operativos como pueden ser
Windows 98, Windows NT, Linux, etc.

Los sistemas operativos proveen un conjunto de funciones necesarias y usadas por diversos
programas de aplicaciones de una computadora, y los vínculos necesarios para controlar y
sincronizar el hardware de la misma. En las primeras computadoras, que no tenían sistema
operativo cada programa necesitaba la más detallada especificación del hardware para ejecutarse
correctamente y desarrollar tareas estándares, y sus propios drivers para los dispositivos
periféricos como impresoras y lectores de tarjetas perforadas. El incremento de la complejidad del
hardware y los programas de aplicaciones eventualmente hicieron del sistema operativo una
necesidad según Nutt Gary. (2)

Actualización Y Tipos De Hardware

Además del Atlas Supervisor y el OS/360, los años 1970 Dhamdhere lo marcaron el inicio de UNIX,
a mediados de los 60 aparece Multicas, sistema operativo multiusuario - multitarea desarrollado
por los laboratorios Bell de AT&T y Unix, convirtiéndolo en uno de los pocos SO escritos en un
lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera
implementación de Prologa, y en la revolucionaria orientación a objetos, Smalltalk. (6)

Siempre llega un momento en que nuestro querido ordenador se nos queda "pequeño". Si este
momento ha llegado para ti, aquí tienes los pasos a seguir para solucionarlo de la forma más
económica posible.

Los factores que intervienen en el rendimiento de una máquina son:

Procesador: Hoy en día para poder ejecutar todo el software que se encuentra disponible y el
que está a la vuelta de la esquina es aconsejable pensar en CPU tipo Pentium II. De todas maneras
si no nos llega para tanto nos puede servir, por ejemplo un AMD K6 a 233 o incluso a 266.

Placa base: Normalmente actualizamos la placa base para poder montar un procesador más
potente que la actual no soporta. En el caso de ordenadores no "clónicos" en el que es casi
imposible cambiarla, se puede optar por procesadores tipo "Overdrive" de Intel o de otras marcas,
o bien por uno de mayor velocidad que el actual pero de la misma "familia".

Tarjeta de video: En entornos de ventanas tener una buena tarjeta se nota en el rendimiento, y
si utilizamos juegos modernos, programas de CAD, u otros que hagan uso intensivo de gráficos 2D
o 3D, como las aplicaciones que utilizan Directo, entonces si no contamos con ella tendremos un
"cuello de botella" muy importante

Disco duro: La capacidad del disco duro no influye directamente en el rendimiento siempre y
cuando tengamos espacio libre suficiente para la memoria virtual (un archivo de intercambio de
unos 64 Mb suele ser suficiente). De todas formas la capacidad suele ser un buen indicador de la
"edad" del disco, y, normalmente, cuanto más actual sea su diseño más rápido será su
funcionamiento.Si realmente tenemos problemas de espacio en disco deberíamos pensar en una
unidad tipo IDE Ultra DMA/33 o Ultra-2 SCSI.

La unidad de CD: si sólo la usamos para instalar programas y escuchar CD de música cualquier
unidad nos sirve, aunque sea una 2X, pero si lo que pretendemos es ejecutar programas o leer
datos directamente del CD, entonces lo normal será contar con una unidad tipo 24X. (7)

La tarjeta de sonido: es aconsejable que sea, como mínimo compatible Round Blíster 16 a nivel
de registros.

Según Dhamdhere no disponemos de presupuesto y somos un poco manitas podemos realizar


nosotros mismos un DAC, que nos servirá como tarjeta de sonido, incluso podemos hacer dos y
tener una tarjeta estéreo, conectándolo a cualquier radiocasete que ya tengamos nos puede salir
todo sin apenas coste. Eso sí, cada DAC necesita una salida paralelo para conectarlo.
Próximamente os explicará cómo construirlo y dónde conseguir los drivers para Windows. (6)

Nuevos Servicios

Memoria: Este parámetro es muy importante si utilizamos S.O. y programas de última (o de


penúltima) generación, sobre todo si trabajas con varios programas a la vez, con archivos de datos
muy grandes, o con programas de tipo CAD, Diseño gráfico, etc.

En un entorno típico de Windows 95, y programas no muy exigentes puede ser suficiente con 16
Mb, pero si nos vamos ya a las últimas versiones de éste con Internet Explorer 4.0 y Shell
integrado necesitaremos un mínimo de 32 Mb, si no queremos notar como se ralentiza todo.

Multimedia: Es imprescindible contar con una unidad de CD-ROM, y muy recomendable una
tarjeta de sonido con sus altavoces y su micrófono. (7)

Correcciones

Se trataba de sistemas grandes, complejos y costosos, según Mchoes Flynn y Ann Mclver, pues
antes no se había construido nada similar y muchos de los proyectos desarrollados terminaron con
costos muy por encima del presupuesto y mucho después de lo que se marcaba como fecha de
finalización. Además, aunque formaban una capa entre el hardware y el usuario, éste debía
conocer un complejo lenguaje de control para realizar sus trabajos. Otro de los inconvenientes es
el gran consumo de recursos que ocasionaban, debido a los grandes espacios de memoria
principal y secundaria ocupados, así como el tiempo de procesador consumido (4).

¿Cómo podemos actualizar una máquina según Eduardo Puigdemunt "de marca"?

286: Si partimos de una máquina 286 lo único que podremos hacer es reciclar algunos
elementos como el teclado (siempre que sea el expandido), la disquetera (si es de 3 1/2 y no es un
PS/2 de I.B.M), y si partimos de una máquina PS/2 a color, el monitor.La carcasa se podría
aprovechar siempre y cuando no intentemos colocar un procesador o una tarjeta de video que
disipen mucho calor (aunque tampoco es recomendable).De la memoria mejor nos olvidamos y
del disco también.

386: Aquí ya mejoramos bastante, pues podemos encontrar módulos de actualización de 386 a
486.Y si conseguimos uno de ellos y nuestra máquina soporta SIMM de 30 contactos podemos
colocarle 4 de 4Mb. y conseguir una máquina con 16 Mb (si la placa base lo soporta).De todas
formas, al soportar sólo el bus ISA de 16 bits, la tarjeta de video podrá ser, como mucho, una
vulgar VGA de 512 Kb. sin ningún tipo de aceleración y a 8 MHz.

486: Aquí podemos optar por una actualización de procesador tipo Overdrive, por ejemplo Intel
tiene un modelo que actualiza un 486/25 o 50 a Pentium 63Mhz, y un 486/33 o 66 a Pentium
83Mhz.

Otros modelos de Aberreen actualizan a 586 triplicando o cuadruplicando la frecuencia de la placa


base, así en el mejor de los casos pasaremos a 586/133 Kingston, la famosa casa de las memorias,
también comercializa dos modelos que actualizan a 586/75 y a 586/133.

Hay que recordar que muchas placas base, aunque sean "de marca" disponen de un conmutador
para modificar su frecuencia, con lo que se podrá hacer trabajar a estas actualizaciones a la
máxima velocidad admitida.

Si nuestra máquina es PCI podemos comprar una tarjeta de video de última hornada.
Podemos ampliar/sustituir la memoria a 16 o 32 Mb. con 4 u 8 módulos de 4Mb si son de 30
contactos osi tenemos la suerte de contar con zócalos de 72 contactos añadir uno de 16 Mb. o de
32, y si los tenemos todos ocupados, sustituirlo por el de más baja capacidad. (7)

CAPITULO II

Sistema Operativo Windows

DEFINICION DE SISTEMAS OPERATIVOS WINDOWS

Microsoft Windows es un sistema operativo, es decir, un conjunto de programas que posibilita la


administración de los recursos de una computadora. Este tipo de sistemas empieza a trabajar
cuando se enciende el equipo para gestionar el hardware a partir desde los niveles más básicos.

Es importante tener en cuenta que los sistemas operativos funcionan tanto en las computadoras
como en otros dispositivos electrónicos que usan microprocesadores (teléfonos móviles,
reproductores de DVD, etc.).

Microsoft Windows es un sistema operativo, es decir, un conjunto de programas que posibilita la


administración de los recursos de una computadora. Este tipo de sistemas empieza a trabajar
cuando se enciende el equipo para gestionar el hardware a partir desde los niveles más básicos.
(8)

HISTORIA DE SISTEMAS OPERATIVOS WINDOWS

Según D.M DHAMDHERE nos menciona los años y las descripciones de la historia de los sistemas
operativos Windows y también del programa Microsoft: En los 70. En el trabajo, confiamos en las
máquinas de escribir. Si necesitamos copia de un documento, probablemente usaremos un
mimeógrafo o papel carbón. Pocos han escuchado sobre el micro equipos, pero dos informáticos
entusiastas, Bill Gates y Paul Allen, observan en la informática personal el camino hacia el futuro.

En 1975, Gates y Allen forman una sociedad bautizada Microsoft. Como la mayoría de los
emprendimientos, Microsoft comienza siendo pequeño, pero con una gran visión: un equipo en
cada escritorio y en cada hogar. Durante los siguientes años, Microsoft comienza a cambiar
nuestra forma de trabajo.
En junio de 1980, Gates y Allen contratan al ex compañero de clases de Gates en Harvard, Steve
Balear, para que les ayude en la empresa. Al mes siguiente, IBM se acerca a Microsoft con un
proyecto cuyo nombre en código era "Ches" (ajedrez). En respuesta, Microsoft se centra en un
nuevo sistema operativo, el software que administra o ejecuta el hardware del equipo y además
sirve de puente entre el hardware y los programas del equipo, como un procesador de texto. Es la
base sobre la cual pueden ejecutarse los programas informáticos. Bautizan al nuevo sistema
operativo como "MSDOS."

Cuando en 1981 se puso a disposición el equipo de IBM con MSDOS, presentó un idioma
completamente nuevo al público general. Escribir "C:" y varios comandos de cifrado se convirtió
gradualmente en parte del diario trabajo. Las personas descubrieron la tecla barra diagonal
invertida (\). (6) MSDOS es eficiente, pero también difícil de entender para muchas personas.
Tenía que haber una mejor forma de desarrollar un sistema operativo. (9)

Sistemas Operativos Windows Xp

Windows XP es una versión de Windows, lanzada en octubre de 2001. Su nombre en clave durante
la fase de desarrollo fue Winter, mientras que su denominación oficial proviene del término inglés
experiencia.

Este sistema operativo, que sucedió a Windows 2000 y es el antecesor de Windows Vista, logró
convertirse en el más usado del mundo. Cuenta con adaptaciones para diversos entornos, como
computadoras domésticas, equipos portátiles y mini-portátiles según ANDRES S. TANEMBAUM.
(10)

El 25 de octubre de 2001, se lanzó Windows XP con un aspecto y apariencia rediseñados que se


centraron en el uso y el centro de servicios unificado de Ayuda y Soporte técnico. Se encuentra
disponible en 25 idiomas. Desde mediados de los 70 hasta el lanzamiento de Windows XP, se han
lanzado aproximadamente mil millones de equipos a nivel mundial.

Para Microsoft, Windows XP se convertirá en uno de sus productos de mayor venta en los años
venideros. Es rápido y estable. La navegación en el menú Inicio, la barra de tareas y el Panel de
control es más intuitiva. Aumenta la conciencia de virus informáticos y hackers, pero los temores
se calman en cierta medida con la entrega en línea de actualizaciones de seguridad. Los
consumidores comienzan a entender las advertencias sobre archivos adjuntos sospechosos y virus.
Existe más énfasis en la Ayuda y el Soporte técnico. (9)
64 Bits

Media Center Edition

Tabla Pc Edition

Sistema Operativo Windows Vista

Windows Vista, que vio la luz en enero de 2007 tras varios años de desarrollo. Vista fue el sucesor
de Windows XP, la versión precedente del sistema operativo.Los analistas notaron que, entre la
presentación de XP y de Vista, transcurrieron más de cinco años, lo que supone el período más
largo entre dos versiones consecutivas de Windows.

Entre las principales novedades de Vista (cuyo nombre en clave durante el desarrollo fue
Longorón), se encuentran la nueva interfaz gráfica denominada Windows Aero, la inclusión de
Windows Sidecar (una barra lateral con aplicaciones), la instalación de Windows Defender (un
programa que mejora la seguridad del equipo) y la capacidad de cargar las aplicaciones hasta un
15% más rápido que XP gracias a la herramienta Súper Fetch.

Windows Vista se lanzó en 2006 con el sistema de seguridad más sólido a la fecha. Control de
cuenta de usuario ayuda a evitar que software potencialmente dañino haga cambios en tu equipo.
En Windows Vista Ultímate, BitLocker Drive Encryption proporciona una mejor protección de
datos para tu equipo, dado el aumento en las ventas de portátiles y las necesidades de seguridad.
Windows Vista también presenta mejoras a Windows Media Player dado que cada vez más
personas utilizan sus equipos como ubicaciones centrales de medios digitales. Aquí puedes ver
televisión, ver y enviar fotografías y editar videos. (9)

Home Basic

Business

Enterprise
Sistemas Operativos Windows 7

Windows 7 es la próxima versión del sistema operativo desarrollado por Microsoft, que se
encuentra en pleno proceso de desarrollo.

también fue conocido como el Blackcomb o Viena, pero en pocas palabras es la más reciente y aún
no lanzada al mercado versión del sistema Windows de la empresa Microsoft, que sucederá al
Windows Vista. Muchos consideran que implicará un radical avance evolutivo que todos los otros
sistemas operativos desarrollados por la compañía de Bill Gates. Su lanzamiento está confirmado
para el año 2010. Windows 7 se lanzó a finales de la década del 2000 para el mundo inalámbrico.
Los portátiles venden más que los equipos de escritorio, y se está volviendo común conectarse a
puntos de redes inalámbricas públicas en cafeterías y a redes privadas en casa. Incluye nuevas
formas de trabajar con ventanas, como Ajustar, Inspeccionar y Agitar, que mejoran la
funcionalidad y hacen que el uso de la interfaz sea más divertido. También marca el debut de
Windows Fouché, que permite a los usuarios de pantallas táctiles explorar la web, salta
rápidamente a través de fotos y abrir archivos y carpetas. (9)

Starter Edition

Home Basic

Home Professional

Sistemas Operativos Windows 8

Windows 8 es un sistema operativo diseñado por Microsoft. Su mayor diferencia con las versiones
anteriores de Windows es que presenta cambios en el menú de inicio, en la interacción y en la
conectividad.

Además, mientras las versiones anteriores de Windows funcionan principalmente en


computadores y portátiles, Windows 8 está también diseñado para funcionar en dispositivos
móviles bajo el nombre de Windows 8 RT, por lo cual su interfaz está diseñada para que sea
maniobrable de manera táctil, procurando que su funcionamiento sea más sencillo, dinámico y
rápido. (10)
Actualmente se comercializa tanto Windows 8 y Windows 8.1, que es la actualización que
implementó Microsoft para corregir algunos errores que tenía la primera versión. Es un sistema
operativo renovado, desde el chipset hasta la experiencia del usuario, y presenta una interfaz
totalmente nueva que funciona sin problemas con funcionalidad táctil y de mouse y teclado.
Funciona como tableta para entretenimiento y un equipo con todas sus características para
realizar tareas. También incluye mejoras del escritorio de Windows que conocemos, con una
nueva barra de tareas y administración de archivos optimizada. Presenta una pantalla de Inicio con
mosaicos que conectan personas, archivos, aplicaciones y sitios web. Las aplicaciones están
centradas, con acceso a un nuevo lugar para obtener aplicaciones, la Tienda Windows, que se
encuentra en la pantalla de Inicio. (8)

Junto con Windows 8, Microsoft también lanza Windows RT, que se ejecuta en algunas tabletas y
equipos. Windows Resta diseñado para dispositivos finos y baterías de larga vida, y ejecuta
exclusivamente aplicaciones de la Tienda Windows. También incluye una versión integrada de
Office optimizada para pantallas táctiles. (11)

Sistemas Operativos Windows 8.1

Aunque Microsoft esté facilitando una versión ISO de la previa a quien quiera (sin necesidad de
tener una licencia original de Windows XP/Vista, Windows 7 o Windows 8), será en noviembre del
año corriente cuando realmente podremos tener cara a cara a la última actualización de Windows
8.1.

Ésta es gratuita y está dando mucho de qué hablar dado que incluirá un montón de nuevas
características las cuales han sido solicitadas expresamente por los usuarios de Windows de todo
el mundo.

Al decir esto, queremos explicar el por qué es tan importante esta actualización, ya que no es lo
que normalmente Microsoft lanza cada dos años como son los Servicie Packs sino que, es algo más
a mayor escala y que puede llegar a ser lo que fue la actualización "langor" de Windows XP la cual
se convirtió en el siguiente sistema operativo y al que pusieron de nombre "Windows Vista". (10)

Windows 8.1 avanza la visión de Windows 8 de proporcionar una potente colección de


aplicaciones y conectividad en la nube de excelentes dispositivos; es todo lo que a las personas les
encanta de Windows 8, además de algunas mejoras. combina la visión de innovación de Microsoft
con comentarios del cliente sobre Windows 8 para proporcionar muchas mejoras y nuevas
características: más opciones de personalización de la pantalla de Inicio que sincroniza todos los
dispositivos, la opción de arranque directamente al escritorio, Bing Smart Cercha para que puedas
encontrar lo que buscas en el equipo o Internet, un botón de Inicio para navegar entre el escritorio
y la pantalla de Inicio, y opciones más flexibles para ver varias aplicaciones a la vez en una o todas
las pantallas. (10)

Además de estos cambios en la experiencia del usuario, Windows 8.1 incluye características
nuevas y mejoradas como Works place John y Carpetas de trabajo que permiten que los
dispositivos de Windows para conectarse más fácilmente a recursos corporativos.

RTF

Edition

CAPITULO III

Sistema Operativo Macintosh

DEFINICION DE SISTEMA OPERATIVO MACINTOSH

Es una empresa con una experiencia de más de 15 años en el mercado, especializada en venta,
asesoría y mantenimiento preventivo y correctivo de equipo Apple. Así como también, en la venta
de periféricos y software, difíciles de adquirir. (12)

Es una empresa con una experiencia de más de 15 años en el mercado, especializada en venta,
asesoría y mantenimiento preventivo y correctivo de equipo Apple. Así como también, en la venta
de periféricos y software, difíciles de adquirir. Esta Empresa nace en la Ciudad de México, con el
objetivo de brindarle los mejores servicios y soluciones integrales en el área de cómputo. (10)

HISTORIA DE SISTEMA OPERATIVO MACINTOSH

Esta Empresa nace en la Ciudad de México, con el objetivo de brindarle los mejores servicios y
soluciones integrales en el área de cómputo. (12)

Mac Os 7
El Sistema 7 ya sólo tenía el Kínder múltiple permitiendo hacer muchas tareas simultáneamente.
La memoria también tuvo un gran cambio a 32b, esto permitió al Mac usar más de 8 MB de RAM,
en el sistema operativo, esto fue también implementado en el Sistema 7. El Networking por Apple
Tal y compartir archivos por Apple Share fue agregado al sistema operativo, como opción
adicional. El software QuickTime multimedia también fue trabajado en este sistema, pero estaba
disponible como un software extra. El Sistema 7 agregó muchas características que iban a ser
construidas en el nuevo sistema Mac OS X.

Un menú fue agregado en la parte inferior derecha del Dashboard, que mostraba la lista de los
programas que estaban siendo utilizados en ese momento y permitía a los usuarios cambiarse
entre ellos. Luego de la aplicación de menú fue agregado el menú de "Ayuda", el "basurero" fue
cambiado a un verdadero folder permitiendo eliminar los archivos hasta que se seleccionaba la
opción de "Vaciar" el basurero. (7)

Fue implementada la opción de arrastrar que permitía llevar un texto de un programa a otro sin
necesidad de copiar y pegar. En el Sistema 7 el buscador finalmente tomo una ventaja en los
objetos con color, haciendo que los elementos en la interfaz se vieran como en 3D.

El Sistema 7.0.1p Preforma, fue lanzado junto con el Sistema 7.0.1"s, arreglando algunas
características especiales para usuarios principiantes de este Sistema.

El Sistema 7.1, se le implemento un folder de Fuentes así que podían ser fácilmente agregados o
removidos, luego estos fueron agregados y utilizados por el mismo Sistema.

El Sistema 7.1.1, también conocido como Sistema 7 Pro, Incorporando Apple Script, QuickTime,
y PowerTalk, estos estaban disponibles como extras del sistema.

El Sistema 7.1.2, fue creado para soportar Chips de microprocesadores.

El Sistema 7.5, integraba todas las características del Preforma, también agregaba mucha más
información de la Guía de ayuda del sistema de Apple (Apple Guide heló sistema). Finalmente en
la pantalla de arranque existió una pequeña barra. (10)

Mac Os 8
Mac OS 8 incluyó otra renovación al Kínder que podía hacer más cosas al mismo tiempo, dando la
opción de controlar múltiples aplicaciones al mismo tiempo con un mejor desempeño de las
computadoras con procesador.

La apariencia del Kínder fue renovada para que tuviera un mejor aspecto 3D, también podía ser
personalizada. El Web Sharon permitía al usuario hospedar páginas en sus computadoras.

Mac OS 8.1, fue más notable para el HFS+ (Esta improvisada versión del Sistema de archivos
jerárquica que fue introducido en el Sistema 3) liberaba gran cantidad de espacio (Cientos de
Megabytes) en el disco duro despejaba más de 1 GB. Mac OS 8.1. También fue la última versión
que soportaba Mac de 68K, todas las versiones anteriores eran solo para Power PC.

Mac OS 8.5, introdujo Sherlock un avanzado programa de búsqueda que trabaja en el disco
local, servicios de redes y la Internet.

Mac OS 8.6, agregó una opción de contenido a Sherlock aumentando su forma de


administración y un agregado soporte de USB y Freiré. (10)

Mac Os 9

La opción de tener varios usuarios en un Mac fue agregada en esta versión, permitía a los usuarios
ingresar y tener sus propias configuraciones. AppleTalk sobre TCP/IP fue también implementado.
Software Epate permitía a los usuarios tener las actualizaciones de software fuera de Internet, y
podía informar a los usuarios de las nuevas actualizaciones cuando ellos salían.

Mac OS 9.0.2 y 9.0.3, llegaron con sus modelos específicos.

Mac OS 9.0.4 unificó todo nuevamente y es la única versión del Clásica Mac OS compatible con
el Entorno Clásica del Mac OS X Publica Beta.

Mac OS 9.1, agregó estabilidad y la ventana de menú. Esto es lo mínimo del Clásica en Mac OS X
10.0 y 10.1.
Mac OS 9.2, estaba disponible como pre-instalación del sistema iniciando con "Quicksilver"
Poder Mac G4s lanzado en el verano del 2001. (10)

Mac Os X

Mac OS X 10.0 fue lanzado el 24 de marzo del 2001, este incorporaba muchas características que
fueron agregadas por las personas que colaboraron en Mac OS X Publica Beta.

Mac OS X 10.0 también contenía todas características de un sistema operativo moderno, protegía
la memoria, y así los programas no podían utilizar la información de otros programas, de esta
forma el procesador no se bloqueaba, los drivers de los dispositivos podían ser cargados o
descargados si eran necesario. (7)

Mac OS X también agrego Cocona, derivado de Nets un muy sofisticado y desarrollado ambiente
Oeste. Existían algunos asuntos pendientes, como el original Mac OS. Los usuarios de Mac OS X
iniciaron a crear una gran queja sobre nombre que tenía este sistema operativo "Ceuta" que era
muy salvaje e inapropiado.

Historia de los sistemas operativos

La informática tal y como se le conoce hoy día, surgió a raíz de la II Guerra Mundial, en la década
de los 40. En esos años no existía siquiera el concepto de "Sistema Operativo" y los programadores
interactuaban directamente con el hardware de las computadoras trabajando en lenguaje
máquina (esto es, en binario, programando únicamente con 0s y 1s).

El concepto de Sistema Operativo surge en la década de los 50. El primer Sistema Operativo de la
historia fue creado en 1956 para un ordenador IBM 704, y básicamente lo único que hacía era
comenzar la ejecución de un programa cuando el anterior terminaba.

En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen
conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema
en tiempo real.
Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas Operativos que
existen hoy en día.

En los años 70 se produce un boom en cuestión de ordenadores personales, acercando estos al


público general de manera impensable hasta entonces. Esto hace que se multiplique el desarrollo,
creándose el lenguaje de programación C (diseñado específicamente para reescribir por completo
el código UNIX).

Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin
ningún conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a la
hora de diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras
interfaces de usuario.

En los 80 nacieron sistemas como MacOS, MS-DOS, Windows.

En la década de los 90 hace su aparición Linux, publicándose la primera versión del núcleo en
septiembre de 1991, que posteriormente se uniría al proyecto GNU, un sistema operativo
completamente libre, similar a UNIX, al que le faltaba para funcionar un núcleo funcional. Hoy en
día la mayoría de la gente conoce por Linux al Sistema Operativo que realmente se llama
GNU/Linux.

Historia de los sistemas operativos


Un sistema operativo es uno o varios programas que se usan para poder trabajar con los
componentes de un equipo de cómputo. Los sistemas operativos proveen un conjunto de
funciones necesarias y usadas por diversos programas de aplicaciones de una computadora, y los
vínculos necesarios para controlar y sincronizar el hardware de la misma. En las primeras
computadoras, que no tenían sistema operativo, cada programa necesitaba la más detallada
especificación del hardware para ejecutarse correctamente y desarrollar tareas estándares, y sus
propios drivers para los miembros periféricos como impresoras y lectores de tarjetas perforadas.
El incremento de la complejidad del hardware y los programas de aplicaciones eventualmente
hicieron del sistema operativo una necesidad.

Los primeros sistemas operativos fueron desarrollados por cada usuario para el uso de su propia
computadora central,1 y es en 1956 que la General Motors desarrolla lo que es hoy considerado el
primer sistema, el GM-NAA I/O,2 para su IBM 704.
La década de 1940

A finales de la década de 1940, apareció lo que se podría considerar de la primera generación de


computadoras en el mundo. Se accedía directamente a la consola de la computadora desde la cual
se actuaba sobre una serie de micro interruptores que permitían introducir directamente el
programa en la memoria de la computadora.

La década de 1950 (Sistema Batch)

A principios de los años 1950 con el objetivo de facilitar la interacción entre persona y
computadora, los sistemas operativos hacen una aparición discreta y bastante simple, con
conceptos tales como el monitor residente y el almacenamiento temporal.

Monitor residente

Su funcionamiento era bastante simple, se limitaba a cargar programas a la memoria, leyéndolos


de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era encontrar una forma de
optimizar el tiempo entre la retirada de un trabajo y el montaje del siguiente.

El primer Sistema Operativo de la historia fue creado en 1956 para un ordenador IBM 704, y
básicamente lo único que hacía era comenzar la ejecución de un programa cuando el anterior
terminaba.

Almacenamiento temporal

Su objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la carga del
programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos
técnicas, el buffering y el spooling.

La década de 1960

En los años 60 se produjeron cambios notorios en varios campos de la informática, con la


aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los
ordenadores. Para ello se utilizaban técnicas de lo más diversas.

Sistema operativo multiprogramación

En un sistema "multiprogramado" la memoria principal alberga a más de un programa de usuario.


La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una
operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro
programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al
controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto
adecuado de tareas en cada momento, utilizar de manera óptima los recursos disponibles.

Tiempo compartido

Artículo principal: Tiempo compartido

En este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece la
falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual
existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo
compartido. En estos sistemas igual que en la multiprogramación. Pero, a diferencia de ésta,
cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se
ejecute otra aplicación.

Tiempo real

Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un
gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las
restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha
fallado. El tiempo de respuesta a su vez debe servir para resolver el problema o hecho planteado.
El procesamiento de archivos se hace de una forma continua, pues se procesa el archivo antes de
que entre el siguiente, sus primeros usos fueron y siguen siendo en telecomunicaciones.

Multiprocesador

Diseño que no se encuentran en ordenadores monoprocesador. Estos problemas derivan del


hecho de que dos programas pueden ejecutarse simultáneamente y, potencialmente, pueden
interferirse entre sí. Concretamente, en lo que se refiere a las lecturas y escrituras en memoria.
Existen dos arquitecturas que resuelven estos problemas:

La arquitectura NUMA, donde cada procesador tiene acceso y control exclusivo a una parte de la
memoria. La arquitectura SMP, donde todos los procesadores comparten toda la memoria. Esta
última debe lidiar con el problema de la coherencia de caché. Cada microprocesador cuenta con su
propia memoria caché local. De manera que cuando un microprocesador escribe en una dirección
de memoria, lo hace únicamente sobre su copia local en caché. Si otro microprocesador tiene
almacenada la misma dirección de memoria en su caché, resultará que trabaja con una copia
obsoleta del dato almacenado.
Para que un multiprocesador opere correctamente necesita un sistema operativo especialmente
diseñado para ello. La mayoría de los sistemas operativos actuales poseen esta capacidad.

La década de 1970

Sistemas operativos desarrollados

Además del Atlas Supervisor y el OS/360, los años 1970 marcaron el inicio de UNIX, a mediados de
los 60 aparece Multics, sistema operativo multiusuario - multitarea desarrollado por los
laboratorios Bell de AT&T y Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de
alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog,
y en la revolucionaria orientación a objetos, Smalltalk.

Inconvenientes de los Sistemas operativos

Se trataba de sistemas grandes, complejos y costosos, pues antes no se había construido nada
similar y muchos de los proyectos desarrollados terminaron con costos muy por encima del
presupuesto y mucho después de lo que se marcaba como fecha de la finalización. Además,
aunque formaban una capa entre el hardware y el usuario, éste debía conocer un complejo
lenguaje de control para realizar sus trabajos. Otro de los inconvenientes es el gran consumo de
recursos que ocasionaban, debido a los grandes espacios de memoria principal y secundaria
ocupados, así como el tiempo de procesador consumido. Es por esto que se intentó hacer hincapié
en mejorar las técnicas ya existentes de multiprogramación y tiempo compartidos .

Sistemas operativos desarrollados

MULTICS (Multiplexed Information and Computing Service)

BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS.

CP/M: (Control Program for Microcomputers) fue un sistema operativo desarrollado por Gary
Kildall para el microprocesador Intel 8080 (los Intel 8085 y Zilog Z80 podían ejecutar directamente
el código del 8080, aunque lo normal era que se entregara el código recompilado para el
microprocesador de la máquina). Se trataba del sistema operativo más popular entre las
computadoras personales en los años 70. Aunque fue modificado para ejecutarse en un IBM PC, el
hecho que IBM eligiera MS-DOS, al fracasar las negociaciones con Digital Research, hizo que el uso
de CP/M disminuyera hasta hacerlo desaparecer. CP/M originalmente significaba Control
Program/Monitor. Más tarde fue renombrado a Control Program for Microcomputers. En la época,
la barra inclinada (/) tenía el significado de "diseñado para". No obstante, Gary Kildall redefinió el
significado del acrónimo poco después. CP/M se convirtió en un estándar de industria para los
primeros micro-ordenadores.

La década de 1980
Con la creación de los circuitos LSI (integración a gran escala), chips que contenían miles de
transistores en un centímetro cuadrado de silicio, empezó el auge de los ordenadores personales.
En éstos se dejó un poco de lado el rendimiento y se buscó más que el sistema operativo fuera
amigable, surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero
se volvían más prácticos y simples para los usuarios. En esta época, siguieron utilizándose
lenguajes ya existentes, como Smalltalk o C, y nacieron otros nuevos, de los cuales se podrían
destacar: C++ y Eiffel dentro del paradigma de la orientación a objetos, y Haskell y Miranda en el
campo de la programación declarativa. Un avance importante que se estableció a mediados de la
década de 1980 fue el desarrollo de redes de computadoras personales que corrían sistemas
operativos en red y sistemas operativos distribuidos. En esta escena, dos sistemas operativos eran
los mayoritarios: MS-DOS (Micro Soft Disk Operating System), escrito por Microsoft para IBM PC y
otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los
ordenadores personales que hacían uso del Motorola 68000.

SunOS

Artículo principal: SunOS

SunOS fue la versión del sistema operativo derivado de Unix y BSD desarrollado por Sun
Microsystems para sus estaciones de trabajo y servidores hasta el principio de los años 1990. Ésta
estaba basada en los UNIX BSD con algunos añadidos de los System V UNIX en versiones
posteriores.

SunOS 1.0 estaba basada básicamente en BSD 4.1 y se publicó en 1982. SunOS 2.0, que salió en
1985, usaba BSD 4.2 como una base e introducía una capa de sistema de ficheros virtual (VFS) y el
protocolo NFS. SunOS 3.0 coincidía con el lanzamiento de la serie Sun-3 en 1986 e incorporaba
varias utilidades de System V. SunOS 4.0, que salió en 1989, migró a la base de BSD 4.3, introdujo
un nuevo sistema de memoria virtual, enlazamiento dinámico y una implementación de la
arquitectura System V STREAMS I/O.

SunOS 5.0 y las versiones posteriores están basadas en UNIX System V Release 4.

MS-DOS

Artículo principal: MS-DOS

En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas
modificaciones, se convirtió en la primera versión de MS-DOS (Micro Soft Disk Operating System).
A partir de aquí se sucedieron una serie de cambios hasta llegar a la versión 7.1, versión 8 en
Windows Milenium, a partir de la cual MS-DOS dejó de existir como un componente del Sistema
Operativo.

En 1983, con la aparición de los ordenadores MSX, se realizó una adaptación para este sistema
que utilizaba el procesador Z-80 llamada MSX-DOS. Era un cruce entre la versión MS-DOS 1.25 y
CP/M. En 1988, una vez que Microsoft se desvinculó de proyecto, ASCII Corporation publicó la
versión MSX-DOS 2.0 que añadió, entre otras cosas, soporte para el uso de directorios.

Macintosh

Artículo principal: Macintosh

El lanzamiento oficial del ordenador Macintosh en enero de 1984, al precio de US $1,995 (después
cambiado a $2,495 dólares)[1]. Incluía su sistema operativo Mac OS cuya características novedosas
era una GUI (Graphic User Interface), Multitareas y Mouse. Provocó diferentes reacciones entre
los usuarios acostumbrados a la línea de comandos y algunos tachando el uso del Mouse como
juguete.

AmigaOS

Artículo principal: AmigaOS

AmigaOS es el nombre que recibe el conjunto de la familia de gestores de ventanas y ROMs que
incluían por defecto los ordenadores personales Commodore Amiga como sistema operativo. Fue
desarrollado originalmente por Commodore International, e inicialmente presentado en 1985
junto con el Amiga 1000.

OS/2

Artículo principal: OS/2

OS/2 es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de las
computadoras personales. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM,
hasta que la primera decidió seguir su camino con su Windows e IBM se ocupó en solitario de
OS/2.

OS/2 ya no es comercializado por IBM, y el soporte estándar de IBM para OS / 2 se suspendió el 31


de diciembre de 2006. Se ha mantenido desde entonces con relativamente pocas nuevas
características bajo el nombre eComStation.

La década de 1990

BeOS
Artículo principal: BeOS

BeOS es un sistema operativo para PC desarrollado por Be Incorporated en 1990, orientado


principalmente a proveer alto rendimiento en aplicaciones multimedia. A pesar de la creencia
común fomentada por la inclusión de la interfaz de comandos Bash en el sistema operativo, el
diseño de BeOS no estaba basado en UNIX.

Originalmente (1995-1996) el sistema operativo se corría sobre su propio hardware, conocido


como BeBox. Más tarde (1997) fue extendido a la plataforma PowerPC y finalmente (1998) se
añadió compatibilidad con procesadores x86.

GNU/Linux

Artículo principal: GNU/Linux

Este sistema al parecer es una versión mejorada de Unix, basado en el estándar POSIX, un sistema
que en principio trabajaba en modo comandos. Hoy en día dispone de Ventanas, gracias a un
servidor gráfico y a gestores de ventanas como GNOME, KDE entre muchos. Recientemente
GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por
ejemplo Beryl o Compiz. Lo que permite utilizar Linux de una forma visual atractiva.

Existen muchas distribuciones actuales de Gnu/Linux (Debian, Fedora, Ubuntu, Slackware, etc.)
donde todas ellas tienen en común que ocupan el mismo núcleo Linux. Dentro de las cualidades
de Gnu/Linux se puede caracterizar el hecho de que la navegación a través de la web es sin riegos
de ser afectada por virus, esto debido al sistema de permisos implementado, el cual no deja correr
ninguna aplicación sin los permisos necesarios, permisos que son otorgados por el usuario. A todo
esto se suma que los virus que vienen en dispositivos desmontables tampoco afectan al sistema,
debido al mismo sistema de permisos.

Solaris

Artículo principal: Solaris (sistema operativo)

Solaris es un sistema operativo de tipo Unix desarrollado desde 1992 inicialmente por Sun
Microsystems y actualmente por Oracle Corporation como sucesor de SunOS. Es un sistema
certificado oficialmente como versión de Unix. Funciona en arquitecturas SPARC y x86 para
servidores y estaciones de trabajo.

Microsoft Windows NT

Artículo principal: Windows NT


Windows NT es una familia de sistemas operativos producidos por Microsoft, de la cual la primera
versión fue publicada en julio de 1993.

Previamente a la aparición del famoso Windows 95 la empresa Microsoft concibió una nueva línea
de sistemas operativos orientados a estaciones de trabajo y servidor de red. Un sistema operativo
con interfaz gráfica propia, estable y con características similares a los sistemas de red UNIX. Las
letras NT provienen de la designación del producto como "Tecnología Nueva" (New Technology).

Las versiones publicadas de este sistema son: 3.1, 3.5, 3.51 y 4.0. Además, Windows NT se
distribuía en dos versiones, dependiendo de la utilidad que se le fuera a dar: Workstation para ser
utilizado como estación de trabajo y Server para ser utilizado como servidor.

FreeBSD

Artículo principal: FreeBSD

FreeBSD es un sistema operativo multiusuario, capaz de efectuar multitarea con apropiación y


multiproceso en plataformas compatibles con múltiples procesadores; el funcionamiento de
FreeBSD está inspirado en la variante 4.4 BSD-Lite de UNIX. Aunque FreeBSD no puede ser
propiamente llamado UNIX, al no haber adquirido la debida licencia de The Open Group, FreeBSD
sí está hecho para ser compatible con la norma POSIX, al igual que varios otros sistemas "clones de
UNIX".

El sistema FreeBSD incluye el núcleo, la estructura de ficheros del sistema, bibliotecas de la API de
C, y algunas utilidades básicas. La versión 6.14 trajo importantes mejoras como mayor apoyo para
dispositivos Bluetooth y controladores para tarjetas de sonido y red.

La versión 7.0, lanzada el 27 de febrero de 2008, incluye compatibilidad con el sistema de archivos
ZFS de Sun y a la arquitectura ARM, entre otras novedades.

La distribución más notable es PC-BSD.

Microsoft Windows

Artículo principal: Microsoft Windows


Windows es el nombre de una familia de sistemas operativos desarrollados y vendidos por
Microsoft basado en MS-DOS. Windows nunca fue realmente un Sistema Operativo con verdadero
entorno gráfico hasta Windows 95. Hasta la versión 3.11 Windows fue un entorno de escritorio
para MS-DOS.

Windows 95 es un sistema operativo con interfaz gráfica de usuario híbrido de entre 16 y 32 bits.
Fue lanzado al mercado el 24 de agosto de 1995 por la empresa de software Microsoft con notable
éxito de ventas. Durante su desarrollo se conoció como Windows 4 o por el nombre clave Chicago.
Esta serie de Windows terminó con Windows Me.

ReactOS

Artículo principal: ReactOS

ReactOS (React Operating System) es un sistema operativo de código abierto destinado a lograr la
compatibilidad binaria con aplicaciones de software y controladores de dispositivos hechos para
Microsoft Windows NT versiones 5.x en adelante (Windows XP y sus sucesores).

En 1996 un grupo de programadores y desarrolladores de software libre comenzaron un proyecto


llamado FreeWin95 el cual consistía en implementar un clon de Windows 95. El proyecto estuvo
bajo discusión por el diseño del sistema ya habiendo desarrollado la capa compatible con MS-DOS,
pero lamentablemente esta fue una situación que no se completó. Para 1997 el proyecto no había
lanzado ninguna versión, por lo que los miembros de éste, coordinados por Jason Filby, pudieron
revivirlo. Se decidió cambiar el núcleo del sistema compatible con MS-DOS y de ahora en adelante
basarlo en uno compatible con Windows NT, y así el proyecto pudo seguir adelante con el nombre
actual de ReactOS, que comenzó en febrero de 1998, desarrollando las bases del kernel y algunos
drivers básicos.

FreeDOS

Artículo principal: FreeDOS

FreeDOS es un proyecto que aspira a crear un sistema operativo libre que sea totalmente
compatible con las aplicaciones y los controladores de MS-DOS.

El programa ya ha alcanzado un alto grado de madurez y tiene algunas características que no


existían en MS-DOS. Algunos comandos de FreeDOS son idénticos o mejores que sus equivalentes
de MS-DOS, pero aún faltan algunos del sistema operativo original.

El intérprete de línea de comandos usado por FreeDOS se llama FreeCOM.


La década de 2000

SymbOS

Artículo principal: SymbOS

SymbOS es un sistema operativo desarrollado originalmente en 2001 para los ordenadores


Amstrad CPC. Se trata de un sistema operativo gráfico con una estética e interfaz similar a
Windows 95. A pesar de la baja potencia que desarrollan estos ordenadores, alrededor de 4MHz,
está minuciosamente optimizado para el hardware en el cual funciona, por lo que el rendimiento
es más que aceptable.

Debido a su cuidada programación modular, ha sido migrado posteriormente a los ordenadores


MSX, Amstrad PCW y Enterprise 128 que, con versiones adaptadas y recompiladas en cada caso,
son capaces de ejecutar las mismas aplicaciones sin modificación alguna.

Aunque parezca un sistema obsoleto, existe una extensa comunidad implicada en el proyecto. Los
programadores originales continúan actualizando y dando soporte al sistema en la actualidad.

SymbOS es un claro ejemplo de software optimizado, de tal manera que con un mínimo hardware
se obtienen prestaciones similares a otros grandes sistemas operativos actuales. Esto lo convierte
en el antagonista de los modernos sistemas operativos, que derrochan la mayor parte de los
recursos apoyándose en la alta potencia del hardware actual.

MorphOS

Artículo principal: MorphOS

MorphOS es un sistema operativo, en parte propietario y en parte de código abierto, producido


para ordenadores basados en los procesadores PowerPC (PPC). El sistema operativo en sí es
propietario, pero muchas de sus bibliotecas y otros componentes son de código abierto, como
Ambient (la interfaz del escritorio). La mariposa azul es el logo característico de este sistema
operativo. Está basado en el Micronúcleo de Quark.

Darwin

Artículo principal: Darwin (sistema operativo)

Darwin es el sistema que subyace en Mac OS X, cuya primera versión final salió en el año 2001
para funcionar en computadoras Macintosh.
Integra el micronúcleo XNU y servicios de sistema operativo de tipo UNIX basados en BSD 4.4 (en
particular FreeBSD) que proporcionan una estabilidad y un rendimiento mayor que el de versiones
anteriores de Mac OS. Se trata de una evolución del sistema operativo NEXTSTEP (basado en Mach
2.5 y código BSD 4.3) desarrollado por NeXT en 1989 comprado por Apple Computer en diciembre
de 1996.

Darwin proporciona al Mac OS X prestaciones modernas, como la memoria protegida, la


multitarea por desalojo o expulsiva, la gestión avanzada de memoria y el multiproceso simétrico.

Mac OS

Artículo principal: OS X

mac OS, antes llamado Mac OS X, es un sistema operativo basado en Unix, desarrollado,
comercializado y vendido por Apple Inc.

La primera versión del sistema fue Mac OS X Server 1.0 en 1999, y en cuanto al escritorio, fue Mac
OS X v10.0 «Cheetah» (publicada el 24 de marzo de 2001).

La variante para servidores, Mac OS X Server, es arquitectónicamente idéntica a su contraparte


para escritorio, además de incluir herramientas para administrar grupos de trabajo y proveer
acceso a los servicios de red. Estas herramientas incluyen un servidor de correo, un servidor
Samba, un servidor LDAP y un servidor de dominio entre otros.

Haiku

Artículo principal: Haiku (sistema operativo)

Haiku es un sistema operativo de código abierto actualmente en desarrollo que se centra


específicamente en la informática personal y multimedia. Inspirado por BeOS (Be Operating
System), Haiku aspira a convertirse en un sistema rápido, eficiente, fácil de usar y fácil de
aprender, sin descuidar su potencia para los usuarios de todos los niveles.

OpenSolaris

Artículo principal: OpenSolaris

OpenSolaris fue un sistema operativo libre publicado en 2005 a partir de la versión privativa de
Solaris de Sun Microsystems, ahora parte de Oracle Corporation. OpenSolaris es también el
nombre de un proyecto iniciado en 2005 por Sun para construir y desarrollar una comunidad de
usuarios alrededor de las tecnologías del sistema operativo del mismo nombre. Después de la
adquisición de Sun Microsystems, en agosto de 2010, Oracle decidió interrumpir la publicación y
distribución de OpenSolaris, así como su modelo de desarrollo, basado en la disponibilidad de
versiones de desarrollo compiladas cada dos semanas y versiones estables cada seis meses. Sin
embargo, los términos de su licencia libre no han sido modificados, por lo que el código fuente
afectado por ella será publicado cuando Oracle publique nuevas versiones de Solaris.

La década de 2010

IllumOS

Artículo principal: Illumos

Illumos es un proyecto de software libre derivado de OpenSolaris. Fue anunciado por conferencia
web desde Nueva York el 3 de agosto de 2010. El nombre del proyecto es un neologismo
procedente del latín "Illum" (la luz) y de "OS" (operating system, sistema operativo).

Se trata del código base a partir del cual cualquiera podrá crear su propia distribución de software
basada en el sistema operativo OpenSolaris. Pero Illumos no es una distribución, ni una bifurcación
(fork), al menos por el momento, en la medida que no pretende separarse del tronco principal,
sino un derivado de la "consolidación" OS/Net (más conocida como ON), que consiste básicamente
en el código fuente del kernel (SunOS), los drivers, los servicios de red, las bibliotecas del sistema y
los comandos básicos del sistema operativo.

Sistemas operativos (página 2)

Enviado por ticllasuca lima wilber

Partes: 1, 2

El ambiente Clásica en 10.0, también era mejor que él Publica Beta, aún tenía una extraña
compatibilidad de problemas y conducta caprichosa. Los interfaz de Mac OS X se veía muy
parecida a la interfaz de Mac OS y los usuarios creían que tenían las mismas características sin
embargo no fue así y tuvieron que aprender nuevos hábitos y dejar los viejos.

Mac Os 10.9 (Mavericks)


Mac OS X Mavericks (versión 10.9) es la décima versión principal de OS X para ordenadores,
portátiles y servidores Mac. OS X Mavericks se anunció el 10 de junio 2013, y se puede descargar
desde el Mac App Store. Esta nueva versión de OS X marca el comienzo de un cambio en el
esquema de nombres de OS X, dejando la utilización de los grandes felinos y pasando a nombres
basados ??en lugares en California. Así que esta versión del sistema operativo se ha llamado
Mavericks, una localidad de California donde el 'surf' es muy popular, lo que hace que el logotipo
sea una ola del mar. (10)

Mac Os 10.10 (Yosemite)

Hemos sabido por un tiempo que Apple estaría anunciando una nueva versión de Mac OS X en la
WWDC 2014, pero los detalles exactos no han sido fáciles de encontrar. Ahora Apple reveló los
detalles oficialmente, por fin podemos dejar de especular y ver lo que hay de nuevo en Mac OS X
10.10. Vamos a tratar con este primero, porque era muy obvio. Mac OS X 10.10 es posiblemente la
revisión visual más espectacular de Mac OS en las edades. Los iconos y las fuentes es muy similar,
y hay un énfasis similar en la translucidez y "niveles" dentro del sistema operativo. Esto es más
evidente en los iconos de muelle, donde los iconos y semitransparente aspecto son muy similar a
la bandeja de aplicaciones en Mac OS. (10)

CAPITULO IV

Sistema Operativo Linux

DEFINICION DE SISTEMAS OPERATIVOS LINUX

El sistema operativo-GNU/Linux es uno de los términos empleados para referirse a la combinación


del núcleo o kernel libre similar a UNIX denominado Linux con el sistema GNU. Su desarrollo es
uno de los ejemplos más prominentes de software libre; todo su código fuente puede ser
utilizado, modificado y redistribuido a bajos términos de la GPL y otra serie de licencias libres
según Gary Nutt. (2)

Según Santiago Felici un sistema operativo es un software que proporciona un acceso, Sencillo y
seguro al soporte físico del ordenador (hardware), ocultando, Al usuario detalles de la
implementación particular y creando la ilusión, De existencia de recursos ilimitados (o
abundantes). Máquina virtual, Otra definición, es el de un programa que actúa como intermediario
entre el, Usuario de la computadora y el hardware de la computadora. (13)
Windows 8.1 avanza la visión de Windows 8 de proporcionar una potente colección de
aplicaciones y conectividad en la nube de excelentes dispositivos; es todo lo que a las personas les
encanta de Windows 8, además de algunas mejoras.

Windows 8.1 combina la visión de innovación de Microsoft con comentarios del cliente sobre
Windows 8 para proporcionar muchas mejoras y nuevas características: más opciones de
personalización de la pantalla de Inicio que sincroniza todos los dispositivos, la opción de arranque
directamente al escritorio, Bing Smart para que puedas encontrar lo que buscas en el equipo o
Internet, un botón de Inicio para navegar entre el escritorio y la pantalla de Inicio, y opciones más
flexibles para ver varias aplicaciones a la vez en una o todas las pantallas.

También según David Orosco existen varias aplicaciones nuevas integradas como Bing Wood &
Drino, Bing Meath & Fines, y excelentes aplicaciones de utilidades como Lista de lectura,
Calculadora y Alarmas. Muchas de las excelentes aplicaciones enviadas en Windows 8 están de
regreso y mejoradas, lo que hace disfrutar más tu experiencia desde el comienzo. (11)

HISTORIA DE LINUX

Linux, es un sistema operativo. Es una implementación de libre distribución UNIX para


computadoras personales (PC), servidores y estaciones de trabajo.

Linux (pronunciación IPA: ´links") es la denominación de un sistema operativo tipo-Unix y el


nombre de un núcleo. Es uno de los paradigmas más prominentes del software libre y del
desarrollo del código abierto, cuyo código fuente está disponible públicamente, para que
cualquier persona pueda libremente usarlo, estudiarlo, redistribuirlo y, con los conocimientos
informáticos adecuados, modificarlo. Linux es usado como sistema operativo en una amplia
variedad de plataformas de hardware y computadores, incluyendo los computadores de escritorio,
servidores, supercomputadores, mainframes, y dispositivos empotrados así como teléfonos
celulares. (10)

En 1983 Richard Salman fundó el proyecto GNU, con el fin de crear sistemas operativos parecidos
a UNIX compatibles con POSIX. Dos años más tarde creó la "Fundación del Software Libre" y
escribió la GNU General Publica Lísense para posibilitar el software libre en el sistema de
copyright.
El software GNU se extendía muy de prisa y dentro de poco una multitud de programas fueron
escritos, de manera que ya a principios de 1990 había bastantes software GNU como para hacer
un sistema operativo propio, pero faltaba el Kernel.

A principios de los años 1990, no había un sistema operativo libre completo. A pesar de que el
proyectan era desarrollado constantemente, no disponía sin embargo de ningún buen Kernel
basado en UNIX, por el contrario era un número de proyectos de software libres que podían ser
traducidos en las variantes UNIX mediante el compilador de GNU. (14)

Según su historia del sistema operativo Linux, se dieron diferentes tipos de versión de Linux en
este texto mencionaremos las versiones de Linux:

Archilinux

¿Qué es Archí Linux?

Archí Linux es una distribución Linux optimizada para arquitecturas i686 y x86_64 que se basó
originalmente en ideas tomadas de CRUX. Su desarrollo está enfocado en el balance de la
simplicidad, elegancia, precisión de código y lo más novedoso del software. Su diseño ligero y
simple la hace fácil de extender y adaptar a cualquier clase de sistema qué se esté construyendo.
Según Oficial Archí Linux Instaló Guide.

Archí Linux es una distribución Linux para computadoras. Se compone fundamentalmente de


software y apoya la participación comunitaria. El enfoque de diseño se centra en la simplicidad, la
elegancia, la coherencia de código y el minimalismo. (6)

Archí Linux define simplicidad como una ligera estructura base sin agregados innecesarios,
modificaciones, o complicaciones, que permite a un usuario individual modelar el sistema de
acuerdo a sus propias necesidades. La simplicidad de su estructura no implica sencillez en su
manejo. Es una distribución de Linux optimizada para i686 creada por Sud Vine, la cual se enfoca
en la simplicidad a la hora de manejar el sistema. Sud se inspiró en otra distribución de Linux
llamada CRUX. Archí aún no ha alcanzado la versión 1.0 pero gracias a sus virtudes posee una
comunidad cada día más grande.

Ubuntu
Ubuntu es un sistema operativo mantenido por Canonical y la comunidad de desarrolladores.
Utiliza un núcleo Linux, y su origen está basado en Debían. Ubuntu está orientado en el usuario
promedio, con un fuerte enfoque en la facilidad de uso y mejorar la experiencia de usuario. Está
compuesto de múltiple software normalmente distribuido bajo una licencia libre o de código
abierto. Estadísticas web sugieren que el porcentaje de mercado de Ubuntu dentro de
"distribuciones Linux" es de aproximadamente 49% y con una tendencia a subir como servidor
web. (15)

Según Windows media palier.Aquí mencionaremos algunas versiones: La primera versión de


Ubuntu fue lanzada el 20 de octubre de 2004, y en la actualidad ya lleva varias versiones estables
lanzadas. Las versiones estables se liberan cada 6 meses, y Canonical proporciona ayuda técnica y
actualizaciones de seguridad para la mayoría de las versiones de Ubuntu durante 18 meses,
excepto para las versiones LTS ,para las que ofrece 3 años para la versión de escritorio y 5 años
para la versión de servidor, a partir de la fecha del lanzamiento. A partir de la liberación de su
versión 12.04, todas las versiones LTS sea de escritorio o de servidor, tendrán un soporte de 5
años, y para las ediciones No LTS tendrán un soporte de 9 meses, esto a partir del lanzamiento de
la versión 13.04.

Ubuntu está compuesto por diversos paquetes de software que, en su mayoría, son distribuidos
bajo código abierto y licencia libre. Este sistema operativo no tiene fines lucrativos (se consigue de
manera gratuita) y aprovecha las capacidades de los desarrolladores de la comunidad para
mejorar sus prestaciones.

Su facilidad de uso es una de las razones que han llevado a que Ubuntu cada vez se haya
convertido en una presencia más constante dentro del mercado tecnológico. No obstante,
tampoco hay que olvidar que otro de estos motivos es el conjunto de aplicaciones que lleva
incorporadas para satisfacción de sus usuarios. (16)

Ubuntu 4.10

Ubuntu 4.10 se lanzó el 20 de octubre de 2004, la primera versión de Ubuntu. Su nombre se debe
a que fue publicada Y Fue desarrollado sobre Debían GNU/Linux y con planes de un nuevo
lanzamiento cada seis meses y dieciocho meses de soporte. El escritorio era de color rosa bastante
claro, el naranja y el marrón simbolizaban las tribus sudafricanas.

Ubuntu 8.04 Lts


Ubuntu 8.04 LTS fue la segunda versión de soporte extendido (LTS), y se lanzó el 24 de abril de
2008. 27 Presentaba algunas novedades entre las que destacaban: la inclusión por defecto de
nuevas aplicaciones como: Cracker, Brasero, Transmisión, Vinagre VNC, y Pulse Audio.

Además se hizo posible el tener acceso al Active Director y usando Open y fue la primera versión
que incluyó el instalador Subí en el Live CD, que permite instalar la distribución como un programa
de Windows sin necesidad de hacer ninguna partición en el disco duro. (17)

Ubuntu 10.10

Ubuntu 10.10fue lanzado el 10 de octubre de 2010. Ubuntu 10.10 se enfoca principalmente en su


versión para notebooks, con importantes cambios en el diseño y experiencia de usuario. La versión
para escritorio también trae mejoras de diseño y de nivel técnico.

Debían

Debían GNU/Linux). Debían es un sistema operativo gratuito, una de las distribuciones de Linux
más populares e influyentes. Debían es conocido por su adhesión a las filosofías del software libre
y por su abundancia de opciones (su actual versión incluye más de 18 mil paquetes de software,
para once arquitecturas de computadora). Debían GNU/Linux, también es base para otras
múltiples distribuciones de Linux como Knoppix, Inspire, MEPIS, Sandro y la familia Ubuntu.

Debían también es conocido por su sistema de gestión de paquetes (especialmente APT), por sus
estrictas políticas con respecto a sus paquetes y la calidad de sus lanzamientos. Estas prácticas
permiten fáciles actualizaciones entre lanzamientos, y una instalación y removió sencilla de
paquetes. (18)

Historia de Debían fue anunciado el 16 de agosto de 1993 por Ian Murdock, por entonces un
estudiante de la Universidad de Pardee. Murdock al principio llamó a este sistema "Debían Linux
Reléase". Su idea era crear una distribución abierta, respetando los valores de Linux y GNU. (19)

Stable
La publicación estable contiene la publicación oficial más reciente de Debían. Esta es la versión de
producción de Debían, cuyo uso recomendamos principalmente. La versión estable actual de
Debían es la 7. Fue publicada originalmente con la versión 7.0 el 4 de mayo de 2013 y su última
actualización es la versión 7.7, publicada el 18 de octubre de 2014.

Testing

La publicación en pruebas contiene paquetes que aún no han sido aceptados en la rama estable,
pero están a la espera de ello. La principal ventaja de usar esta publicación es que tiene versiones
más recientes del software. Vea las PF de Debían si desea más información sobre qué es pruebas y
estable. La publicación actual de en pruebas es pesie.

Unstable

La publicación inestable es donde tiene lugar el desarrollo activo de Debían. Generalmente, esta
publicación es la que usan los desarrolladores y otros que quieren estar a la última. La publicación
inestable se llama instable.

Fedora

Fedora es una distribución Linux para propósitos generales basada en RPM, que se caracteriza por
ser un sistema estable, la cual es mantenida gracias a una comunidad internacional de ingenieros,
diseñadores gráficos y usuarios que informan de fallos y prueban nuevas tecnologías. Cuenta con
el respaldo y la promoción de Red.

El proyecto no busca sólo incluir software libre y de código abierto, sino ser el líder en ese ámbito
tecnológico. Algo que hay que destacar es que los desarrolladores de Fedora prefieren hacer
cambios en las fuentes originales en lugar de aplicar los parches específicos en su distribución, de
esta forma se asegura que las actualizaciones estén disponibles para todas las variantes de Linux.
(20)

Además, creemos en el poder de la colaboración. Nuestros desarrolladores trabajan con equipos


de proyectos de software libre alrededor del mundo a quienes denominamos la "rama desarrollo".
Estos equipos crean la gran mayoría del software que constituye Fedora. Colaboramos de manera
estrecha con ellos de modo que todos podamos beneficiarnos con su trabajo, y podamos acceder
lo más rápido posible a cualquiera de sus avances. Al trabajar con tales equipos en una misma
dirección, podemos asegurar que el software libre funciona mejor en conjunto, y al mismo tiempo
podemos ofrecer la mejor experiencia a los usuarios. Además, de esta manera podemos
velozmente ofrecer las mejorías pertinentes, algo que beneficia no sólo a los usuarios, sino
también a las comunidades de desarrollo de software.

Fedora Core 1

Fedora Core 1 fue la primera versión de Fedora, la cual fue liberada el 6 de noviembre de 2003. Su
nombre en código fue «Barrow». Se basó en Red Linux 9 e incorporó la versión 2.4.19 del kernel
de Linux, el GNOME 2.4.0-1 y el KDE 3.1.4-6.

Fedora 7

Fedora 7 fue liberada el 31 de mayo de 2007. La mayor diferencia entre Fedora Core 6 y Fedora 7
fue la fusión de los repositorios Core y Extras y el nuevo sistema para administrar esos paquetes.
Esta versión utiliza enteramente nuevas herramientas de construcción que permiten al usuario
crear distribuciones de Fedora personalizadas que también pueden incluir software de terceros.

Hay tres spin oficiales disponibles para Fedora 7:

Live - dos CD Vivos (uno para GNOME y uno para KDE)

Fedora - un DVD que incluye la gran mayoría de paquetes disponibles;

Everything - simplemente un árbol de instalación para ser usado para instalaciones mediante
Internet y Bum.

Fedora 15

Fedora 15, fue lanzado el 24 de mayo de 2011.Las mejoras de esta versión son:

Actualización de Votos a la versión 1.46


En servidores Dell y HP con múltiples puertos de red en la placa base, el nombre de las
interfaces es ex en vez de ex (Consistente).

Grupo de software de diseños relacionados para una fácil instalación.

Soporte para la gestión de cortafuegos dinámico con interfaz de DBus.

Soporte para ecryptfs en authconfig.

Realiza el arranque de los discos con 4 kB de tamaño del sector de trabajo en máquinas UEFI.

Conclusiones

1. En mi opinión hay una gran diversidad de sistemas operativos hoy en día, empezando por el
Unix y MS-DOS desde hace más de 30 años los sistemas operativos han ido evolucionando. En el
trabajo que he realizado los sistemas operativos que me han parecido los más importantes aunque
no hay machísimos más.

2. Ahora el mundialmente usado es el sistema operativo de Microsoft-Windows, Windows 7 es


el más recientemente que han desarrollado Microsoft. No he tenido la oportunidad de usarlo
mucho, tengo amigos que recientemente se han comprado algún ordenador ya están con el
Windows 7 incorporado, les he preguntado que les pareció, y parece que por ahora están
contentos, mejor que el Windows Vista. No es tan pesado como el Windows Vista que la mayoría
de la gente lo ha clasificado como un fracaso total de la compañía Microsoft.

3. El mejor sistema operativo para utilizarlo para navegar por Internet es Linux, un sistema
operativo de código abierto y gratuito en comparativa a Windows. Linux es un sistema operativo
muy seguro y sobre todo gratuito.

4. Ahora bien, la mayoría de las aplicaciones y juegos que hay en la actualidad son compatibles
con el sistema operativo de Microsoft, lo que causa muchos problemas de incompatibilidad a la
hora de instalarte Linux y utilizar las aplicaciones informáticas de Windows.
5. Para mí, las personas que les gusta la música, el video y todo relacionado con la multimedia el
mejor sistema operativo para ello es Mac, un sistema operativo desarrollado por Apple. Uno de los
principales objetivos de los ordenadores Macintosh es ofrecer las mejores prestaciones al mínimo
precio posible.

6. La verdad es que de los sistemas operativos de Unix y MS-DOS, no os puedo decir mucho, ya
que, nunca he usado dichos sistemas operativos, hasta ahora tampoco los conocía, no he visto
ningún ordenador actualmente que funcione con los sistemas operativos mencionados
anteriormente. Para finalizar, a los amantes de los juegos les recomiendo Windows, los amantes
de navegar por Internet sin estar preocupados por si lo puede entrar algún virus les recomiendo
Linux, y por último recomiendo Mac a las personas adictas a la multimedia.

¿Cuál es la diferencia entre el software “libre” y el


software “gratuito”?

Se trata de dos denominaciones que muchas veces son utilizadas como


sinónimos pero que distan mucho de serlo. Muy por el contrario, existen
profundas diferencias entre ellas.

El software libre (en inglés free software, aunque en realidad esta


denominación también puede significar gratis, y no necesariamente libre, por
lo que se utiliza el hispanismo libre también en inglés) es la denominación del
software que respeta la libertad de los usuarios sobre su producto adquirido
y, por tanto, una vez obtenido puede ser usado, copiado, estudiado,
cambiado y redistribuido libremente.

Según la Free Software Foundation, el software libre se refiere a la libertad


de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el
software; de modo más preciso, se refiere a cuatro libertades de los usuarios
del software:

la libertad de usar el programa, con cualquier propósito;


la libertad de estudiar cómo funciona el programa y modificarlo,
adaptándolo a tus necesidades;
la libertad de distribuir copias del programa, con lo cual puedes ayudar a tu
prójimo;
la libertad de mejorar el programa y hacer públicas esas mejoras a los
demás, de modo que toda la comunidad se beneficie.

Una de las razones de la confusión por la que mucha gente confunde al


software libre y el software gratuito proviene, como vimos, de la ambigüedad
de la palabra “free” en inglés. Es por ese motivo que al Free Open Source
Software (FOSS) también se lo conoce como Free Libre Open Source Software
(FLOSS). Así que, ya sabés, la próxima vez que vayas a un sitio web en inglés y
diga que un programa es “free”, vas a tener que preguntarte: ¿a qué se
refiere?, ¿es “libre” o “gratuito”? Para resolver el acertijo sólo alcanzará con
descubrir si cumple o no con las 4 libertades listadas más arriba.

También es fácil confundir al “freeware” y el “free software” debido a que el


software libre suele estar disponible gratuitamente, o al precio de costo de la
distribución a través de otros medios; sin embargo, no es obligatorio que así
sea. Por lo tanto, no es correcto asociar software libre a “software gratuito”
(denominado usualmente “freeware”), ya que un software, conservando su
carácter de libre, puede ser distribuido comercialmente (“software
comercial”). Análogamente, el “software gratis” o “gratuito” incluye en
ocasiones el código fuente; no obstante, este tipo de software no es libre en
el mismo sentido que el software libre, a menos que se garanticen los
derechos de modificación y redistribución de dichas versiones modificadas
del programa.
El desarrollo de software libre no es una creación “hippie”. Si bien una parte
considerable de los aportes al desarrollo del software libre es realizada por
personas que lo hacen por gusto y vocación personal, muchos de ellos
reciben compensaciones económicas por su trabajo. Por otra parte, existen
numerosas empresas que han podido “hacer del software libre un gran
negocio”, como por ejemplo Google, Canonical, Red Hat, IBM y tantos otros.
Por último, no hay que olvidar que muchas veces el negocio detrás del
software libre está vinculado a la oferta de servicios adicionales al software,
como ser: la personalización y/o instalación del mismo, soporte técnico,
donaciones, patrocinios; en contraposición al modelo de negocio basado en
licencias predominante en el software de código cerrado.
¿Por qué usar licencias?

Si la idea es que cualquiera pueda ejecutar, copiar, distribuir, estudiar,


cambiar y mejorar el software, entonces, ¿por qué resulta necesaria la
utilización de licencias? ¿Acaso el “software privativo” no se caracteriza,
precisamente, por la utilización de licencias? Ehh…¡No!

En primer lugar, la necesidad de “proteger” al sofware libre mediante la


utilización de licencias surge de la siguiente hipótesis: ¿qué pasa si una
empresa toma un proyecto de “software libre” y lo cubre bajo una licencia
“restrictiva” o “privativa”? Para que ello no suceda, es necesaria la utilización
de licencias “libres” que protejan a estos proyectos. En segundo lugar, esto
demuestra que la diferencia entre software libre y software privativo no
radica en la utilización o no de licencias sino en el tipo de licencias utilizadas.

Tampoco debe confundirse al software libre con el “software de dominio


público”. Éste último es aquel software que no requiere de licencia, pues sus
derechos de “explotación” son para toda la humanidad, y pertenece a todos
por igual. Cualquiera puede hacer uso de él, siempre con fines legales y
consignando su autoría original. Este software sería aquel cuyo autor lo dona
a la humanidad o cuyos derechos de autor han expirado, tras un plazo
contado desde la muerte de este, habitualmente 70 años. Si un autor
condiciona su uso bajo una licencia, por muy débil que sea, ya no es del
dominio público.
Licencias “libres”

Para ver un listado comparativo completo de todas las licencias de software


libre conocidas hasta el momento, les sugiero ver ésta página de Wikipedia.

El código abierto es un modelo de desarrollo de software basado


en la colaboración abierta.1 Se enfoca más en los beneficios
prácticos (acceso al código fuente) que en cuestiones éticas o de
libertad que tanto se destacan en el software libre.2 Para muchos
el término «libre» hace referencia al hecho de adquirir un software
de manera gratuita.

Historia
Artículo principal: Historia del código abierto

Se utilizó por primera vez en 1990 en las


comunidades de software libre, tratando de usarlo
como reemplazo al ambiguo nombre original en
inglés del software libre (free software). Lo cual
implica, para el caso que nos ocupa, «software que
podemos usar, escribir, modificar y redistribuir
gratuitamente» (software gratuito) y, según la
acepción castellana de libertad.

La expresión, para algunos, no resultó apropiada


como reemplazo para el ya tradicional free software,
pues eliminaba la idea de libertad, confundida con la
simple gratuidad. No obstante continúa siendo
ambivalente, puesto que se usa en la actualidad por
parte de programadores que no ofrecen software
libre pero, en cambio, sí ofrecen el código fuente de
los programas para su revisión o modificación
previamente autorizada por parte de sus pares
académicos.

Dada la ausencia de tal ambigüedad en la lengua


española, el término software libre es adecuado
para referirse a programas que se ofrecen con total
libertad de modificación, uso y distribución bajo la
regla implícita de no modificar dichas libertades
hacia el futuro. De hecho en inglés también se usa el
término «libre software» para evitar ambigüedades
semánticas.
Desde el punto de vista de una «traducción
estrictamente literal», el significado textual de
código abierto es que «se puede examinar el código
fuente», por lo que puede ser interpretado como un
término más débil y flexible que el del software
libre. Sin embargo, ambos movimientos reconocen el
mismo conjunto de licencias y mantienen principios
equivalentes.

Sin embargo, hay que diferenciar los programas de


código abierto, que dan a los usuarios la libertad de
mejorarlos, de los programas que simplemente
tienen el código fuente disponible, previa
restricciones sobre su uso o modificación.

En la actualidad el código abierto se utiliza para


definir un movimiento nuevo de software (la
Iniciativa Open Source), diferente al movimiento del
software libre, incompatible con este último desde el
punto de vista filosófico, y completamente
equivalente desde el punto de vista práctico, de
hecho, ambos movimientos trabajan juntos en el
desarrollo práctico de proyectos.

La idea bajo el concepto de código abierto es


sencilla: cuando los programadores (en Internet)
pueden leer, modificar y redistribuir el código fuente
de un programa, este evoluciona, se desarrolla y
mejora. Los usuarios lo adaptan a sus necesidades,
corrigen sus errores con un tiempo de espera menor
a la aplicada en el desarrollo de software
convencional o cerrado, dando como resultado la
producción de un mejor software.
Cronología

Inicio del movimiento de software libre:

27 de septiembre de 1983: Richard Stallman inicia


el proyecto GNU.
25 de agosto de 1991: Linus Torvalds publica un
mensaje en el grupo de noticias USENET
comp.os.minix acerca del nuevo kernel de tipo Unix
(Linux) que ha estado desarrollando.
Inicio del movimiento de código abierto:3

23 de diciembre 1997: Id Software libera el código


fuente de Doom.4
22 de enero de 1998: Netscape anuncia que
liberará el código fuente de Navigator.
3 de febrero de 1998: en la reunión de Palo Alto se
acuña el término open source y durante la semana
siguiente Bruce Perens y Eric S. Raymond lanzan
opensource.org.
31 de marzo de 1998: el código de Navigator ya
está disponible: en unas horas, mejoras del
programa invaden la red.
7 de mayo de 1998: Corel Corporation anuncia
Netwinder, un ordenador económico que corre bajo
GNU/Linux.
11 de mayo de 1998: Corel anuncia sus planes de
adaptar WordPerfect y el resto de sus programas de
ofimática a GNU/Linux.
28 de mayo de 1998: Sun Microsystems y Adaptec
se unen a Linux International, las primeras grandes
empresas vendedoras de equipos y sistemas
operativos en hacerlo.
13-17 de julio de 1998: Oracle e Informix anuncian
que conectarán sus bases de datos a GNU/Linux.
10 de agosto de 1998: Sun Microsystems ofrece
Solaris a usuarios individuales e instituciones
educativas o sin ánimo de lucro.
1 de noviembre de 1998: se publican los
Halloween Documents: planes de Microsoft contra
GNU/Linux y otros proyectos código abierto.
16 de diciembre de 1998: IDG anuncia que la cuota
de mercado del GNU/Linux se incrementó un 212%
en 1998.
1-5 de marzo de 1999: LinuxWorld Conference and
Expo: primera exposición sobre GNU/Linux. HP, IBM,
SAP inician el comienzo del apoyo de las firmas
comerciales.
15 de marzo de 1999: Apple lanza Darwin bajo
licencia código abierto.
4 de junio de 1999: Microsoft afirma que Linux
vende más que Windows 98 en las grandes
superficies.5
15 de enero de 2001: Nace Wikipedia.
15 de noviembre de 2005: Se crea la Open
Invention Network.6
16 de enero de 2008: Sun Microsystems adquiere
MySQL.7
23 de septiembre de 2008: Google lanza el primer
teléfono con sistema operativo Android, basado en
Linux y otros componentes de código abierto.8
20 de abril de 2009: Oracle adquiere Sun
Microsystems.9
11 de febrero de 2009: Se lanza MongoDB, un
sistema de base de datos NoSQL orientado a
documentos de código abierto.
10 de diciembre de 2011: Apache lanza Hadoop,
un framework de software para big data bajo
licencia libre.
30 de mayo de 2014: Apache lanza Spark, un
framework de computación en clúster open-source.
8 de junio de 2015: Apple anuncia Swift 2 bajo
licencia código abierto.
9 de noviembre de 2015: Google lanza TensorFlow,
una biblioteca de código abierto para aprendizaje
automático.
17 Diciembre de 2015: la Fundación Linux anuncia
la creación del Proyecto Hyperledger, una
plataforma código abierto para blockchain.10
Febrero de 2017: GitHub revisa sus términos de
servicio.11
Agosto de 2017: Se lanza el EPL 2.0 (Licencia
Pública Eclipse).
Agosto de 2017: Java Community Process (JCP)
migra Java EE a Eclipse.12
29 de noviembre de 2017: Red Hat, Facebook,
Google e IBM anuncian el compromiso de cura de
GPLv2 / LGPLv2.x.13
18 de abril de 2018: Microsoft presenta Azure
Sphere OS, el primer sistema operativo de Microsoft
basado en Linux.14
9 de junio de 2018: Microsoft compra GitHub.15
10 de octubre de 2018: Microsoft cede 60.000
patentes al Open Invention Network.16
29 de octubre de 2018: IBM adquiere Red Hat.17
Entre 1998 y 2000 se observó un gran crecimiento en
la popularidad de GNU/Linux y de la formación de
muchas empresas «pro software de código abierto».
El movimiento también capturó la atención de la
principal industria del software, llevando al software
de código abierto las ofertas de compañías de
software consolidadas como Sun Microsystems con
StarOffice e IBM con OpenAFS.
Movimiento del código abierto
Mapa conceptual del software libre y de código
abierto.

La idea del código abierto se centra en la premisa de


que al compartir el código, el programa resultante
tiende a ser de calidad superior al software
propietario, es una visión técnica. Por otro lado, el
software libre tiene tendencias filosóficas e incluso
morales:3 el software propietario, al no poder
compartirse, es «antiético» dado que prohibir
compartir entre seres humanos va en contra del
sentido común. Ninguna adaptación ni cambios que
no haya realizado previamente la empresa
fabricante.

El código abierto ofrece:

Acceso al código fuente: Para modificarlo,


corregirlo o añadir más prestaciones.
Gratuidad: El software puede obtenerse
libremente.
La posibilidad de evitar monopolios de software
propietario: Para no depender de un único
fabricante de software.
Un modelo de avance: Por lo cual la información
no se oculta.

Al igual que el software libre, el código abierto tiene


una serie de requisitos necesarios para que un
programa pueda considerarse dentro de este
movimiento,18 estos son:
Libre redistribución: el software debe poder ser
regalado o vendido libremente.
Código fuente: el código fuente debe estar incluido
u obtenerse libremente.
Trabajos derivados: la redistribución de
modificaciones debe estar permitida.
Integridad del código fuente del autor: las licencias
pueden requerir que las modificaciones sean
redistribuidas solo como parches.
La licencia no debe discriminar a ninguna persona
o grupo: nadie puede dejarse fuera.
Sin discriminación de áreas de iniciativa: los
usuarios comerciales no pueden ser excluidos.
Distribución de la licencia: deben aplicarse los
mismos derechos a todo el que reciba el programa
La licencia no debe ser específica de un producto:
el programa no puede licenciarse solo como parte de
una distribución mayor.
La licencia no debe restringir otro software: la
licencia no puede obligar a que algún otro software
que sea distribuido con el software abierto deba
también ser de código abierto.
La licencia debe ser tecnológicamente neutral: no
debe requerirse la aceptación de la licencia por
medio de un acceso por clic de ratón o de otra forma
específica del medio de soporte del software.

Este decálogo es compatible con las cuatro


libertades del software libre.
Programas en código abierto

Sistemas operativos: los más conocidos, Red Hat


(Centos), Ubuntu y Debian, basados en Linux.
Android, de Google, para teléfonos inteligentes y
tabletas.
Programas: Existen programas de código abierto
en diferentes áreas, algunos de ellos son: las suites
ofimáticas Libre Office y Open Office , el navegador
Firefox, el cliente de correo electrónico Thunderbird,
el reproductor multimedia VLC, editores de
imágenes GIMP o InkScape, editor de video Kdenlive,
editor de audio Audacity, videojuegos Frets on fire, 0
A.D.,
Antivirus: ClamWin
Los programas de Apache Software Foundation y
Github.
El lenguaje de programación de Apple Swift 2.
Plataformas de enseñanza como Moodle (un
ejemplo es sloodle)

Extensiones del concepto

Recientemente se está aplicando por extensión el


término «código abierto» o su equivalente en inglés
open source a creaciones que no son programas. En
concreto se habla popularmente de cine open source
para referirse a cine bajo distintos tipos de licencias
libres.[cita requerida] Otro ejemplo es el proyecto de
una economía de código abierto de la plataforma
Open Source Ecology, comenzado con el desarrollo
de máquinas industriales de código abierto.19

En informática un programa es de código cerrado


cuando el código fuente no se encuentra disponible
para cualquier usuario, es decir no se hace público.
Se le llama así en contraposición al código abierto.
Programas como Skype de Microsoft, Reader de
Adobe y el sistema operativo Windows de Microsoft
constituyen ejemplos de software de código cerrado.
Al no estar disponible el código fuente no hay forma
de analizar qué hace o deja de hacer el programa,
por lo cual a menudo surgen problemas relacionadas
con la privacidad y seguridad para los sistemas en los
que se utilizan.

El software propietario generalmente utiliza código


cerrado. Por su calidad de secreto industrial, su
divulgación podría ser constituyente de delito en
algunos países como Estados Unidos, Europa, y se
persigue judicialmente a los que incurren en esta
práctica.

Los sistemas operativos


. Introducción
Sin el software, una computadora no es más que una
masa metálica sin utilidad. Con el software, una
computadora puede almacenar, procesar y
recuperar información, encontrar errores de
ortografía en manuscritos, tener aventuras e
intervenir en muchas otras valiosas actividades para
ganar el sustento. El software para computadoras
puede clasificarse en general en dos clases: los
programas de sistema, que controlan la operación de
la computadora en si y los programas de aplicación,
los cuales resuelven problemas para sus usuarios. El
programa fundamental de todos los programas de
sistema es el sistema operativo (SO), que controla
todos los recursos de la computadora y proporciona
la base sobre la cual pueden escribirse los programas
de aplicación.

2. Desarrollo

¿Qué es un Sistema Operativo?


Desde su creación, las computadoras digitales han
utilizado un sistema de codificación de instrucciones
en sistema de numeración binaria, es decir con los
0S. Esto se debe a que los circuitos integrados
funcionan con este principio, es decir, hay corriente
o no hay corriente.
En el origen de la historia de las computadoras (hace
unos cuarenta años), los sistemas operativos no
existían y la introducción de un programa para ser
ejecutado se convertía en un increíble esfuerzo que
solo podía ser llevado a cabo por muy pocos
expertos. Esto hacia que las computadoras fueran
muy complicadas de usar y que se requiriera tener
altos conocimientos técnicos para operarlas. Era tan
complejo su manejo, que en algunos casos el
resultado llegaba a ser desastroso.
Además, el tiempo requerido para introducir un
programa en aquellas grandes máquinas de lento
proceso superaba por mucho el de ejecución y
resultaba poco provechosa la utilización de
computadoras para resolución de problemas
prácticos.
Se buscaron medios más elaborados para manipular
la computadora, pero que a su vez simplificaran la
labor del operador o el usuario. Es entonces cuando
surge la idea de crear un medio para que el usuario
pueda operar la computadora con un entorno,
lenguaje y operación bien definido para hacer un
verdadero uso y explotación de esta. Surgen los
sistemas operativos.
Un sistema operativo es el encargado de brindar al
usuario una forma amigable y sencilla de operar,
interpretar, codificar y emitir las ordenes al
procesador central para que este realice las tareas
necesarias y especificas para completar una orden.
El sistema operativo, es el instrumento
indispensable para hacer de la computadora un
objeto útil. Bajo este nombre se agrupan todos
aquellos programas que permiten a los usuarios la
utilización de este enredo de cables y circuitos, que
de otra manera serian difíciles de controlar. Un
sistema operativo se define como un conjunto de
procedimientos manuales y automáticos, que
permiten a un grupo de usuarios compartir una
instalación de computadora eficazmente.

Interfaz de Línea de Comandos.


La forma de interfaz entre el sistema operativo y el
usuario en la que este escribe los comandos
utilizando un lenguaje de comandos especial. Los
sistemas con interfaces de líneas de comandos se
consideran más difíciles de aprender y utilizar que
los de las interfaces gráficas. Sin embargo, los
sistemas basados en comandos son por lo general
programables, lo que les otorga una flexibilidad que
no tienen los sistemas basados en gráficos carentes
de una interfaz de programación.

Interfaz Gráfica del Usuario.


Es el tipo de visualización que permite al usuario
elegir comandos, iniciar programas y ver listas de
archivos y otras opciones utilizando las
representaciones visuales (iconos) y las listas de
elementos del menú. Las selecciones pueden
activarse bien a través del teclado o con el Mouse.
Para los autores de aplicaciones, las interfaces
gráficas de usuario ofrecen un entorno que se
encarga de la comunicación con el ordenador o
computadora. Esto hace que el programador pueda
concentrarse en la funcionalidad, ya que no esta
sujeto a los detalles de la visualización ni a la
entrada a través del Mouse o el teclado. También
permite a los programadores crear programas que
realicen de la misma forma las tareas más
frecuentes, como guardar un archivo, porque la
interfaz proporciona mecanismos estándar de
control como ventanas y cuadros de diálogo. Otra
ventaja es que las aplicaciones escritas para una
interfaz gráfica de usuario son independientes de los
dispositivos: a medida que la interfaz cambia para
permitir el uso de nuevos dispositivos de entrada y
salida, como un monitor de pantalla grande o un
dispositivo óptico de almacenamiento, las
aplicaciones pueden utilizarlos sin necesidad de
cambios.

Funciones de los Sistemas Operativos.

Interpreta los comandos que permiten al usuario


comunicarse con el ordenador.

Coordina y manipula el hardware de la


computadora, como la memoria, las impresoras, las
unidades de disco, el teclado o el Mouse.
Organiza los archivos en diversos dispositivos de
almacenamiento, como discos flexibles, discos duros,
discos compactos o cintas magnéticas.

Gestiona los errores de hardware y la pérdida de


datos.

Servir de base para la creación del software


logrando que equipos de marcas distintas funcionen
de manera análoga, salvando las diferencias
existentes entre ambos.

Configura el entorno para el uso del software y los


periféricos; dependiendo del tipo de máquina que se
emplea, debe establecerse en forma lógica la
disposición y características del equipo. Como por
ejemplo, una microcomputadora tiene físicamente
dos unidades de disco, puede simular el uso de otras
unidades de disco, que pueden ser virtuales
utilizando parte de la memoria principal para tal fin.
En caso de estar conectado a una red, el sistema
operativo se convierte en la plataforma de trabajo
de los usuarios y es este quien controla los
elementos o recursos que comparten. De igual
forma, provee de protección a la información que
almacena.

3. Categoría de los Sistemas Operativos.

Sistema Operativo Multitareas.


Es el modo de funcionamiento disponible en algunos
sistemas operativos, mediante el cual una
computadora procesa varias tareas al mismo tiempo.
Existen varios tipos de multitareas. La conmutación
de contextos (context Switching) es un tipo muy
simple de multitarea en el que dos o más
aplicaciones se cargan al mismo tiempo, pero en el
que solo se esta procesando la aplicación que se
encuentra en primer plano (la que ve el usuario).
Para activar otra tarea que se encuentre en segundo
plano, el usuario debe traer al primer plano la
ventana o pantalla que contenga esa aplicación. En
la multitarea cooperativa, la que se utiliza en el
sistema operativo Macintosh, las tareas en segundo
plano reciben tiempo de procesado durante los
tiempos muertos de la tarea que se encuentra en
primer plano (por ejemplo, cuando esta aplicación
esta esperando información del usuario), y siempre
que esta aplicación lo permita. En los sistemas
multitarea de tiempo compartido, como OS/2, cada
tarea recibe la atención del microprocesador
durante una fracción de segundo. Para mantener el
sistema en orden, cada tarea recibe un nivel de
prioridad o se procesa en orden secuencial. Dado
que el sentido temporal del usuario es mucho más
lento que la velocidad de procesamiento del
ordenador, las operaciones de multitarea en tiempo
compartido parecen ser simultáneas.

Sistema Operativo Monotareas.


Los sistemas operativos monotareas son más
primitivos y es todo lo contrario al visto
anteriormente, es decir, solo pueden manejar un
proceso en cada momento o que solo puede ejecutar
las tareas de una en una. Por ejemplo cuando la
computadora esta imprimiendo un documento, no
puede iniciar otro proceso ni responder a nuevas
instrucciones hasta que se termine la impresión.

Sistema Operativo Monousuario.


Los sistemas monousuarios son aquellos que nada
más puede atender a un solo usuario, gracias a las
limitaciones creadas por el hardware, los programas
o el tipo de aplicación que se este ejecutando.
Estos tipos de sistemas son muy simples, porque
todos los dispositivos de entrada, salida y control
dependen de la tarea que se esta utilizando, esto
quiere decir, que las instrucciones que se dan, son
procesadas de inmediato; ya que existe un solo
usuario. Y están orientados principalmente por los
microcomputadores.

Sistema Operativo Multiusuario.


Es todo lo contrario a monousuario; y en esta
categoría se encuentran todos los sistemas que
cumplen simultáneamente las necesidades de dos o
más usuarios, que comparten mismos recursos. Este
tipo de sistemas se emplean especialmente en redes.
En otras palabras consiste en el fraccionamiento del
tiempo (timesharing).
Secuencia por Lotes.
La secuencia por lotes o procesamiento por lotes en
microcomputadoras, es la ejecución de una lista de
comandos del sistema operativo uno tras otro sin
intervención del usuario. En los ordenadores más
grandes el proceso de recogida de programas y de
conjuntos de datos de los usuarios, la ejecución de
uno o unos pocos cada vez y la entrega de los
recursos a los usuarios. Procesamiento por lotes
también puede referirse al proceso de almacenar
transacciones durante un cierto lapso antes de su
envío a un archivo maestro, por lo general una
operación separada que se efectúa durante la noche.
Los sistemas operativos por lotes (batch), en los que
los programas eran tratados por grupos (lote) en ves
de individualmente. La función de estos sistemas
operativos consistía en cargar en memoria un
programa de la cinta y ejecutarlo. Al final este, se
realizaba el salto a una dirección de memoria desde
donde reasumía el control del sistema operativo que
cargaba el siguiente programa y lo ejecutaba. De
esta manera el tiempo entre un trabajo y el otro
disminuía considerablemente.

Tiempo Real.
Un sistema operativo en tiempo real procesa las
instrucciones recibidas al instante, y una vez que han
sido procesadas muestra el resultado. Este tipo tiene
relación con los sistemas operativos monousuarios,
ya que existe un solo operador y no necesita
compartir el procesador entre varias solicitudes.
Su característica principal es dar respuestas rápidas;
por ejemplo en un caso de peligro se necesitarían
respuestas inmediatas para evitar una catástrofe.

Tiempo Compartido.
El tiempo compartido en ordenadores o
computadoras consiste en el uso de un sistema por
más de una persona al mismo tiempo. El tiempo
compartido ejecuta programas separados de forma
concurrente, intercambiando porciones de tiempo
asignadas a cada programa (usuario). En este
aspecto, es similar a la capacidad de multitareas que
es común en la mayoría de los microordenadores o
las microcomputadoras. Sin embargo el tiempo
compartido se asocia generalmente con el acceso de
varios usuarios a computadoras más grandes y a
organizaciones de servicios, mientras que la
multitarea relacionada con las microcomputadoras
implica la realización de múltiples tareas por un solo
usuario.

4. Los Sistemas Operativos más Populares de las PC.

Los sistemas operativos empleados normalmente


son UNIX, Macintosh OS, MS-DOS, OS/2, Windows
95 y Windows NT.

MS-DOS.
El significado de estas letras es el de Microsoft Disk
Operating System. Microsoft es el nombre de la
compañía que diseño este sistema operativo, e IBM
la compañía que lo hizo estándar al adoptarlo en sus
microordenadores.
Este sistema operativo emplea discos flexibles con
una organización determinada. Los discos se pueden
grabar por una o por dos caras y la información se
organiza en 40 pistas de 8 ó 9 sectores de un tamaño
de 512 caracteres, reservándose el sistema para la
propia información del disco, que puede ser disco
removible o disco duro, teniendo en el segundo más
capacidad pero similar estructura.
Los nombres de los ficheros en MS-DOS, para los que
se emplean tanto letras como números, se
componen de dos partes: el nombre del fichero y la
extensión, estando ambos datos separados por un
punto. Las diferentes unidades de disco son
identificadas por el MS-DOS a través de una letra
seguida de dos puntos. Los tipos de extensión más
habituales son como aparecería la memoria cargada
con ellos; es decir, que pueden cargar directamente
a memoria sin el auxilio del sistema operativo.
Los de extensión .EXE precisan que el cargador del
DOS los coloque en memoria, lo que significa que el
sistema operativo debe estar en memoria. Los del
tipo .BAT son los compuestos de comandos que se
ejecutan secuencial mente.
El sistema operativo tiene varios componentes que
son:

Rutinas de control, que funcionan con el programa


IBM.DOS, y se encargan de las operaciones de
entrada / salida.

Procesador de comandos, también llamado


COMMAND.COM, que procesa los dos tipos de
comandos de que dispone el DOS; es decir, los
residentes en memoria o internos, y los no
residentes o externos, que residen en el disco del
sistema operativo.

Rutinas de servicios accesibles desde el programa


control.

También existe la posibilidad de subdividir el disco


en subdirectorios que permiten un empleo más ágil
de toda la información.
MS-DOS esta lejos de ser el sistema operativo ideal,
ya que, de momento, se trata de un sistema
monotarea, pero aunque esto se resolviera, seguiría
presentando problemas de diseño que provocan que
el comportamiento de la máquina sea poco fiable. A
pesar de estas desventajas y de que existen otros
sistemas operativos en el mundo de la
microinformática, hay que tener siempre presente la
enorme cantidad de software que se ha desarrollado
para DOS y que conviene aprovechar en lo posible.

OS/2.
Desarrollado inicialmente por Microsoft Corporation
e International Business Machines (IBM), después de
que Intel introdujera
al mercado su procesador 80286. Pero la sociedad no
duro mucho ya que IBM veía a Windows como una
amenaza para el SO/2.
Pero IBM continúo desarrollando este sistema
operativo. El OS/2 al principio fue muy parecido al
MS-DOS, tiene una línea de comando, pero la
diferencia que existe con el DOS es el intérprete de
comandos, el cual es un programa separado del
kernel del sistema operativo y aparece únicamente
cuando se hace clic en uno de los iconos "OS/2
prompt" dentro del Workplace Shell. Otra diferencia
es que este sí en un sistema operativo multitarea.
En el OS/2 muchos de los comandos son idénticos a
los de su contra parte pero tiene más comandos
debido a que es más grande, completo y moderno.
El ambiente gráfico es el Workplace Shell (WS), es el
equivalente a un administrador del área de trabajo
para el WS.

Macintosh OS.
El sistema operativo constituye la interfaz entre las
aplicaciones y el hardware del Macintosh. El
administrador de memoria obtiene y libera memoria
en forma automática para las aplicaciones y el
sistema operativo. Esta memoria se encuentra
normalmente en un área llamada cúmulo. El código
de procedimientos de una aplicación también ocupa
espacio en el cúmulo. Ahora se presenta una lista de
los principales componentes del sistema operativo.
El cargador de segmentos carga los programas por
ejecutar. Una aplicación se puede cargar completa o
bien puede dividirse en segundos individuales que se
pueden cargar de manera dinámica conforme se
necesiten.

El administrador de eventos del sistema operativo


informa de la ocurrencia de diversos eventos de bajo
nivel, como la presión de un botón del Mouse o el
tecleo. En condiciones normales, el administrador de
eventos de la caja de herramientas transfiere estos
eventos a las aplicaciones.

El administrador de archivos se encarga de la


entrada / salida de archivos; el administrador de
dispositivos se encarga de la entrada / salida de
dispositivos.

Los manejadores de dispositivos son programas


con los cuales los diversos tipos de dispositivos
pueden presentar interfaces uniformes de entrada /
salida a las aplicaciones. Tres manejadores de
dispositivo están integrados al sistema operativo en
ROM: el manejador de disco se encarga del acceso a
la información en discos, el manejador de sonido
controla los generadores de sonido, y el manejador
en serie envía y recibe datos a través de los puertos
seriales (estableciendo así la comunicación con
dispositivos periféricos en serie como impresoras y
módems).

Con el manejador de impresoras las aplicaciones


pueden imprimir datos en diversas impresoras.

Con el administrador de AppleTalk las aplicaciones


pueden transmitir y recibir información en una red
de comunicaciones AppleTalk.

El Administrador de retrazado vertical programa


las actividades por realizar durante las
interrupciones de retrazado vertical que ocurren 60
veces cada segundo cuando se refresca la pantalla de
vídeo.
El manejador de errores del sistema toma el
control cuando ocurre un error fatal del sistema y
exhibe un cuadro de error apropiado.

Los programas de utilidad general del sistema


operativo ofrecen diversas funciones útiles como la
obtención de la fecha y la hora, la comparación de
cadenas de caracteres y muchas más.

El paquete de iniciación es llamado por el paquete


de archivos estándar para iniciar y nombrar discos;
se aplica con más frecuencia cuando el usuario
inserta un disco al que no se le han asignado valores
iniciales.

El paquete de aritmética de punto flotante ofrece


aritmética de doble precisión. El paquete de
funciones trascendentales ofrece un generador de
números aleatorios, así como funciones
trigonométricas, logarítmicas, exponenciales y
financieras. Los compiladores de Macintosh generan
en forma automática llamadas a estos paquetes para
realizar manipulaciones numéricas.

UNIX.
Es un sistema operativo multiusuario que incorpora
multitarea. Fue desarrollado originalmente por Ken
Thompson y Dennis Ritchie en los laboratorios de
AT&T Bell en 1969 para su uso en mini
computadoras. El sistema operativo UNIX tiene
diversas variantes y se considera potente, más
transportable e independiente de equipos concretos
que otros sistemas operativos porque esta escrito en
lenguaje C. El UNIX esta disponible en varias formas,
entre las que se cuenta AIX, una versión de UNIX
adaptada por IBM (para su uso en estaciones de
trabajo basadas en RISC), A/ux (versión gráfica para
equipos Apple Macintosh) y Mach (un sistema
operativo reescrito, pero esencialmente compatible
con UNIX, para las computadoras NeXT).
El UNIX y sus clones permiten múltiples tareas y
múltiples usuarios. Su sistema de archivos
proporciona un método sencillo de organizar
archivos y permite la protección de archivos. Sin
embargo, las instrucciones del UNIX no son
intuitivas.
Este sistema ofrece una serie de utilidades muy
interesantes, como las siguientes:

Inclusión de compiladores e intérpretes de


lenguaje.

Existencia de programas de interfase con el


usuario, como ventanas, menús, etc.

Muchas facilidades a la hora de organización de


ficheros.

Inclusión de lenguajes de interrogación.

Facilidades gráficas.

Programas de edición de textos.


SCO
SCO es el proveedor mundial líder en sistemas
operativos para servidores Unix, y uno de los
principales proveedores de software de integración
de clientes que integra PCs Windows y otros clientes
con servidores UNIX de los principales fabricantes.
Los servidores de aplicaciones críticas de negocios de
SCO corren las operaciones críticas diarias de una
gran gama de organizaciones comerciales,
financieras, de telecomunicaciones, y gobierno, así
como también departamentos corporativos y
pequeñas y medianas empresas de todo tipo. SCO
vende y brinda soporte de sus productos a través de
una red mundial de distribuidores, resellers,
integradores de sistemas, y OEMs.

Características

Brinda acceso a impresoras y archivos compartidos


desde PCs corriendo Windows ® 95, Windows NT ™ ,
Windows 3.1, Windows para trabajo en Grupos,
OS/2 ®, y MS-DOS ®
SCO TermLite, el emulador de terminal, incluye
soporte para SCO ANSI y VT320 sobre TCP/IP o
NetBEUI

Herramientas de administración de redes y


monitoreo poderosas y fáciles de usar junto con
otros utilitarios pueden ser accedidos en forma
remota

Incluye la capa de protocolo NetBEUI para


pequeñas redes; corre en sistemas SCO OpenServer
Host Versión 5, así como también en sistemas SCO
OpenServer Enterprise Versión 5

Las herramientas del servidor NT permiten la


administración de los recursos compartidos en un
servidor utilizando sistema UNIX desde una PC
corriendo Windows
Configuración automática de capas de
conectividad, incluyendo NetBIOS sobre TCP/IP, y
NetBEUI

Totalmente adherido al estándar emergente


denominado CIFS.

Solares
Características: Entre las características de Solaris
tenemos: PORTABILIDAD: El software conformado
por una ABI aplicación de interfaces binaria
(Application Binary Interface) ejecuta con un Shrink-
wrapped (Contracción envuelta) el software en
todos los sistemas vendidos con la misma
arquitectura del microprocesador. Esto obliga a los
desarrolladores de aplicaciones a reducir el costo del
desarrollo del software y traer productos al mercado
rápidamente, y obliga a los usuarios a actualizar el
hardware mientras retienen sus aplicaciones de
software y minimizan sus costos de
conversión.ESCALABILIDAD: Las aplicaciones se usan
con más frecuencia en el sobre tiempo, y requiere
sistemas más poderosos para soportarlos. Para
operar en un ambiente creciente, el software debe
ser capaz de ejecutar en un rango de ancho
poderosos y debe ser capaz de tomar ventajas del
poder adicional que se está
procesando.INTEROPERATIBIDAD: La computación
del ambiente heterogéneo es una realidad hoy. Los
usuarios compran de muchos vendedores para
implementar la solución que necesitan. La
estandarización y una clara interface son criterios
para un ambiente heterogéneo, permitiendo a los
usuarios desarrollar estrategias para comunicarse
por medio de su red. El sistema operativo de Solaris
puede interoperar con unos sistemas muy populares
hoy en el mercado, y aplicaciones que se ejecutan en
UNIX se pueden comunicar
fácilmente.COMPATIBILIDAD: La tecnología de la
computación continua avanzando rápidamente, pero
necesita permanecer en el ámbito competitivo para
minimizar sus costos y maximizar sus ingresos.

Microsoft Windows NT.


Microsoft no solo se ha dedicado a escribir software
para PCs de escritorio sino también para poderosas
estaciones de trabajo y servidores de red y bases de
datos.
El sistema operativo Windows NT de Microsoft,
lanzado al mercado el 24 de Mayo de 1993, es un SO
para redes que brinda poder, velocidad y nuevas
características; además de las características
tradicionales. Es un SO de 32 bits, y que puede
trabajar en procesadores 386, 486 y Pentium.
Además de ser multitarea, multilectura y
multiprocesador ofrece una interfaz gráfica. Y trae
todo el software necesario para trabajar en redes,
permitiendo ser un cliente de la red o un servidor.

Microsoft Windows 95.


Es un entorno multitarea dotado de una interfaz
gráfica de usuario, que a diferencia de las versiones
anteriores, Windows 95 no necesita del MS-DOS
para ser ejecutado, ya que es un sistema operativo.
Este SO esta basado en menús desplegables,
ventanas en pantalla y un dispositivo señalador
llamado Mouse. Una de las características
principales de Windows 95 es que los nombres de los
archivos no están restringidos a ocho caracteres y
tres de la extensión, pueden tener hasta 256
caracteres para tener una descripción completa del
contenido del archivo. Además posee Plug and Play,
una tecnología conjuntamente desarrollada por los
fabricantes de PCs, con la cual un usuario puede
fácilmente instalar o conectar dispositivos
permitiendo al sistema automáticamente alojar los
recursos del hardware sin la intervención de usuario.

Microsoft Windows 98
Este Windows soporta todos los tipos de Hardware,
incluyendo a los estándares más recientes como el
DVD-ROM y la capacidad para ver televisión en la PC.
También ofrece características plug and play, lo cual
significa que si usted instala un dispositivo de
HARWARE plug and play, como módem interno,
operativo si computadora carece de la potencia, la
velocidad y memoria necesarias para beneficiarse de
sus características.
Windows 98, el siguiente escalón en la familia de
sistemas operativos Windows de escritorio. De cierta
forma es la continuación que podía esperar de
Windows 95.
Como era obvio predecir, esta nueva versión
continúa soportando 32 bits en su total dimensión
aunque todavía se debe esperar para que se
incorpore toda la funcionalidad de seguridad
presente en los 32 bits y que hoy es una
característica de la familia NT.
Desde el punto de vista usuario común, Windows 98
no trae nada nuevo.
Microsoft no ha hecho cambios relativamente
importantes en la interfaz, por lo que, si un usuario
sabe usar Windows 95, también sabe usar Windows
98.
Windows 98: Nueva versión del sistema operativo
Windows. Podría decirse que es una compilación de
características. Muchas de ellas ya se encontraban
en Internet Explorer 4.0 (al ser instalado con la
actualización d escritorio) en Windows 95 OSR-2.
Permite soporte técnico para el FAST32 (al igual que
Windows 95 ORS-2) y el Active Desktop (de IE 4).
Windows 2000
Windows 2000 Professional es rápido. Más rápido
que Windows 98.
Con 64 MB de memoria, Windows 2000 se ejecuta
un promedio de un 25% más rápido que Windows
98. Y no se relentiza con cargas pesadas.
Los usuarios pueden ejecutar más programas y hacer
más tareas al mismo tiempo porque Windows 2000
está basado totalmente en una arquitectura de 32
bits. Agregándole más memoria, Windows 2000 se
hace más rápido aún.
Soporta hasta 4 GB de RAM y hasta dos
procesadores simétricos. Por desgracia, alcanzar ese
nivel de rendimiento con Windows 98, incluso con
más memoria, en imposible.

Interfaz mejorado
Windows 2000 Professional mejora el familiar
interfaz de Windows al reducir los amontonamientos
en el escritorio (elimina los elementos innecesarios),
simplificar el menú de inicio (introduce una nueva
funcionalidad inteligente que adapta el menú de
inicio a su manera de trabajo, mostrando sólo las
aplicaciones que utiliza más frecuentemente).

Mantenga su red y PC’s actuales


Windows 2000 Professional funciona perfectamente
con sus equipos actuales. La infraestructura de
sistemas operativos de su compañía es muy buena, y
funciona con Windows 2000 Server, Windows NT
Server, Novell NetWare o UNIX.
Además, el soporte construido para compartir
recursos de ordenador a ordenador (peer-to-peer)
con Windows 9x y Windows NT Workstation permite
a Windows 2000 Professional interoperar con las
versiones anteriores de Windows.

Un sistema Windows más seguro.


Windows 2000 Professional es muy seguro en todos
los niveles. Basado en el sistema de seguridad
integrado en todos los sistemas operativos Windows
NT, permite a los usuarios y administradores
seleccionar el nivel apropiado de protección para su
información y aplicaciones, para intercambiar o
almacenar información en ordenadores
independientes, en la red, en una intranet o en
Internet.
Con su Sistema de Archivos Encriptados (EFS),
Windows 2000 protege perfectamente los datos de
su disco duro.
Con el soporte para Kerberos, Windows 2000
protege su red corporativa o intranet. Kerberos
protege los datos al rastrear y verificar la actividad
de cada usuario en una red.
Windows 2000 Professional protege incluso las
comunicaciones más secretas a través de una red
pública con su soporte para Claves Públicas, el L2TP
(Layer 2 Tunneling Protocol) y las Tarjetas
Inteligentes.
Las tarjetas inteligentes son nuevos dispositivos que
proporcionan más seguridad, pues en lugar de
confiar solamente en un factor para autentificar a un
usuario, piden una combinación de credenciales
(tales como un nombre de usuario y una
contraseña).
Administración de escritorio simplificada
Windows 2000 Professional facilita la vida de los
administradores. Varios asistentes y detectores de
problema ayudan a los usuarios finales a ejecutar
tareas rutinarias o difíciles, reduciendo el tiempo
que los administradores deben pasar ayudándoles y
reduciendo el número de llamadas a soporte técnico.
Windows 2000 Professional otorga a los
administradores más control sobre los desktops
individuales.
Windows 2000 ofrece un soporte multilingüe sin
precedentes, permitiendo a los usuarios crear y
visualizar documentos en el idioma utilizado en
cerca de 120 áreas internacionales.

Windows Millenium
Windows Me soporta y comparte el mismo código
que Win98, el cual fue una mejora del sistema
operativo Win95.
Este se venderá como una opción OEM (Original
equipament manufacturer), es decir, presentados en
PC’s.
Iconos
MI PC: El icono a cambiado y también la forma de
ver los discos duros, ya que ahora están "debajo de
MI PC" en el árbol que muestra el explorador de
Windows.
Entorno de RED es ahora > mis sitios de RED.
MENU BUSCAR: Se le ha modificado la interfaz, para
seguir haciendo el mismo trabajo, aunque de forma
más amigable que antes.
LA BARRA DE TAREAS: aparte de encontrarla en el
menú de inicio también la encontramos en dentro
del panel de control.
Ahora nos permite configurar todos aquellos viejos
trucos con un solo clic de ratón para, por ejemplo:

Mostrar menú contextual.

Mover y cambiar tamaño de la barra.

Desplazar programas.
Con el WINDOWS MILLENIUN podemos decir a dios
al (MS-DOS), ya que no estarán disponibles las
opciones de arranque "Solo Símbolo del Sistema" y
"Reiniciar en modo MS-DOS".
Los archivos de configuración "config.sys" y
"autoexe.bat" no se ejecutan, existan o no; solo
tienen sentido durante la instalación de Windows;
después dará igual su contenido.
(NOTA: No funcionará ningún programa MS-DOS,
que necesite insertar parámetros en el archivo
config.sys. debe tener muy en cuenta que Windows
Me Millenium Edition ya no es compatible 100% con
aplicaciones diseñadas para el MS-DOS.)

System Restore
El sistema a petición nuestra crea "Checkpoints",
según actuemos:

En el inicio de cada día o de vez en cuando


Cada vez que instalemos aplicaciones usando
setup, install e instalar (si tiene otro nombre no
funciona el System Restore, por lo que podríamos
probar renombrar el archivo de instalación). El
sistema creará un checkpoint antes de instalar
cualquier dispositivo nuevo que ofrece a:

Instalar nuevos driver.

Tocar la configuración de Windows.

Y mediante un solo clic en "PC Restore",


recuperamos el estado de nuestra PC a un día y hora
concretos, evitando de esta manera reinstalaciones y
pérdidas de tiempo, volviendo al día en que la PC
funcionaba al 100%, con solo pulsar un botón.
Nos mostrará un calendario y dentro de él, en cada
día, los puntos en que podemos recuperar la
situación.
Hay que resaltar que al restaurar el sistema de una
fecha anterior a la actual, se restaura todo tal y
como estaba ese día excepto los archivos .doc, .bmp,
.pdf, email, historial del navegador, Favoritos y todo
el contenido de la Carpeta Mis Documentos, por los
que usar esta opción nos obligará a estar atentos a
otros contenidos que actualmente no guardes en
Mis Documentos, para que los traslades ahí.
Esta opción consume mucho espacio de disco
(aunque podemos configurar todas sus opciones)
pero nos dará mucha más estabilidad.

Windows XP
Este ofrece un reforzó Menú de salida. El menú de
salida ahora puede agrupar sus más frecuentes
arribos y aplicaciones
Enfoco de tarea este plan permite que vea sus
opciones del Windows como asociado con su tarea
presente.
Compañero de búsqueda científica: recupera la
información de la búsqueda de la tarea que estemos
usando en ese momento.
Esto es nuevo
Ahora se puede:
Impresiones del orden directamente del Internet.

Eslabón directamente a cámaras mago del


explorador.

Imágenes de la vista en Slideshow.

Publique cuadros al Internet.

Cuadros de empresas por distribución del e-mail


más fácil.

Perfecciona la impresión, pinta y hacer el mejor


trabajo de fotografías.

También se puede examinar una sola imagen del


explorador del Flastbed.
Pone al día Downloaded de Windows, también se
puede aplicar a todo usuario en una computadora.
Windows se pone al día se integra ahora con la
ayuda de y el centro de apoyo en Windows XP
Edición del Hogar. El gerente del aparato también
investigará Windows.
Internet Conexión: protege su computadora de
instrucción, cuando se conecta al Internet. Ahora
puede descansar seguro ya que el Windows XP no
permite ataques no deseados en Internet.
Gracias al motor reforzado de Windows 2000,
Windows XP adquiere un nuevo y mejorado aspecto
y amplía la experiencia de la informática general.
Windows XP presenta una nueva imagen que
falicitará en gran medida su utilización por parte de
cualquier tipo de usuario de PC mejorando sus
capacidades.
El nuevo diseño gráfico hará más sencillas las tareas
informáticas, y aportará una nueva visión del ya
conocido deskop, porque consiste en la actualización
más significativa de la interfaz de Windows desde
Windows 95.

¿Qué es un Windows XP PC Listo?


Un Windows XP PC Listo, debe encontrar los
requisitos del hardware siguientes:
1.- Preinstaló con Microsoft Windows 2000
Profesional o Microsoft sistema operativo de la
Edición del Milenio de Windows.
2.- Despliegues de "el Diseñó 2000 por Windows" o
el logotipo en la PC o cuaderno.
3.- Tener un mínimo de 128 MB de RAM
Windows XP, computadoras listas encuentran los
requisitos del hardware mínimos para correr el
Windows XP Profesional y Windows XP, sistemas
operativos de la Edición del Hogar.
Chóferes del hardware, si necesario, está disponible
del fabricante del equipo original (OEM) en el
descargo de Windows XP.
Pantalla de bienvenida / acceso: Windows facilita la
creación de cuentas individuales para los usuarios de
su ordenador, lo que significa que cada vez que
acceda al sistema tendrá su propio entorno
personalizado.
Y si su familia comparte un ordenador, Windows XP
le permite ir de un usuario a otro de forma rápida sin
necesidad de apagar o reiniciar ningún programa.
Menú de inicio: La ya conocida interfaz de Windows
ha sido mejorada para facilitar aun más su
utilización.

5. Conclusión

Luego de haber investigado y analizado se puede ver


que se han desarrollado varios tipos de sistemas
operativos con diferentes interfaces y categorías.
Pero hemos podido observar que todos los sistemas
operativos han sufrido cambios por parte de los
programadores, y siguen evolucionando.
El diálogo entre el usuario y la máquina suele
realizarse a través de una interfaz de línea de
comandos o de una interfaz gráfica de usuario (GUI,
siglas en inglés). Las interfaces de línea de comandos
exigen que se introduzcan instrucciones breves
mediante un teclado. Las GUI emplean ventanas
para organizar archivos y aplicaciones con iconos y
menús que presentan listas de instrucciones. El
usuario manipula directamente estos objetos
visuales en el monitor señalándolos,
seleccionándolos y arrastrándolos o moviéndolos
con un Mouse.
El uso de las GUI es más sencillo que el de las
interfaces de línea de comandos. Sin embargo, la
introducción de instrucciones con una GUI es más
lenta, por lo que las GUI suelen tener la opción de
emplear un sistema equivalente al de línea de
instrucciones como alternativa rápida para los
usuarios más expertos.
Los sistemas operativos empleados normalmente
son UNIX, Macintosh OS, MS-DOS, OS/2, Windows
95 y Windows NT. El UNIX y sus clones permiten
múltiples tareas y múltiples usuarios. Otros SO
multiusuario y multitarea son OS/2, desarrollado
inicialmente por Microsoft e IBM, Windows NT y
Win95 desarrollados por Microsoft. El SO multitarea
de Apple se denomina Macintosh OS. El MS-DOS es
un SO popular entre los usuarios de PCs pero solo
permite un usuario y una tarea.
Sistema operativo 2parte
Para tratar de comprender los requisitos de un
Sistema Operativo y el significado de las principales
características de un Sistema Operativo
contemporáneo, es útil considerar cómo han ido
evolucionando estos con el tiempo.

A finales de los años 40 el uso de ordenadores


estaba restringido a aquellas empresas o
instituciones que podían pagar su alto precio, y no
existían los sistemas operativos. En su lugar, el
programador debía tener un conocimiento y
contacto profundo con el hardware, y en el
infortunado caso de que su programa fallara, debía
examinar los valores de los registros y paneles de
luces indicadoras del estado del ordenador para
determinar la causa del fallo y poder corregir su
programa, además de enfrentarse nuevamente a los
procedimientos del sistema y poner a punto los
compiladores, ligadores, etc, para volver a correr su
programa.
La importancia de los sistemas operativos nace
históricamente desde los años 50, cuando se hizo
evidente que el operar un ordenador por medio de
tableros enchufables en la primera generación y
luego por medio del trabajo en lote en la segunda
generación se podía mejorar notoriamente, pues el
operador realizaba siempre una secuencia de pasos
repetitivos, lo cual es una de las características
contempladas en la definición de lo que es un
programa. Es decir, se comenzó a ver que las tareas
mismas del operador podían plasmarse en un
programa, el cual a través del tiempo y por su
enorme complejidad se le llamó "Sistema
Operativo". Así, tenemos entre los primeros
sistemas operativos al Fortran Monitor System (FMS)
y el IBSYS.

Posteriormente, en la tercera generación de


ordenadores nace uno de los primeros sistemas
operativos con la filosofía de administrar una familia
de ordenadores: el OS/360 de IBM. Fue este un
proyecto tan novedoso y ambicioso que enfrentó por
primera vez una serie de problemas conflictivos
debido a que anteriormente los ordenadores eran
creados para dos propósitos en general: el comercial
y el científico. Así, al tratar de crear un solo sistema
operativo para ordenadores que podían dedicarse a
un propósito, al otro, o a ambos, puso en evidencia
la problemática del trabajo en equipos de análisis,
diseño e implantación de sistemas grandes. El
resultado fue un sistema del cual uno de sus mismos
diseñadores patentizó su opinión en la portada de
un libro: una horda de bestias prehistóricas
atascadas en un foso de brea.

Surge también en la tercera generación de


ordenadores el concepto de la multiprogramación,
porque debido al alto costo de los ordenadores era
necesario idear un esquema de trabajo que
mantuviese a la unidad central de proceso más
tiempo ocupada, así como el encolado (spooling ) de
trabajos para su lectura hacia los lugares libres de
memoria o la escritura de resultados. Sin embargo,
se puede afirmar que los sistemas durante la tercera
generación siguieron siendo básicamente sistemas
de lote.
En la cuarta generación, la electrónica avanza hacia
la integración a gran escala, pudiendo crear circuitos
con miles de transistores en un centímetro cuadrado
de silicio y ya es posible hablar de los ordenadores
personales y las estaciones de trabajo. Surgen los
conceptos de interfaces amigables intentando así
atraer al público en general al uso de los
ordenadores como herramientas cotidianas. Se
hacen populares el MS-DOS y el UNIX en estas
máquinas. También es común encontrar clones de
ordenadores personales y una multitud de empresas
pequeñas ensamblándolas por todo el mundo.

A mediados de los años 80, comienza el auge de las


redes de ordenadores y la necesidad de sistemas
operativos en red y sistemas operativos distribuidos.

La red mundial Internet se va haciendo accesible a


toda clase de instituciones y se comienzan a dar
muchas soluciones (y problemas) al querer hacer
convivir recursos residentes en ordenadores con
sistemas operativos diferentes. En los años 90 el
paradigma de la programación orientada a objetos
cobra auge, así como el manejo de objetos desde los
sistemas operativos. Las aplicaciones intentan
crearse para ser ejecutadas en una plataforma
específica y poder ver sus resultados en la pantalla o
monitor de otra diferente (por ejemplo, ejecutar una
simulación en una máquina con UNIX y ver los
resultados en otra con DOS ). Los niveles de
interacción se van haciendo cada vez más profundos.

¿Qué es un Sistema Operativo?

Un Sistema Operativo es un programa que actúa


como intermediario entre el usuario y el hardware
de un ordenador, y su propósito es proporcionar un
entorno en el cual el usuario pueda ejecutar
programas. El objetivo principal de un Sistema
Operativo es lograr que el Sistema de computación
se use de manera cómoda, y el objetivo secundario
es que el hardware del ordenador se emplee de
manera eficiente.
Un Sistema Operativo es una parte importante de
cualquier sistema de computación. Un sistema de
computación puede dividirse en cuatro
componentes: el hardware, el Sistema Operativo, los
programas de aplicación y los usuarios. El hardware
(Unidad Central de Proceso(UCP), memoria y
dispositivos de entrada/salida (E/S)) proporciona los
recursos de computación básicos. Los programas de
aplicación (compiladores, sistemas de bases de
datos, vídeo y programas para negocios) definen la
forma en que estos recursos se emplean para
resolver los problemas de computación de los
usuarios.

Característica de un Sistema Operativo

En general, se puede decir que un Sistema Operativo


tiene las siguientes características:

Conveniencia. Un Sistema Operativo hace más


conveniente el uso de un ordenador.
Eficiencia. Un Sistema Operativo permite que los
recursos del ordenador se usen de la manera más
eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo
deberá construirse de manera que permita el
desarrollo, prueba o introducción efectiva de nuevas
funciones del sistema sin interferir con el servicio.
Encargado de administrar el hardware. El Sistema
Operativo se encarga de manejar de una mejor
manera los recursos del ordenador en cuanto a
hardware se refiere, esto es, asignar a cada proceso
una parte del procesador para poder compartir los
recursos.
Relacionar dispositivos (gestionar a través del
kernel). El Sistema Operativo se debe encargar de
comunicar a los dispositivos periféricos, cuando el
usuario así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema
Operativo permite al usuario manejar con alta
facilidad todo lo referente a la instalación y uso de
las redes de ordenadores.
Procesamiento por bytes de flujo a través del bus de
datos.
Facilitar las entradas y salidas. Un Sistema Operativo
debe hacerle fácil al usuario el acceso y manejo de
los dispositivos de Entrada/Salida del ordenador.
Técnicas de recuperación de errores.
Evita que otros usuarios interfieran. El Sistema
Operativo evita que los usuarios se bloqueen entre
ellos, informándoles si esa aplicación esta siendo
ocupada por otro usuario.
Generación de estadísticas.
Permite que se puedan compartir el hardware y los
datos entre los usuarios.
El software de aplicación son programas que se
utilizan para diseñar, tal como el procesador de
textos, lenguajes de programación, hojas de cálculo,
etc.
El software de base sirve para interactuar el usuario
con la máquina. Está compuesto por : cargadores,
compiladores, ensambladores y macros.

Tipos de Sistemas Operativos


Actualmente los sistemas operativos se clasifican en
tres tipos: sistemas operativos por su estructura
(visión interna), sistemas operativos por los servicios
que ofrecen y sistemas operativos por la forma en
que ofrecen sus servicios (visión externa).

Sistemas Operativos por Servicios(Visión Externa)

Por Número de Usuarios:


Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos
que soportan a un usuario a la vez, sin importar el
número de procesadores que tenga el ordenador o el
número de procesos o tareas que el usuario pueda
ejecutar en un mismo instante de tiempo. Los
ordenadores personales típicamente se han
clasificado en este renglón. En otras palabras, los
sistemas monousuarios son aquellos que nada más
pueden atender a un solo usuario, gracias a las
limitaciones creadas por el hardware, los programas
o el tipo de aplicación que se este ejecutando.
Sistema Operativo Multiusuario.
Los sistemas operativos multiusuarios son capaces
de dar servicio a más de un usuario a la vez, ya sea
por medio de varias terminales conectadas al
ordenador o por medio de sesiones remotas en una
red de comunicaciones. No importa el número de
procesadores en la máquina ni el número de
procesos que cada usuario puede ejecutar
simultáneamente.
En esta categoría se encuentran todos los sistemas
que cumplen simultáneamente las necesidades de
dos o más usuarios, que comparten los mismos
recursos. Este tipo de sistemas se emplean
especialmente en redes. En otras palabras consiste
en el fraccionamiento del tiempo (timesharing).

Por el Número de Tareas:


Sistema Operativo Monotarea.
Los sistemas monotarea son aquellos que sólo
permiten una tarea a la vez por usuario. Puede darse
el caso de un sistema multiusuario y monotarea, en
el cual se admiten varios usuarios al mismo tiempo
pero cada uno de ellos puede estar haciendo solo
una tarea a la vez.
Los sistemas operativos monotareas son más
primitivos y, solo pueden manejar un proceso en
cada momento o que solo puede ejecutar las tareas
de una en una.

Sistema Operativo Multitarea.


Un sistema operativo multitarea es aquél que le
permite al usuario estar realizando varias labores al
mismo tiempo.

Es el modo de funcionamiento disponible en algunos


sistemas operativos, mediante el cual un ordenador
procesa varias tareas al mismo tiempo. Existen
varios tipos de multitareas. La conmutación de
contextos (context Switching) es un tipo muy simple
de multitarea en el que dos o más aplicaciones se
cargan al mismo tiempo, pero en el que solo se esta
procesando la aplicación que se encuentra en primer
plano (la que ve el usuario). En la multitarea
cooperativa, la que se utiliza en el sistema operativo
Macintosh, las tareas en segundo plano reciben
tiempo de procesado durante los tiempos muertos
de la tarea que se encuentra en primer plano (por
ejemplo, cuando esta aplicación esta esperando
información del usuario), y siempre que esta
aplicación lo permita. En los sistemas multitarea de
tiempo compartido, como OS/2, cada tarea recibe la
atención del microprocesador durante una fracción
de segundo.

Un sistema operativo multitarea puede estar


editando el código fuente de un programa durante
su depuración mientras compila otro programa, a la
vez que está recibiendo correo electrónico en un
proceso en background. Es común encontrar en ellos
interfaces gráficas orientadas al uso de menús y el
ratón, lo cual permite un rápido intercambio entre
las tareas para el usuario, mejorando su
productividad.
Un sistema operativo multitarea se distingue por su
capacidad para soportar la ejecución concurrente de
dos o más procesos activos. La multitarea se
implementa generalmente manteniendo el código y
los datos de varios procesos simultáneamente en
memoria y multiplexando el procesador y los
dispositivos de E/S entre ellos.

La multitarea suele asociarse con soporte hardware


y software para protección de memoria con el fin de
evitar que procesos corrompan el espacio de
direcciones y el comportamiento de otros procesos
residentes.

Por el Número de Procesadores:


Sistema Operativo de Uniproceso.
Un sistema operativo uniproceso es aquél que es
capaz de manejar solamente un procesador del
ordenador, de manera que si el ordenador tuviese
más de uno le sería inútil. El ejemplo más típico de
este tipo de sistemas es el DOS y el MacOS.

Sistema Operativo de Multiproceso.


Un sistema operativo multiproceso se refiere al
número de procesadores del sistema, que es más de
uno y éste es capaz de usarlos todos para distribuir
su carga de trabajo. Generalmente estos sistemas
trabajan de dos formas: simétrica o
asimétricamente. Asimétrica: cuando se trabaja de
manera asimétrica, el sistema operativo selecciona a
uno de los procesadores el cual jugará el papel de
procesador maestro y servirá como pivote para
distribuir la carga a los demás procesadores, que
reciben el nombre de esclavos.

Simétrica: cuando se trabaja de manera simétrica,


los procesos o partes de ellos (threads) son enviados
indistintamente a cual quiera de los procesadores
disponibles, teniendo, teóricamente, una mejor
distribución y equilibrio en la carga de trabajo bajo
este esquema.

Un aspecto importante a considerar en estos


sistemas es la forma de crear aplicaciones para
aprovechar los varios procesadores. Existen
aplicaciones que fueron hechas para correr en
sistemas monoproceso que no toman ninguna
ventaja a menos que el sistema operativo o el
compilador detecte secciones de código
paralelizable, los cuales son ejecutados al mismo
tiempo en procesadores diferentes. Por otro lado, el
programador puede modificar sus algoritmos y
aprovechar por sí mismo esta facilidad, pero esta
última opción las más de las veces es costosa en
horas y muy tediosa, obligando al programador a
ocupar tanto o más tiempo a la paralelización que a
elaborar el algoritmo inicial.

Sistemas Operativos por su Estructura (Visión


Interna)

Se deben observar dos tipos de requisitos cuando se


construye un sistema operativo:
Requisitos de usuario: Sistema fácil de usar y de
aprender, seguro, rápido y adecuado al uso al que se
le quiere destinar.
Requisitos del software: Donde se engloban aspectos
como el mantenimiento, forma de operación,
restricciones de uso, eficiencia, tolerancia frente a
los errores y flexibilidad.
A continuación se describen las distintas estructuras
que presentan los actuales sistemas operativos para
satisfacer las necesidades que de ellos se quieren
obtener.

Estructura Monolítica.
Es la estructura de los primeros sistemas operativos
constituidos fundamentalmente por un solo
programa compuesto de un conjunto de rutinas
entrelazadas de tal forma que cada una puede
llamar a cualquier otra. Las características
fundamentales de este tipo de estructura son:

Construcción del programa final a base de


módulos compilados separadamente que se unen a
través del ligador.
Buena definición de parámetros de enlace entre
las distintas rutinas existentes, que puede provocar
mucho acoplamiento.
Carecen de protecciones y privilegios al entrar a
rutinas que manejan diferentes aspectos de los
recursos de la computadora, como memoria, disco,
etc.

Generalmente están hechos a medida, por lo que


son eficientes y rápidos en su ejecución y gestión,
pero por lo mismo carecen de flexibilidad para
soportar diferentes ambientes de trabajo o tipos de
aplicaciones.

Estructura Jerárquica.
A medida que fueron creciendo las necesidades de
los usuarios y se perfeccionaron los sistemas, se hizo
necesaria una mayor organización del software, del
sistema operativo, donde una parte del sistema
contenía subpartes y esto organizado en forma de
niveles.
Se dividió el sistema operativo en pequeñas partes,
de tal forma que cada una de ellas estuviera
perfectamente definida y con un claro interface con
el resto de elementos.
Se constituyó una estructura jerárquica o de niveles
en los sistemas operativos, el primero de los cuales
fue denominado THE (Technische Hogeschool,
Eindhoven), de Dijkstra, que se utilizó con fines
didácticos. Se puede pensar también en estos
sistemas como si fueran `multicapa'. Multics y Unix
están en esa categoría.

En la estructura anterior se basan prácticamente la


mayoría de los sistemas operativos actuales. Otra
forma de ver este tipo de sistema es la denominada
de anillos concéntricos o "rings". En el sistema de
anillos, cada uno tiene una apertura, conocida como
puerta o trampa (trap), por donde pueden entrar las
llamadas de las capas inferiores. De esta forma, las
zonas más internas del sistema operativo o núcleo
del sistema estarán más protegidas de accesos
indeseados desde las capas más externas. Las capas
más internas serán, por tanto, más privilegiadas que
las externas.

Máquina Virtual.
Se trata de un tipo de sistemas operativos que
presentan una interface a cada proceso, mostrando
una máquina que parece idéntica a la máquina real
subyacente. Estos sistemas operativos separan dos
conceptos que suelen estar unidos en el resto de
sistemas: la multiprogramación y la máquina
extendida. El objetivo de los sistemas operativos de
máquina virtual es el de integrar distintos sistemas
operativos dando la sensación de ser varias
máquinas diferentes.
El núcleo de estos sistemas operativos se denomina
monitor virtual y tiene como misión llevar a cabo la
multiprogramación, presentando a los niveles
superiores tantas máquinas virtuales como se
soliciten. Estas máquinas virtuales no son máquinas
extendidas, sino una réplica de la máquina real, de
manera que en cada una de ellas se pueda ejecutar
un sistema operativo diferente, que será el que
ofrezca la máquina extendida al usuario

Cliente-Servidor(Microkernel).
El tipo más reciente de sistemas operativos es el
denominado Cliente-servidor, que puede ser
ejecutado en la mayoría de las computadoras, ya
sean grandes o pequeñas. Este sistema sirve para
toda clase de aplicaciones; por tanto, es de
propósito general y cumple con las mismas
actividades que los sistemas operativos
convencionales.

El núcleo tiene como misión establecer la


comunicación entre los clientes y los servidores. Los
procesos pueden ser tanto servidores como clientes.
Por ejemplo, un programa de aplicación normal es
un cliente que llama al servidor correspondiente
para acceder a un archivo o realizar una operación
de entrada/salida sobre un dispositivo concreto. A
su vez, un proceso cliente puede actuar como
servidor para otro. Este paradigma ofrece gran
flexibilidad en cuanto a los servicios posibles en el
sistema final, ya que el núcleo provee solamente
funciones muy básicas de memoria, entrada/salida,
archivos y procesos, dejando a los servidores
proveer la mayoría que el usuario final o
programador puede usar. Estos servidores deben
tener mecanismos de seguridad y protección que, a
su vez, serán filtrados por el núcleo que controla el
hardware. Actualmente se está trabajando en una
versión de UNIX que contempla en su diseño este
paradigma.
Sistemas Operativos por la Forma de Ofrecer sus
Servicios

Esta clasificación también se refiere a una visión


externa, que en este caso se refiere a la del usuario,
el cómo accesa a los servicios. Bajo esta clasificación
se pueden detectar dos tipos principales: sistemas
operativos de red y sistemas operativos distribuidos.

Sistema Operativo de Red.


Los sistemas operativos de red se definen como
aquellos que tiene la capacidad de interactuar con
sistemas operativos en otros ordenadores a través
de un medio de transmisión con el objeto de
intercambiar información, transferir archivos,
ejecutar comandos remotos y un sin fin de otras
actividades. El punto crucial de estos sistemas es que
el usuario debe saber la sintaxis de un conjunto de
comandos o llamadas al sistema para ejecutar estas
operaciones, además de la ubicación de los recursos
que desee añadir. Por ejemplo, si un usuario en el
ordenador "hidalgo" necesita el archivo "matriz.pas"
que se localiza en el directorio /software/codigo en
el ordenador "morelos" bajo el sistema operativo
UNIX, dicho usuario podría copiarlo a través de la
red con los comandos siguientes: hidalgo% hidalgo%
rcp morelos:/software/codigo/matriz.pas . hidalgo%.
En este caso, el comando rcp que significa "remote
copy" trae el archivo indicado del ordenador
"morelos" y lo coloca en el directorio donde se
ejecutó el mencionado comando. Lo importante es
hacer ver que el usuario puede accesar y compartir
muchos recursos.

El primer Sistema Operativo de red estaba enfocado


a equipos con un procesador Motorola 68000,
pasando posteriormente a procesadores Intel como
Novell Netware. Los Sistemas Operativos de red mas
ampliamente usados son: Novell Netware, Personal
Netware, LAN Manager, Windows NT Server, UNIX,
LANtastic.

Sistemas Operativos Distribuidos.


Los sistemas operativos distribuidos abarcan los
servicios de los de red, logrando integrar recursos (
impresoras, unidades de respaldo, memoria,
procesos, unidades centrales de proceso ) en una
sola máquina virtual que el usuario accesa en forma
transparente. Es decir, ahora el usuario ya no
necesita saber la ubicación de los recursos, sino que
los conoce por nombre y simplemente los usa como
si todos ellos fuesen locales a su lugar de trabajo
habitual. Todo lo anterior es el marco teórico de lo
que se desearía tener como sistema operativo
distribuido, pero en la realidad no se ha conseguido
crear uno del todo, por la complejidad que suponen:
distribuir los procesos en las varias unidades de
procesamiento, reintegrar sub-resultados, resolver
problemas de concurrencia y paralelismo,
recuperarse de fallos de algunos recursos
distribuidos y consolidar la protección y seguridad
entre los diferentes componentes del sistema y los
usuarios.

Los avances tecnológicos en las redes de área local y


la creación de microprocesadores de 32 y 64 bits
lograron que ordenadores más o menos baratos
tuvieran el suficiente poder en forma autónoma para
desafiar en cierto grado a los mainframes, y a la vez
se dio la posibilidad de intercomunicarlos, sugiriendo
la oportunidad de partir procesos muy pesados en
cálculo en unidades más pequeñas y distribuirlas en
los varios microprocesadores para luego reunir los
sub-resultados, creando así una máquina virtual en
la red que exceda en poder a un mainframe. El
sistema integrador de los microprocesadores que
hacen ver a las varias memorias, procesadores, y
todos los demás recursos como una sola entidad en
forma transparente, se le llama sistema operativo
distribuído. Las razones para crear o adoptar
sistemas distribuidos se dan por dos razones
principales: por necesidad (debido a que los
problemas a resolver son inherentemente
distribuidos) o porque se desea tener más seguridad
y disponibilidad de recursos.

En el primer caso tenemos, por ejemplo, el control


de los cajeros automáticos. Ahí no es posible ni
eficiente mantener un control centralizado, es más,
no existe capacidad de cómputo y de entrada/salida
para dar servicio a los millones de operaciones por
minuto. En el segundo caso, supóngase que se tienen
en una gran empresa varios grupos de trabajo; cada
uno necesita almacenar grandes cantidades de
información en el disco duro con una alta seguridad
y disponibilidad. La solución puede ser que para cada
grupo de trabajo se asigne una partición del disco
duro en servidores diferentes, de manera que si uno
de los servidores falla, no se deje dar el servicio a
todos, sino sólo a unos cuantos y, más aún, se podría
tener un sistema con discos en espejo (mirror) a
través de la red, de manera que si un servidor se cae,
el servidor en espejo continúa trabajando y el
usuario no se da cuenta de estos fallos, es decir,
obtiene acceso a recursos en forma transparente.

Los sistemas distribuidos deben de ser muy seguros,


ya que si un componente del sistema falla, otro
componente debe de ser capaz de reemplazarlo.
Entre los diferentes Sistemas Operativos distribuidos
que existen tenemos los siguientes: Sprite, Solaris-
MC, Mach, Chorus, Spring, Amoeba, Taos, etc.

Proceso
Uno de los conceptos mas importantes que gira
entorno a un sistema operativo es el de proceso. Un
proceso es un programa en ejecución junto con el
entorno asociado (registros, variables ,etc.).
El corazón de un sistema operativo es el núcleo, un
programa de control que reacciona ante cualquier
interrupción de eventos externos y que da servicio a
los procesos, creándolos, terminándolos y
respondiendo a cualquier petición de servicio por
parte de los mismos.

Planificación del Procesador.


La planificación del procesador se refiere a la manera
o técnicas que se usan para decidir cuánto tiempo de
ejecución y cuándo se le asignan a cada proceso del
sistema. Obviamente, si el sistema es monousuario y
monotarea no hay mucho que decidir, pero en el
resto de los sistemas esto es crucial para el buen
funcionamiento del sistema.

Caracteristicas a considerar de los Procesos.


No todos los equipos de cómputo procesan el mismo
tipo de trabajos, y un algoritmo de planificación que
en un sistema funciona bien puede dar un
rendimiento pésimo en otro cuyos procesos tienen
características diferentes. Estas características
pueden ser:

Cantidad de Entrada/Salida: Existen procesos que


realizan una gran cantidad de operaciones de
entrada y salida (aplicaciones de bases de datos, por
ejemplo).
Cantidad de Uso de CPU: Existen procesos que no
realizan muchas operaciones de entrada y salida,
sino que usan intensivamente la unidad central de
proceso. Por ejemplo, operaciones con matrices.
Procesos de Lote o Interactivos: Un proceso de
lote es más eficiente en cuanto a la lectura de datos,
ya que generalmente lo hace de archivos, mientras
que un programa interactivo espera mucho tiempo
(no es lo mismo el tiempo de lectura de un archivo
que la velocidad en que una persona teclea datos)
por las respuestas de los usuarios.
Procesos en Tiempo Real: Si los procesos deben
dar respuesta en tiempo real se requiere que tengan
prioridad para los turnos de ejecución.
Longevidad de los Procesos: Existen procesos que
típicamente requerirán varias horas para finalizar su
labor, mientras que existen otros que solo necesitan
algunos segundos.

Un proceso es una actividad que se apoya en datos,


recursos, un estado en cada momento y un
programa.
El Bloque de Control de Procesos (PCB).
Un proceso se representa desde el punto de vista del
sistema operativo, por un conjunto de datos donde
se incluyen el estado en cada momento, recursos
utilizados, registros, etc., denominado Bloque de
Control de Procesos (PCB).
Los objetivos del bloque de control de procesos son
los siguientes:
Localización de la información sobre el proceso por
parte del sistema operativo.
Mantener registrados los datos del proceso en caso
de tener que suspender temporalmente su ejecución
o reanudarla.
La información contenida en el bloque de control es
la siguiente:
Estado del proceso. Información relativa al
contenido del controlador del programa (Program
Counter, PC), estado de procesador en cuanto a
prioridad del proceso, modo de ejecución, etc., y por
ultimo el estado de los registros internos de la
computadora.
Estadísticas de tiempo y ocupación de recursos para
la gestión de la planificación del procesador.
Ocupación de memoria interna y externa para el
intercambio (swapping).
Recursos en uso (normalmente unidades de
entrada/salida).
Archivos en uso.
Privilegios.
Estas informaciones se encuentran en memoria
principal en disco y se accede a ellas en los
momentos en que se hace necesaria su actualización
o consulta. Los datos relativos al estado del proceso
siempre se encuentran en memoria principal.
Existe un Bloque de Control de Sistema (SCB) con
objetivos similares al anterior y entre los que se
encuentra el enlazado de los bloques de control de
procesos existentes en el sistema.
El cambio de contexto se producirá en caso de
ejecución de una instrucción privilegiada, una
llamada al sistema operativo o una interrupción, es
decir, siempre que se requiera la atención de algún
servicio del sistema operativo.

Estado de los Procesos.


Los bloques de control de los procesos se almacenan
en colas, cada una de las cuales representa un
estado particular de los procesos, existiendo en cada
bloque, entre otras informaciones. Los estados de
los procesos son internos del sistema operativo y
transparentes al usuario.
Los estados de los procesos se pueden dividir en dos
tipos: activos e inactivos.
1.- Estados activos: Son aquellos que compiten con el
procesador o están en condiciones de hacerlo. Se
dividen en:
Ejecución. Estado en el que se encuentra un proceso
cuando tiene el control del procesador. En un
sistema monoprocesador este estado sólo lo puede
tener un proceso.
Preparado. Aquellos procesos que están dispuestos
para ser ejecutados, pero no están en ejecución por
alguna causa (Interrupción, haber entrado en cola
estando otro proceso en ejecución, etc.).
Bloqueado. Son los procesos que no pueden
ejecutarse de momento por necesitar algún recurso
no disponible (generalmente recursos de
entrada/salida).
2.- Estados inactivos: Son aquellos que no pueden
competir por el procesador, pero que pueden volver
a hacerlo por medio de ciertas operaciones. En estos
estados se mantiene el bloque de control de proceso
aparcado hasta que vuelva a ser activado. Se trata de
procesos que no han terminado su trabajo que lo
han impedido y que pueden volver a activarse desde
el punto en que se quedaron sin que tengan que
volver a ejecutarse desde el principio.
Son de dos tipos:

Suspendido bloqueado. Es el proceso que fue


suspendido en espera de un evento, sin que hayan
desaparecido las causas de su bloqueo.
Suspendido programado. Es el proceso que han
sido suspendido, pero no tiene causa parta estar
bloqueado.

Operaciones sobre procesos.


Los sistemas operativos actuales poseen una serie de
funciones cuyo objetivo es el de la manipulación de
los procesos. Las operaciones que se pueden hacer
sobre un proceso son las siguientes:
Crear el proceso. Se produce con la orden de
ejecución del programa y suele necesitar varios
argumentos, como el nombre y la prioridad del
proceso. Aparece en este momento el PCB, que será
insertado en la cola de procesos preparados.
La creación de un proceso puede ser de dos tipos:
Jerárquica. En ella, cada proceso que se crea es hijo
del proceso creador y hereda el entorno de ejecución
de su padre. El primer proceso que ejecuta un
usuario será hijo del intérprete de comandos con el
que interactúa.
No jerárquica. Cada proceso creado por otro proceso
se ejecuta independientemente de su creador con un
entorno diferente. Es un tipo de creación que no
suele darse en los sistemas operativos actuales.
Destruir un proceso. Se trata de la orden de
eliminación del proceso con la cual el sistema
operativo destruye su PCB.
Suspender un proceso. Es un proceso de alta
prioridad que paraliza un proceso que puede ser
reanudado posteriormente. Suele utilizarse en
ocasiones de mal funcionamiento o sobrecarga del
sistema.
Reanudar un proceso. Trata de activar un proceso
que a sido previamente suspendido.
Cambiar la prioridad de un proceso.
Temporizar la ejecución de un proceso. Hace que un
determinado proceso se ejecute cada cierto tiempo
(segundos, minutos, horas...) por etapas de una sola
vez, pero transcurrido un periodo de tiempo fijo.
Despertar un proceso. Es una forma de desbloquear
un proceso que habrá sido bloqueado previamente
por temporización o cualquier otra causa.

Prioridades
Todo proceso por sus características e importancia
lleva aparejadas unas determinadas necesidades de
ejecución en cuanto a urgencia y asignación de
recursos.
Las prioridades según los sistemas operativos se
pueden clasificar del siguiente modo:
Asignadas por el sistema operativo. Se trata de
prioridades que son asignadas a un proceso en el
momento de comenzar su ejecución y dependen
fundamentalmente de los privilegios de su
propietario y del modo de ejecución.

Asignadas por el propietario.


Estáticas.
Dinámicas.

El Núcleo del Sistema Operativo

Todas las operaciones en las que participan procesos


son controladas por la parte del sistema operativo
denominada núcleo (nucleus, core o kernel, en
inglés). El núcleo normalmente representa sólo una
pequeña parte de lo que por lo general se piensa que
es todo el sistema operativo, pero es tal vez el
código que más se utiliza. Por esta razón, el núcleo
reside por lo regular en la memoria principal,
mientras que otras partes del sistema operativo son
cargadas en la memoria principal sólo cuando se
necesitan.
Los núcleos se diseñan para realizar "el mínimo"
posible de procesamiento en cada interrupción y
dejar que el resto lo realice el proceso apropiado del
sistema, que puede operar mientras el núcleo se
habilita para atender otras interrupciones.
El núcleo de un sistema operativo normalmente
contiene el código necesario para realizar las
siguientes funciones:

Manejo de interrupciones.
Creación y destrucción de procesos.
Cambio de estado de los procesos.
Despacho.
Suspensión y reanudación de procesos.
Sincronización de procesos.
Comunicación entre procesos.
Manipulación de los bloques de control de procesos.
Apoyo para las actividades de entrada/salida.
Apoyo para asignación y liberación de memoria.
Apoyo para el sistema de archivos.
Apoyo para el mecanismo de llamada y retorno de
un procedimiento.
Apoyo para ciertas funciones de contabilidad del
sistema.
Núcleo o Kernel y niveles de un Sistema Operativo.

El Kernel consiste en la parte principal del código del


sistema operativo, el cual se encargan de controlar y
administrar los servicios y peticiones de recursos y
de hardware con respecto a uno o varios procesos.
Se divide en 5 capas:
Nivel 1. Gestión de Memoria: que proporciona las
facilidades de bajo nivel para la gestión de memoria
secundaria necesaria para la ejecución de procesos.
Nivel 2. Procesador: Se encarga de activar los
espacios de tiempo para cada uno de los procesos,
creando interrupciones de hardware cuando no son
respetadas.
Nivel 3. Entrada/Salida: Proporciona las facilidades
para poder utilizar los dispositivos de E/S requeridos
por procesos.
Nivel 4. Información o Aplicación o Interprete de
Lenguajes: Facilita la comunicación con los lenguajes
y el sistema operativo para aceptar las órdenes en
cada una de las aplicaciones. Cuando se solicitan
ejecutando un programa, el software de este nivel
crea el ambiente de trabajo e invoca a los procesos
correspondientes.
Nivel 5. Control de Archivos: Proporciona la facilidad
para el almacenamiento a largo plazo y
manipulación de archivos con nombre, va asignando
espacio y acceso de datos en memoria.

El núcleo (Kernel) de un sistema operativo es un


conjunto de rutinas cuya misión es la de gestionar el
procesador, la memoria, la entrada/salida y el resto
de procesos disponibles en la instalación.

Dispositivos de Entrada y Salida

El código destinado a manejar la entrada y salida de


los diferentes periféricos en un sistema operativo es
de una extensión considerable y sumamente
complejo. Resuelve la necesidades de sincronizar,
atrapar interrupciones y ofrecer llamadas al sistema
para los programadores.
Los dispositivos de entrada salida se dividen, en
general, en dos tipos: dispositivos orientados a
bloques y dispositivos orientados a caracteres.

Orientados a Bloques.
Los dispositivos orientados a bloques tienen la
propiedad de que se pueden direccionar, esto es, el
programador puede escribir o leer cualquier bloque
del dispositivo realizando primero una operación de
posicionamiento sobre el dispositivo. Los
dispositivos más comunes orientados a bloques son
los discos duros, la memoria, discos compactos y,
posiblemente, las unidades de cinta.

Orientados a Caracteres.
Los dispositivos orientados a caracteres son aquellos
que trabajan con secuencias de bytes sin importar su
longitud ni ninguna agrupación en especial. No son
dispositivos direccionables. Ejemplos de estos
dispositivos son el teclado, la pantalla o display y las
impresoras.
La clasificación anterior no es perfecta, porque
existen varios dispositivos que generan entrada o
salida que no pueden englobarse en esas categorías.
Por ejemplo, un reloj que genera pulsos. Sin
embargo, aunque existan algunos periféricos que no
se puedan catalogar, todos están administrados por
el sistema operativo por medio de una parte
electrónica - mecánica y una parte de software.

Principios del Software de Entrada y Salida

Los principios de software en la entrada - salida se


resumen en cuatro puntos: el software debe ofrecer
manejadores de interrupciones, manejadores de
dispositivos, software que sea independiente de los
dispositivos y software para usuarios.

Manejadores de Interrupciones.
El primer objetivo referente a los manejadores de
interrupciones consiste en que el programador o el
usuario no debe darse cuenta de los manejos de bajo
nivel para los casos en que el dispositivo está
ocupado y se debe suspender el proceso o
sincronizar algunas tareas. Desde el punto de vista
del proceso o usuario, el sistema simplemente tardó
más o menos en responder a su petición.

Manejadores de Dispositivos.
El sistema debe proveer los manejadores de
dispositivos necesarios para los periféricos, así como
ocultar las peculiaridades del manejo interno de
cada uno de ellos, tales como el formato de la
información, los medios mecánicos, los niveles de
voltaje y otros. Por ejemplo, si el sistema tiene
varios tipos diferentes de discos duros, para el
usuario o programador las diferencias técnicas entre
ellos no le deben importar, y los manejadores le
deben ofrecer el mismo conjunto de rutinas para
leer y escribir datos.

Software que sea independiente de los dispositivos.


Este es un nivel superior de independencia que el
ofrecido por los manejadores de dispositivos. Aquí el
sistema operativo debe ser capaz de ofrecer un
conjunto de utilidades para accesar periféricos o
programarlos de una manera consistente. Por
ejemplo, que para todos los dispositivos orientados
a bloques se tenga una llamada para decidir si se
desea usar 'buffers' o no, o para posicionarse en
ellos.

Software para Usuarios.


La mayoría de las rutinas de entrada - salida trabajan
en modo privilegiado, o son llamadas al sistema que
se ligan a los programas del usuario formando parte
de sus aplicaciones y que no le dejan ninguna
flexibilidad al usuario en cuanto a la apariencia de
los datos. Existen otras librerías en donde el usuario
sí tiene poder de decisión (por ejemplo la llamada a
"printf" en el lenguaje "C"). Otra facilidad ofrecida
son las áreas de trabajos encolados (spooling areas),
tales como las de impresión y correo electrónico.

Manejo de los Dispositivos de E/S


En el manejo de los dispositivos de E/S es necesario,
introducir dos nuevos términos:

Buffering (uso de memoria intermedia).


El buffering trata de mantener ocupados tanto la
CPU como los dispositivos de E/S. La idea es sencilla,
los datos se leen y se almacenan en un buffer. Una
vez que los datos se han leído y la CPU va a iniciar
inmediatamente la operación con ellos, el
dispositivo de entrada es instruido para iniciar
inmediatamente la siguiente lectura. La CPU y el
dispositivo de entrada permanecen ocupados.
Cuando la CPU esté libre para el siguiente grupo de
datos, el dispositivo de entrada habrá terminado de
leerlos. La CPU podrá empezar el proceso de los
últimos datos leídos, mientras el dispositivo de
entrada iniciará la lectura de los datos siguientes.

Para la salida, el proceso es análogo. En este caso los


datos de salida se descargan en otro buffer hasta
que el dispositivo de salida pueda procesarlos. Este
sistema soluciona en forma parcial el problema de
mantener ocupados todo el tiempo la CPU y los
dispositivos de E/S, ya que todo depende del tamaño
del buffer y de la velocidad de procesamiento tanto
de la CPU como de los dispositivos de E/S.

El manejo de buffer es complicado. Uno de los


principales problemas reside en determinar tan
pronto como sea posible que un dispositivo de E/S
ha finalizado una operación. Este problema se
resuelve mediante las interrupciones. Tan pronto
como un dispositivo de E/S acaba con una operación
interrumpe a la CPU; en ese momento la CPU
detiene lo que está haciendo e inmediatamente
transfiere el control a una posición determinada.
Normalmente las instrucciones que existen en esta
posición corresponden a una rutina de servicio de
interrupciones. La rutina de servicio de interrupción
comprueba si el buffer no está lleno o no está vacío y
entonces inicia la siguiente petición de E/S. La CPU
puede continuar entonces el proceso interrumpido.

Cada diseño de ordenador tiene su propio


mecanismo de interrupción, pero hay varias
funciones comunes que todos contemplan.
El buffering puede ser de gran ayuda pero pocas
veces es suficiente. En un sistema de discos, las
tarjetas se leen directamente desde la lectora sobre
el disco. La posición de las imágenes de las tarjetas
se registran en una tabla mantenida por el sistema
operativo. En la tabla se anota cada trabajo una vez
leído. Cuando se ejecuta un trabajo, sus peticiones
de entrada desde la tarjeta se satisfacen leyendo el
disco. Cuando el trabajo solicita la salida, ésta se
copia en el buffer del sistema y se escribe en el disco.
Cuando la tarea se ha completado se escribe en la
salida realmente.

Esta forma de procesamiento se denomina spooling:


utiliza el disco como un buffer muy grande para leer
por delante como sea posible de los dispositivos de
entrada y para almacenar los ficheros hasta que los
dispositivos de salida sean capaces de aceptarlos.

La ventaja sobre el buffering es que el spooling


solapa la E/S de un trabajo con la computación de
otro. Es una característica utilizada en la mayoría de
los sistemas operativos. Afecta directamente a las
prestaciones. La CPU puede simultanear la
computación de un trabajo con la E/S de otros. De
esta manera, puede mantener tanto a la CPU como a
los dispositivos de E/S trabajando con un
rendimiento mucho mayor. Además mantiene una
estructura de datos llama "job spooling", que hace
que los trabajos ya leídos permanezcan en el disco y
el sistema operativo puede seleccionar cuál ejecutar;
por lo tanto se hace posible la planificación de
trabajos.

Administración de Archivos

Un archivo es un conjunto de información que se


encuentra almacenada o guardada en la memoria
principal del ordenador, en el disco duro, en el
disquete flexible o en los discos compactos (Cd-
Rom).
Antes de que un archivo pueda leerse o escribirse en
él, debe abrirse, momento en el cual se verifican los
permisos. Estos archivos se abren especificando en el
ordenador la ruta de acceso al archivo desde el
directorio raíz, que es la unidad principal del disco
del ordenador; este puede ser un disco duro o disco
flexible. Entonces el sistema operativo visualiza el
entorno al abrir un archivo.

Uno de los problemas más frecuentes en el manejo


de archivos son los "deadlock". Un deadlock es una
situación no deseada de espera indefinida y se da
cuando en un grupo de procesos, dos o más procesos
de ese grupo esperan para llevar a cabo una tarea
que será ejecutada por otro proceso del mismo
grupo: entonces se produce el bloqueo. Los bloqueos
se dan tanto en los sistemas operativos tradicionales
como en los distribuidos, solo que en estos últimos
es más difícil de prevenirlos, evitarlos e incluso
detectarlos, y si se los logra detectar es muy
complicado solucionarlos ya que la información se
encuentra dispersa por todo el sistema.

Una vez que un deadlock se detecta, es obvio que el


sistema tiene problemas y lo único que resta por
hacer es una de estas dos cosas: tener algún
mecanismo de suspensión o reanudación que
permita copiar todo el contexto de un proceso
incluyendo valores de memoria y aspecto de los
periféricos que esté usando para reanudarlo otro
día, o simplemente eliminar un proceso o
arrebatarle el recurso, causando para ese proceso la
pérdida de datos y tiempo.

Seguridad de un Sistema Operativo.


En los sistemas operativos se requiere tener una
buena seguridad informática, tanto del hardware,
programas y datos, previamente haciendo un
balance de los requerimientos y mecanismos
necesarios, con el fin de asegurar la integridad de la
información contenida.

Dependiendo de los mecanismos utilizados y de su


grado de efectividad, se puede hablar de sistemas
seguros e inseguros. En primer lugar, deben
imponerse ciertas características en el entorno
donde se encuentra la instalación de los equipos,
con el fin de impedir el acceso a personas no
autorizadas, mantener un buen estado y uso del
material y equipos, así como eliminar los riesgos de
causas de fuerza mayor, que puedan destruir la
instalación y la información contenida.

En la actualidad son muchas las violaciones que se


producen en los sistemas informáticos, en general
por acceso de personas no autorizadas que obtienen
información confidencial pudiendo incluso
manipularla. En ocasiones este tipo de incidencias
resulta grave por la naturaleza de los datos; por
ejemplo si se trata de datos bancarios, datos
oficiales que puedan afectar a la seguridad de los
estados, etc.

El software mal intencionado se produce por


diversas causas; son pequeños programas que
poseen gran facilidad para reproducirse y ejecutarse
y cuyos efectos son destructivos: nos estamos
refiriendo a los virus informáticos. Las cuestiones de
seguridad que se analizan lo son desde dos
perspectivas diferentes: la seguridad externa y la
seguridad interna.
Todos los mecanismos dirigidos a asegurar el sistema
informático sin que el propio sistema intervenga en
el mismo se engloban en lo que podemos denominar
seguridad externa. La seguridad externa puede
dividirse en dos grandes grupos:
Seguridad física. Engloba aquellos mecanismos que
impiden a los agentes físicos la destrucción de la
información existente en el sistema; entre ellos
podemos citar el fuego, el humo, inundaciones
descargas eléctricas, campos magnéticos, acceso
físico de personas con no muy buena intención,
entre otros.
Seguridad de administración. Engloba los
mecanismos más usuales para impedir el acceso
lógico de personas físicas al sistema. Todos los
mecanismos dirigidos a asegurar el sistema
informático, siendo el propio sistema el que controla
dichos mecanismos, se engloban en lo que podemos
denominar seguridad interna.
La historia de la informática no puede ser escrita si
no son mencionados los programas o softwares que
como un torrente en líneas de código e instrucciones
le dan vida al cuerpo o hardware de cualquier
dispositivo electrónico en nuestros días. Escribir,
además, sobre los sistemas operativos, la llamada
alma del ordenador, es por otra parte, muy difícil.
Porque, en realidad, ¿qué son los sistemas
operativos?
Los sistemas operativos o SO, como se les conoce, no
son más que programas que luego de ser cargados
en un ordenador por el conjunto de códigos de
carga, (una rutina conocida como BOOT),
administran todos los demás programas
(aplicaciones) que corren en la máquina. Las
aplicaciones a su vez interactúan con el SO mediante
llamadas de servicios definidas bajo el nombre de
API (aplication program interface). A su vez el propio
usuario interactúa directamente con el SO mediante
la interfaz de usuario, ya sea ésta por comandos o
gráfica (GUI).

Entre las tareas que realiza un SO tenemos:


- Si es un sistema multitarea: asignar y controlar los
recursos del sistema, definir qué aplicación y en qué
orden deben ser ejecutadas.
- Manejar la memoria del sistema que comparten las
múltiples aplicaciones.
- Maneja los sistemas de entrada y salida, incluidos
discos duros, impresoras y todo tipo de puertos.
- Envío de mensajes de estado a las aplicaciones, al
administrador de sistema o al propio usuario, sobre
cualquier error o información necesaria para el
trabajo estable y uniforme del sistema.
- Asume tareas delegadas de las propias
aplicaciones, como impresión en background y
procesamiento por lotes, con el fin de que éstas
ganen en eficiencia y tiempo.
- Administra, de existir, el procesamiento en
paralelo.
El lector observador se percatará de que el diseño de
un SO está estrechamente vinculado al hardware
donde reside y a su vez determinará la forma en que
se programen las aplicaciones para dicho hardware.
En la historia de la computación han existido muchos
SO. Al principio, todos atados a cada máquina en la
que corrían: la marca tal lleva el programa tal, la
marca cual, el programa cual. Posteriormente fueron
asociados a cada plataforma y finalmente se hicieron
multiplataformas. Registrando en Internet un poco
de aquí y otro de allá, rescatamos para esta edición
la historia de tres de los Sistemas Operativos más
conocidos.

Historia del UNIX

"...el número de instalaciones de UNIX ha crecido a


10, con tendencia al aumento..."
Dennis Rictchie y Ken Thompson, junio de 1972
"...el resultado fue un sistema llamado UNICS
(Uniplexed Information and Computing
Service)...nadie recuerda de quien fue la idea de
cambiar las siglas a UNIX..."
Tomado de "A brief look at the eraly History"

Después de tres décadas de haber escapado de los


laboratorios Bell, el UNIX sigue siendo uno de los SO
más potentes, versátiles y flexibles en el mundo de
la computación. Su popularidad se debe a muchos
factores, incluidas su portabilidad y habilidad de
correr eficientemente en una inmensa variedad de
máquinas computadoras. Descrito frecuentemente
como un sistema "simple, potente y elegante" el
UNIX es hoy el corazón que late en el seno de
millones de aplicaciones de telefonía fija y móvil, de
millones de servidores en universidades, centros
académicos, grandes, medianas y pequeñas
empresas, el SO cuyo desarrollo viene de la mano del
de Internet y que alberga a millones de servidores y
aplicaciones de la red de redes. Sin UNIX, no cabe
duda, el mundo de la informática hubiera sido otro.

Del MULTICS al UNICS

El origen del UNIX se remonta a los finales del año


1969, al renacer de las cenizas de un fracasado
intento en los Laboratorios Bell de producir un SO
multitarea. En esos tiempos remotos los sistemas
eran desarrollados para computadoras específicas,
por lo que eran necesarios, incluso, intérpretes en
una misma compañía para trabajar programas
iguales de una computadora a otra. MULTICS fue el
resultado del esfuerzo conjunto de un grupo de
investigadores de los Laboratorios Bell y la General
Electrics, que si bien fue funcional, económicamente
era inviable. "A pesar de que MULTICS no podía
manejar muchos usuarios simultáneos, al menos nos
era de utilidad a nosotros, aunque a costes
exorbitantes", explicaría luego Dennis Ritchie, uno
de sus fundadores.

La frustración se llenó de esperanza cuando un grupo


escindido del proyecto MULTICS no se dio por
vencido. En ese mismo año, el grupo formado por
Ken Thompson, Dennis Ritchie, Doug McIlroy y J.F
Osanna continuó en la búsqueda del santo grial. Los
primeros intentos fueron de nuevo un fracaso:
propuestas excesivamente complicadas, soluciones
muy caras y sin una línea coherente de trabajo,
hicieron que los directivos de Bell rechazaran una y
otra vez los trabajos presentados por el grupo.
Anótese adicionalmente que el costo de un
ordenador para la época era no menor de 60 000
dólares.

Como todo mito que rodea a un producto genial, el


UNIX tiene el suyo propio. En la primavera de 1969,
Thompson, Ritchie y Rudd Canaday, cofundador de
Sun-Microsystems, intercambiaban y filosofaban
sobre cómo debiera ser un SO de un ordenador.
Después de una larga tormenta de ideas, Canaday
tomó el teléfono y llamó a la Bell para dictar las
notas que había tomado. Acrónimos como "inode"y
"eyen" entre sus notas, fueron la base del UNIX y el
primer documento de trabajo, a decir de Thompsom,
para desarrollar el sistema.

Un Sistema Operativo para una PDP-7

Thompson, en su tiempo, libre desarrolló un


pequeño juego llamado "Viaje Espacial", el cual
simulaba el movimiento de los planetas en el
sistema solar y de una nave manejada en ese
escenario intergaláctico por comandos de consola. El
juego fue escrito para MULTICS y luego pasado por
FORTRAN todo ello corriendo sobre una
computadora GE 635. "El coste, el tiempo empleado
y la mala calidad de la consola, hicieron que
Thompson buscara llevar el juego a una poco usada
PDP-7 (Programmed Data Processor) de DEC con un
terminal excelente. El juego, escrito en ensamblador,
era portado usando cinta de papel de la GE 635 a la
PDP-7.

Este mecanismo preparó el escenario para que la


PDP-7 sirviera de anfitrión al sistema de ficheros
cuyas notas habían sido escritas en aquella
primavera del 69. En el verano de ese mismo año,
Thompson y Ritchie empezaron a implementar el
sistema operativo, llamado "sistema de tiza" ya que
éste tomaba forma luego de numerosas sesiones de
pizarra entre ambos investigadores. "Destiné una
semana de trabajo para cada módulo: el sistema
operativo, el editor, el shell y el ensamblador", diría
Thompsom. Primero los requerimientos del sistema,
en particular los procesos, luego un pequeño grupo
de herramientas del sistema para copiar, imprimir,
borrar, etc. Trabajado sobre GECOS el sistema de la
GE635 y luego transportado a la PDP7, el nuevo SO
estaba casi listo. Una vez completado el
ensamblador, el sistema podía soportarse a sí
mismo. Había nacido el UNIX.
Las primeras aplicaciones para UNIX

Pronto se hizo evidente que la PDP-7 no ofrecía


poder de cómputo suficiente y quedaría obsoleta en
breve. El grupo propuso a los Laboratorios adquirir
una PDP-11. Con una idea más clara y un embrión
por desarrollar, así como el apoyo de Doug McIlroy y
Lee MacMahom, jefes de departamentos en Bell,
esta vez los directivos aceptaron. Durante la espera
dela llegada del nuevo equipo, el trabajo sobre la
PDP-7 no se detuvo, demostrando con creces la
utilidad del nuevo UNIX. Después de largas y
trabajosas sesiones, el resultado fue milagroso: no
sólo el Departamento de Patentes adoptó el UNIX,
sino que la credibilidad del grupo creció y se hizo
notable el apoyo e interés del Laboratorio en traer la
PDP-11.

Esta primera versión estaba escrita en ensamblador:


la siguiente tarea de Thompson fue escribirla en un
lenguaje de alto nivel. En 1971 intenta trabajar con
FORTRAN en la vieja PDP-7, pero se rindió el primer
día. Después escribió un lenguaje muy sencillo que
llamó B, que aunque funcional tendría que enfrentar
algunos problemas de concepción. Ritchie
transformó el B para la PDP-11, al introducirle
algunas mejoras, lo denominó NB e hizo un
compilador para él. Así surgió el lenguaje C, que si
bien es cierto pertenece a otra historia, constituyó el
lenguaje de alto nivel en el que se reescribió el UNIX
por primera vez en el año 1972.

Concatenando procesos

El otro paso importante, y que más que una solución


puntual constituyó toda una filosofía en el diseño del
software, fue llevar al nuevo SO el concepto de la
concatenación de procesos, el llamado "pipes
concept". La habilidad de encadenar en una misma
línea de comandos varios procesos fue una
innovación que tiene su origen en una idea de
McIlroy, cuyas conferencias sobre el uso de macros y
flujos de datos para producir un determinado
resultado ya eran conocidas.
Mientras Thompson y Ritchie pasaban horas de su
tiempo frente a una pizarra diseñando el sistema de
ficheros, McIlroy llevaba otro tanto tratando de
interconectar entre sí los procesos y construir una
sintaxis en el lenguaje para ello. "...es muy fácil decir
who into cat into grep, pero está todo el asunto este
de los parámetros laterales que estos comandos
tienen..." acota McIlroy. Aunque sin concretarla, la
idea estuvo presente a lo largo del período del 70 al
72. Una noche, después de presentarle propuesta
tras propuesta a Thompson, éste se llevó un
prototipo a casa y al día siguiente estaba listo. "Ken
puso la concatenación de comandos en el UNIX, las
notaciones en el shell del usuario, todo ello en una
sola noche", diría luego McIlroy maravillado.

Saltando los muros de Bell Labs

No fue hasta tiempo después que el UNIX saltaría los


muros de la Bell para insertarse en el mundo.
Durante un semestre sabático para Ken Thompson
entre 1976 y 1977, fue como profesor invitado en el
Departamento de Ciencias de la Computación de la
Universidad californiana de Berkeley. Lo que por
supuesto impartió fue precisamente el sistema UNIX,
cuya versión 6 desarrolló durante ese tiempo.
Enseguida fue recibido con mucho éxito y se fue
propagando por toda la comunidad académica. Una
vez de vuelta a los Laboratorios, la versión 6 ya había
sido enriquecida en la propia universidad, lo que dio
origen a lo que luego se conoció como Berkeley
Software Distribution (BSD) versión 4.2, comprada
por muchas otras universidades. La universidad de
Berkeley jugó un papel importante en el desarrollo y
extensión del UNIX, cuyas licencias a importantes
instituciones académicas, de negocios y militares
como el DARPA, propiciaron un acelerado trabajo en
protocolos como el TCP/IP y el nacimiento de
Internet.

La entrada al mundo comercial no fue más que una


evolución lógica, después del paso de los primeros
licenciados del mundo universitario criados bajo el
manto del UNIX, al sector empresarial. Lo que hizo
del SO un programa popular fue su habilidad de
multitarea, señoreando por aquel entonces el
mundo de los mini y los mainframes, su portabilidad
por medio de los distintos fabricantes de
ordenadores y su capacidad de correo electrónico.
Una vez llegado a este punto todo estaba listo para
la aparición de las innumerables versiones del
sistema, las batallas legales para las licencias, la
producción de estaciones de trabajo para UNIX por
parte de IBM, Sun, NCR y HP y con ellas nuevas
versiones comerciales, y así sucesivamente en
espiral ascendente.

Mucho del progreso de la computación en el último


cuarto del siglo pasado está íntimamente ligado a la
influencia que el UNIX tuvo en la industria de la
computación. Estaba embebido de ideas visionarias,
toda una llamada a la abertura y generalidad entre
sistemas, toda una fuerza, que aún mueve el
desarrollo de la informática moderna. Como diría
uno de sus creadores, " ...a 30 años de su
nacimiento, el UNIX sigue siendo un gran
fenómeno".

Linux, la otra cara


"…Yo realmente no sigo mucho lo que hacen los
otros sistemas operativos. Yo no compito, sólo me
preocupo con hacer de Linux un producto cada vez
mejor que sí mismo, no respecto a otros. Y
honestamente no veo nada interesante desde el
punto de vista técnico, tampoco (en FreeBSD 5.0 y
Windows XP)"
Linus Torvalds, 10 de octubre del 2001, OSNews.

La fascinación de los medios por Linux viene dada,


entre otras cosas, por ser un proyecto de ingeniería
de software distribuido a escala global, esfuerzo
mancomunado de más de 3 000 desarrolladores y un
sin número de colaboradores distribuidos en más de
90 países. El rango de participantes en la
programación del Linux se ha estimado desde unos
cuantos cientos hasta más de 40 000, ya sea
ofreciendo código, sugiriendo mejoras, facilitando
comentarios o describiendo y enriqueciendo
manuales. De hecho, se cuenta que el mayor soporte
técnico jamás diseñado de manera espontánea y
gratuita pertenece a este SO.
Escribir la historia de UNIX sin mencionar a Linux es
pecado: realmente merece todo un capítulo propio.
Salido de una raíz común, hoy el Linux comparte un
tanto por ciento no despreciable del mercado de los
SO, con un crecimiento que ha llegado a preocupar al
gigante Microsoft.

Su versión 1.0, salida en marzo de 1994 ofreció


básicamente las mismas facilidades que el UNIX,
incluyendo soporte multitarea, tratamiento de
memoria virtual y soporte TCP/IP. Estaba constituido
por unas 175 000 líneas de código. Ya su versión 2.0,
de junio de 1996, ofrecía procesamiento de 64 bits,
multiprocesamiento en paralelo y soporte avanzado
de redes. El número de líneas de código se había
triplicado: 780 000, y en la versión de julio de 1998 la
cifra sobrepasaba el millón y medio, 17% específicos
de la arquitectura del SO, 54% en manipuladores y el
29% el núcleo del kernel y el sistema de ficheros. Ello
ha sido posible por el simple hecho de que Linux es
más que un SO: es una fuente inagotable en
permanente evolución por miles de programadores a
escala mundial.
¿Cómo surgió? ¿A qué se debe el fenómeno de la
espontaneidad en su creación y desarrollo?
Adentrémonos brevemente en su historia.

En octubre de 1991 un estudiante graduado de


Ciencias de la Computación en la Universidad de
Helsinki, llamado Linus Torvalds, anuncia en Internet
que había escrito una versión libre de un sistema
MINIX (una variante de UNÍX) para un ordenador con
procesador Intel 386 y lo dejaba disponible para
todo aquel que estuviera interesado. ¿La causa? El
MINIX fue una versión simplificada de UNIX escrito y
mantenido durante mucho tiempo como
herramienta de estudio en una escuela europea por
un profesor de Ciencias de la Computación llamado
Andrew Tanenbaum. El MINIX era ampliamente
utilizado como recurso en clases de Computación,
aun a costo de su licencia (79 dólares) que limitaba
su redistribución. Luego de interesar a los
estudiantes con el software, éstos se llenaban de
deseos de realizar mejoras y extensiones, nunca
aprobadas por Tanenbaum.
Torvalds, uno de estos alumnos frustrados, decidió
realizar su propia versión de MINIX y dejar libre su
código fuente para ser copiado por cualquiera y así
saciar la sed de desarrollo de aquellos que se veían
impedidos de hacerlo.

"¿Se lamenta de los días del MINIX-1.1, cuando los


programadores escribían sus propios manipuladores
de dispositivos? ¿Está usted sin un proyecto
interesante y muriéndose de deseos por un SO que
pueda modificar a su antojo? ¿Se siente frustrado
cuando encuentra que todo trabaja bien en su
MINIX?… Entonces este mensaje puede ser para
usted :-)", escribiría en un foro de discusión por
Internet. Adicionalmente, el mensaje estimulaba a
todo aquel que se sintiera capaz de adicionar nuevas
funciones, mejoras, sugerencias y manuales de
ayuda, con la única condición de que el resultado
fuera a su vez distribuido libremente. La piedra había
echado a rodar montaña abajo. En los siguientes 30
meses se desarrollarían hasta 90 versiones del nuevo
SO, finalizando en 1994 con la definitiva, llamándola
Linux versión 1.0.

Varias condiciones adicionales propiciaron la buena


acogida que tuvo la decisión de Torvalds, pero dos
de ellas de especial impacto: el status legal y social
del llamado código abierto, open source, una vía
para intercambiar software de manera libre, e
Internet. El intercambio de códigos fue una práctica
bastante común en los albores de la computación en
el sector académico. Laboratorios como el MIT
Artificial Intelligence Laboratory, universidades
como Standford y Carnegie Mellon solían practicar
una política de código abierto. Debido a que las
máquinas computadoras eran muy limitadas en
aquel entonces, las personas solían dejar en éstas el
software desarrollado para que otros pudieran
admirar el trabajo y sugerir mejoras.

El propio UNIX de Thompson y Ritchie, que


legalmente pertenecía a AT&T, pero que por
restricciones de la ley anti trust de ese momento, le
impedía comercializar, fue distribuido a la
comunidad académica por una tarifa nominal, sin
soporte oficial al programa. Ello acostumbró a los
programadores y usuarios del sistema a intercambiar
los errores y soluciones, así como las mejoras. La
llegada del protocolo UUCP (Unix to Unix Copy)
permitió la transferencia de ficheros y datos con el
uso de una línea telefónica e introdujo el soporte de
transmisión como mecanismo natural para
intercambiar información entre los usuarios del
sistema. Se crearon los primeros foros y apareció
Usenet. Las innovaciones de diseño y características
propias del UNIX como sistema, a su vez, propiciaron
la cultura del intercambio.

A medida que el UNIX tomaba fuerza y seguía atado


a las nuevas computadoras de diferentes
fabricantes, la cultura del libre intercambio se vio
amenazada entre su comunidad. Surge así, por idea
de Richard Sallman, el proyecto GNU en 1984 para
crear sistemas operativos libres que hicieran posible
la distribución y trabajo de colaboración entre
diferentes desarrolladores. Para evitar que el
mecanismo fuese deformado se instituyó lo que
Sallman llamó "Copyleft": usted puede distribuir,
copiar, modificar el software, obligando a su vez a
las derivaciones de éste a cumplir con los mismos
requisitos. El marco legal y social para la distribución
y copia gratuita estaba instituido. Huelga mencionar
las facilidades que aportó Internet cuando Torvalds
decidió hacer su anuncio: ya no era sólo un grupo
privilegiado con acceso a máquinas computadoras
grandes en laboratorios estratégicos o grandes
universidades los que podían colaborar con un
código de programa. Internet elevó el intercambio a
un marco global.

Si bien Torvalds nunca persiguió encabezar un


proyecto de programación distributiva a escala
mundial, sus habilidades como líder de proyecto y
excelente programador fueron determinantes en el
éxito de Linux. Más allá de sus cualidades como
programador, su mayor contribución fueron sus
habilidades en el diseño de una arquitectura
modular y portable para el kernel. Por tanto, al
disponer de un código base único para todo tipo de
plataforma, desde Intel hasta Motorola, que
permitía soportar de manera simultánea varias
ramas según el tipo de arquitectura de ordenador
que se tratase, incrementó considerablemente la
portabilidad del Linux. Por otro lado, la modularidad
del sistema minimizaba la comunicación entre las
distintas componentes del kernel y por ende hacía
posible el trabajo en paralelo, al disminuir la
necesidad de un trabajo coordinado entre sus
diseñadores.

Otra decisión brillante de Torvalds fue establecer


una nomenclatura paralela para cada tipo de versión
del SO. Para ello se separaron en versiones pares o
impares según la estabilidad y seguridad de la misma
o la inclusión de código experimental o alguna nueva
rutina en fase de estudio. Ello hacía posible disponer
de dos tipos de colaboradores: los que buscaban una
versión estable del programa o los que preferían
probar con nuevas estructuras, innovar y llevar sus
sistemas hasta el extremo. Ello enriqueció al Linux
extraordinariamente.

Es interesante conocer, además, que los


programadores suelen escribir código para Linux en
aras de resolver sus propios problemas. El mismo
Torvalds buscaba un SO para su 386 y su anunció
explícitamente invitaba a "modificarlo según sus
necesidades ". Así, cuando la comunidad de
programadores aceptó el reto de Torvalds, cada cual
escribió sus propios manipuladores de dispositivos.
Por ejemplo, un programador alemán diseñó el
driver para teclado en su idioma y éste fue incluido
en la versión de diciembre del 91. Hasta nuestros
días se mantiene la misma filosofía: cada cual trabaja
en las áreas que le interesa.

He aquí la historia. Hoy Linux es una alternativa para


muchos e indispensable para otros. Su importancia
no puede ser relegada: los RED HAT, los SUSE, los
Mandrake pueblan miles de servidores por todo el
planeta. ¿Lo mejor? Pues que Linus Torvalds sigue
enviando mensajes a su lista, del tipo: "...mi
prioridad personal no es este tipo de
comportamiento, por tanto sería bueno que alguien
implementara esta opción...".

Historia de Microsoft Windows


"...Microsoft siempre ha sido una compañía
optimista, que cree que el software puede crear
herramientas que realmente no tengan ninguna
atadura en términos de lo que es posible..."
Bill Gates, Future Forum, septiembre del 2001

De todos los sistemas operativos que se han hecho


famosos a lo largo del desarrollo de la informática en
el ocaso del siglo pasado, sin duda, ningún otro
posee la peculiaridad del Windows de Microsoft.
Rodeado por todo tipo de mitos acerca de su
emprendedor y ambicioso creador, solidificado
sobre la base de un sistema DOS, cuya irrupción en
el primer PC tenía más de suerte que de propósito,
amparado por disfrutar de un férreo y despiadado
control de mercado, es, hoy por hoy, odiado o
amado, el sistema operativo más extendido del
planeta.

Al buscar su historia en la red, no encontramos


anécdotas de noches en vela, de errores que se
convirtieron en éxitos, de genios convertidos en
héroes de la noche a la mañana. En cambio, sí
conocimos de oportunidades, visión de futuro,
monopolios y juicios. La historia de Windows tiene
mezclado un poco de Bill Gates, de MSDOS y de la
propia compañía Microsoft.

Fundación

La Compañía fue fundada en 1975 por William H.


Gates III y Paul Allen. Ambos se habían conocido
durante su época de estudiantes por su afición
común a programar con una computadora PDP-10 de
Digital Equipment Corporation. Eran años en que la
revista Popular Electronics dedicaba su portada a la
Altair 8800, para muchos el primer ordenador
personal (PC). El artículo de dicha revista animó a
Gates y Allen a desarrollar la primera versión del
lenguaje de programación BASIC para el equipo
Altair. Con un ojo para los negocios fuera de lo
común, el dúo le compró la licencia de este software
a Micro Instrumentation and Telemetry Systems
(MITS), la empresa fabricante del Altair, y fundaron
Microsoft (originalmente Micro-soft) en
Albuquerque, Nuevo México. Su idea: desarrollar
versiones de BASIC para otras compañías del sector.
Apple Computer, fabricante del equipo Apple II;
Commodore, fabricante del PET, y Tandy
Corporation, fabricante del equipo Radio Shack TRS-
80, todas compañías creadas por aquel entonces,
fueron los primeros clientes de Microsoft. En 1977
Microsoft lanzó al mercado su segundo producto:
Microsoft FORTRAN, otro lenguaje de programación,
y pronto sacó versiones del lenguaje BASIC para los
microprocesadores 8080 y 8086.

MS-DOS

En 1979, Gates y Allen trasladaron la compañía a


Bellevue, Washington, muy cerca de Seattle, la
ciudad donde ambos nacieron (el traslado a
Redmond, su sede de hoy, no se produciría hasta
1986). En 1980, IBM contrató a Microsoft para
escribir el sistema operativo del IBM PC que saldría
al mercado al año siguiente. Presionada por el poco
tiempo disponible, Microsoft compró QDOS (Quick
and Dirty Operating System, como se le solía llamar
entonces) a Tim Paterson, un programador de
Seattle, por 50 000 dólares, cambiándole el nombre
a MS-DOS. El contrato firmado con IBM permitía a
Microsoft vender este SO a otras compañías. La
mesa estaba servida. La arquitectura abierta del
primer PC y los artilugios legales permitieron la
extensión de la arquitectura X86 de Intel y con ella
del PC fuera del marco de IBM. Fue la época del
florecimiento de los clónicos y el surgimiento de
algunas compañías que luego serían todo un
estandarte, como la fusionada Compaq. En 1984,
Microsoft había otorgado licencias de MS-DOS a 200
fabricantes de equipos informáticos y así este SO se
convirtió en el más utilizado para PCs, lo que
permitió a Microsoft crecer vertiginosamente en la
década de 1980.

¿Por qué el MS-DOS quedó estigmatizado con las


sucesivas generaciones de PCs hasta no hace mucho?
La respuesta a esta pregunta tiene un poco que ver
con la esencia misma del origen de los ordenadores
personales. Cuando IBM fabricó el PC hizo que el
usuario antes de cargar algún SO, realizara lo que se
llamó el POST (Power On Self Test), que determinaba
los dispositivos disponibles (teclado, vídeo, discos,
etc.) y luego buscaba un disco de arranque. Estas
funciones eran realizadas por un conjunto de
instrucciones incorporadas en la máquina mediante
una ROM. Luego quedó escrito que siempre hubiera
algún tipo de software en el sistema aún sin ser
cargado el SO. Entre las rutinas del POST tenemos las
de revisión del sistema, inicialización y prueba de
teclado, habilitación de vídeo, chequeo de la
memoria y la rutina de inicialización que preparaba a
la máquina para ejecutar DOS. Después que las
pruebas de arranque han sido ejecutadas y el
sistema está cargado, la ROM aún sigue siendo
importante debido a que contiene el soporte básico
de entrada y salida (BIOS). La BIOS provee un
conjunto de rutinas que el SO o los programas de
aplicación pueden llamar para manipular el monitor,
teclado, discos duros, discos flexibles, puertos COM
o impresoras.

El trato de IBM con Microsoft tenía entre otras


condiciones una particularidad interesante: la
administración directa de las tarjetas adaptadoras
podría ser manejada sólo por programas que IBM
proveía con la ROM del ordenador. DOS sería escrito
para utilizar estos servicios. De esta manera, si IBM
decidía cambiar el hardware, éste podía embarcar
nuevos modelos de chips con cambios en la BIOS y
no requería que Microsoft cambiara el SO. Ello
posibilitó, junto con la clonación de la arquitectura
de IBM incluido el BIOS, que el DOS se extendiera
por el universo, aun cuando el Gigante Azul rompiera
su alianza con Microsoft, en 1991, para producir su
propio SO. Microsoft había hecho un trabajo
estratégico brillante e IBM había perdido la
supremacía de los ordenadores para siempre.

Realmente, el núcleo del DOS estaba contenido en


un par de archivos ocultos llamados IO.SYS y
MSDOS.SYS en las versiones de DOS realizadas por
Microsoft, e IBMBIO.SYS e IBMDOS.SYS, para las
versiones de DOS hechas por IBM bajo licencia
Microsoft. Los servicios de DOS eran solicitados
cuando una aplicación llamaba a la interrupción 21
(INT 21) reservada para estos fines. Esta buscaba un
punto de entrada del administrador de servicios de
DOS en una tabla y saltaba a la rutina en el módulo
MSDOS.SYS. En otros SO, la aplicación debía realizar
una llamada al sistema (system call) para requerir
servicios, como, por ejemplo, en UNIX.

Otro rasgo distintivo del MS-DOS fue la forma en el


manejo de la estructura de ficheros: la FAT (File
Allocation Table) o Tabla de Asignación de Archivos,
que dividía al disco en subdirectorios y archivos.
Criticados por muchos como un sistema poco seguro
y no eficiente, la herencia sobrevivió por mucho
tiempo y no fue hasta época reciente que Microsoft
decidió reemplazarlo por un sistema más robusto, el
NTFS que destinó a la gama alta de sus SO: el
Windows NT.
La historia del MS-DOS comienza en 1981, con la
compra por parte de Microsoft, de un sistema
operativo llamado QDOS, que tras realizar unas
pocas modificaciones, se convierte en la primera
versión del sistema operativo de Microsoft MS-DOS
1.0 (MicroSoft Disk Operating System)

A partir de aquí, se suceden una serie de


modificaciones del sistema operativo, hasta llegar a
la versión 7.1, a partir de la cual MS-DOS deja de
existir como tal y se convierte en una parte
integrada del sistema operativo Windows.

Ahora explicaremos y comentaremos la cronología


de MS-DOS en todas sus versiones:

En 1982, aparece la versión 1.25, con la que se añade


soporte para disquetes de doble cara.

El año siguiente, 1983, el sistema comienza a tener


más funcionalidad, con su versión 2.0, que añade
soporte a discos duros IBM de 10 MB, y la posibilidad
de lectura-escritura de disquetes de 5.25" con
capacidad de 360Kb. En la versión 2.11 del mismo
año, se añaden nuevos caracteres de teclado.

En 1984, Microsoft lanzaría su versión 3.0 de MS-


DOS, y es entonces cuando se añade soporte para
discos de alta densidad de 1,2MB y posibilidad de
instalar un disco duro con un máximo de 32MB. En
ese mismo año, se añadiría en la versión 3.1 el
soporte para redes Microsoft.

Tres años más tarde, en 1987, se lanza la versión 3.3


con soporte para los conocidos y actuales disquetes
de 3,5", y se permite utilizar discos duros mayores
de 32 MB.

Es en 1988 cuando Microsoft saca al mercado su


versión 4.0 y con ella el soporte para memoria XMS y
la posibilidad de incluir discos duros de hasta 2GB;
cabe destacar que esta versión fue la mayor
catástrofe realizada por la empresa, ya que estaba
llena de bugs, fallos, etc... esto se arregló en 1989
con el lanzamiento de la versión 4.01 que arreglaba
todos estos problemas y fallos.

Uno de los avances más relevantes de la historia de


MS-DOS, es el paso en 1991 de la versión 4.01 a la
versión 5.0, en la que DOS es capaz ya de cargar
programas en la parte de la memoria alta del
sistema utilizando la memoria superior (de los 640Kb
a los 1024Kb). En la versión 5.0 se añade el
programador BASIC y el famoso editor EDIT.
También se añadieron las utilidades UNDELETE
(Recuperación de ficheros borrados), FDISK
(Administración de particiones) y una utilidad para
hacer funcionar los programas diseñados para
versiones anteriores de MS-DOS, llamada SETVER. Es
a finales de 1992 cuando se resuelven unos
problemas con UNDELETE y CHKDSK en la versión
5.0a.

En 1993, aparece MS-DOS 6.0 con muchas


novedades, entre ellas la utilidad Doublespace que
se encargaba de comprimir el disco y así tener más
espacio disponible; también se incluyó un antivirus
básico (MSAV), un defragmentador (DEFRAG), un
administrador de memoria (MEMMAKER) y se
suprimieron ciertas utilidades antiguas, ya que
haciendo un mal uso de ellas podían destruir datos:
estas utilidades eran JOIN y RECOVER entre otras.

En el mismo año sale la versión 6.2 que añade


seguridad a la perdida de datos de Doublespace, y
añade un nuevo escáner de discos, SCANDISK, y
soluciona problemas con DISKCOPY y SmartDrive. En
la versión 6.21 aparecida en el mismo año 1993,
Microsoft suprime Doublespace y busca una nueva
alternativa para esta utilidad.

Un año más tarde, en 1994, aparece la solución al


problema de Doublespace; es la utilidad de la
compañía Stac Electronics, Drivespace, la elegida
para incluirse en la versión 6.22

En el año 1995 aparece Microsoft Windows 95, que


supone apartar a MS-DOS a un segundo plano.

El sistema MS-DOS, no obstante, sigue estando


presente con una nueva versión, la 7.0, con la que se
corrigen multitud de utilidades y proporciona
soporte para nombres largos. Las utilidades borradas
del anterior sistema operativo las podemos
encontrar en el directorio del cd de windows 95
\other\oldmsdos.
En 1997 aparece Windows 95 OSR2, y con él una
revisión exhaustiva del sistema DOS, añadiendo el
soporte para particiones FAT32.

En la actualidad, la utilización de MS-DOS sigue


siendo muy importante cuando Windows no es
capaz de realizar la tarea que estamos haciendo o
cuando Windows falla. Muchos técnicos en el área
de la informática utilizan MS-DOS para realizar
mantenimientos del PC, instalaciones, formateo y
particionamiento de discos duros y escaneos de los
mismos.

Hay que dejar constancia de que MS-DOS ha sido el


sistema operativo utilizado por prácticamente todos
los usuarios de PC desde 1981 hasta la actualidad,
utilizando programas famosos para trabajar como el
legendario WordPerfect 5.1, Works 2.0, Comandante
Norton, Autocad, Ability 2000 entre otros...

Windows
Paralelamente, Microsoft hizo su primera incursión
en lo que luego se llamaría Microsoft Windows en el
año 1981 con el llamado Interface Manager, en
tiempos en que las interfaces gráficas de usuario,
GUI, eran una quimera de lujo para muchos, en tanto
la computación estaba suscrita al área geográfica de
los centros académicos, grandes instituciones y
empresas. Más que un SO, se trataba en realidad de
una interfaz montada sobre su estrenado DOS.
Aunque los primeros prototipos usaban una interfaz
similar a una de las aplicaciones estrellas de la
Compañía en aquel entonces, el Multiplan, luego
ésta fue cambiada por menúes pulldown y cajas de
diálogo, similares a las usadas en el programa Xerox
Star del mencionado fabricante. Al sentir la presión
de programas similares en aquel entonces
(recordemos que más que un SO, Windows nació
como una interfaz gráfica entre éste y el usuario),
Microsoft anuncia oficialmente Windows a finales
del año 1983.

En ese momento, muchas compañías trabajan la


línea de las interfaces gráficas, entre ellas Apple,
reconocida casi por todos como la primera, DESQ de
Quraterdeck, Amiga Workbech, NEXTstep, etc.
Windows prometía una interfaz GUI de fácil uso,
soporte multitarea y gráfico. Siguiendo el rito de los
anuncio-aplazamientos de Microsoft, Windows 1.0
no llegó a los estantes de las tiendas hasta
noviembre de 1985, disponiendo de un soporte de
aplicaciones pobres y un nivel de ventas pírrico. El
paquete inicial de Windows 1.0 incluía: MS-DOS
Ejecutivo, Calendario, Tarjetero (¿alguien realmente
usó esto alguna vez?), el Notepad, Terminal,
Calculadora, Reloj, Panel de Control, el editor PIF
(Program Information File), un spooler de impresión,
el Clipboard, así como el Windows Write y Windows
Paint.

En los años siguientes, si bien el ordenador personal


como concepto ya se había establecido y servía de
alternativa válida a las mini, sobre todo en el
entorno institucional y empresarial, aún el poder de
cómputo limitado y la gran variedad de fabricantes
limitaron la explosión de Windows como SO, debido
al despliegue universal que con el MS-DOS la
Compañía había logrado establecer. Windows /286 y
Windows/386, renombrados como Windows 2.0
terminan la saga en el otoño de 1987, al ofrecer
algunas mejoras de uso, adicionar iconos y permitir
la superposición de ventanas, lo que propició un
marco mucho más apropiado para la co-ubicación de
aplicaciones de mayor nivel como el Excel, Word,
Corel Draw, Ami y PageMakers, etc. Una notoriedad
del Windows /386 lo constituyó el hecho de poder
correr aplicaciones en modo extendido y múltiples
programas DOS de manera simultánea.

El Windows 3.0, que aparece en mayo de 1990,


constituyó un cambio radical del ambiente Windows
hasta entonces. Su habilidad de direccionar espacios
de memorias por encima de los 640 k y una interfaz
de usuario mucho más potente propiciaron que los
productores se estimularan con la producción de
aplicaciones para el nuevo programa. Ello, unido a la
fortaleza dominante del MS-DOS, hizo que el
Windows 3.0 se vislumbrara como el primer SO
gráfico (siempre con el MS-DOS bajo su estructura)
marcado para dominar el mercado de las PCs en el
futuro inmediato. Windows 3.0 fue un buen
producto, desde el punto de vista de las ventas: diez
millones de copias. Todo un récord.
Dos años después llegaría la saga del Windows 3.1 y
3.11, así como su variante para trabajo en grupo.
Con éste se hizo patente el traslado de la mayoría de
los usuarios del ambiente de texto que ofrecía el MS-
DOS hacia el ambiente gráfico de la nueva
propuesta, olvidándonos todos paulatinamente del
Copy A:\ *.* para sustituirlo por el COPY AND PASTE.
Las primeras aplicaciones "adquiridas y/o
desplazadas" por Microsoft ofrecidas como un todo
único, el ambiente de RED peer to peer, los sistemas
de upgrade de una versión a otra y el tratamiento
diferenciado para los revendedores y los fabricantes
OEM, caracterizaron los movimientos de Microsoft
para afianzar el mercado de su SO insignia. En el caso
de la versión para trabajo en grupo, Microsoft
integró por primera vez su SO con un paquete de
tratamiento para redes, lo que permitió, sobre un
protocolo propio, el compartir ficheros entre PCs
(incluso corriendo DOS), compartir impresoras,
sistema de correo electrónico y un planificador para
trabajo en grupo. Sin embargo, lo realmente
llamativo consistió en su plena integración con el
ambiente Windows y con ello garantizar,
independiente de la calidad del producto final, un
seguro predominio.

Mientras tanto, IBM y Microsoft trabajaban para


desarrollar un nuevo programa especialmente
diseñado para el procesador de Intel 80286. De esa
forma, la versión 1.0 de OS/2 es lanzada en 1988,
época en que ya el 386 se hacía popular. Se hizo
claro que el hardware estaba cambiando muy rápido
con relación al desarrollo del software. De manera
que ambas compañías decidieron que la OS/2
versión 2 sería un refinamiento evolutivo de
sistemas previos, actualizado para las nuevas
características de hardware del 386. Sin embargo,
para la versión 3 se procedió a trabajar desde cero,
basado todo sobre Nueva Tecnología. En un principio
sería un SO para procesadores de Intel, pero
portable a otros, como los ALPHA, de Digital, por
aquel entonces muy famosos. Después de la ruptura
con IBM, Microsoft le llamaría al SO Windows NT. El
OS/2, tras una existencia caótica bajo el pulso de
IBM, quedó en el olvido. Microsoft se percató que si
bien tenía bajo control el mercado de los SO para las
masas, se sentía desplazado por la comunidad UNIX
al nivel de las grandes instituciones y empresas. El
NT comenzó a tomar fuerza en sus planes.

Volviendo al Windows tradicional, el año 95 significó


un nuevo vuelco en la línea de los SO de Microsoft.
En agosto sale al mercado el controvertido Windows
95, un entorno multitarea con interfaz simplificada y
con otras funciones mejoradas. A sólo siete semanas
de su lanzamiento ya se habían vendido siete
millones de copias. Es la época del despegue de
Internet y el WWW, y su visualizador dominante: el
Navigator de Netscape. Microsoft, en un error poco
común de su timonel, no se había dado cuenta que
el futuro de los ordenadores estaba precisamente en
la red y que Internet significaría toda una revolución.
El lanzamiento de Windows 95 estuvo acompañado
de una serie de pasos que el Gigante dio en aras de
remediar su equivocación y enderezar el rumbo.
Además de "empotrar" su navegador y obligar a los
fabricantes de PCs a tenerlo en cuenta, ese mismo
año se crea The Microsoft Network y mediante su
incursión acelerada en los medios masivos de
comunicación, surge MSNBC, un año después. En ese
momento, Microsoft pagó 425 millones de dólares
por la adquisición de WebTV Networks, un
fabricante de dispositivos de bajo costo para
conectar televisiones a Internet e invirtió mil
millones de dólares en Comcast Corporation, un
operador estadounidense de televisión por cable,
como parte de su política de extender la
disponibilidad de conexiones de alta velocidad a
Internet. Por último, para introducirse en el mercado
de los asistentes personales y los ordenadores de
bolsillo, handheld devices, crea una nueva línea de
su SO, el Windows CE, una especie de Windows en
miniatura que ya en su versión 3.0 ha logrado una
integración asombrosa con la plataforma e Internet.

Pero, ¿qué significó realmente Windows 95? En


esencia, cuando Microsoft lo anunció lo describió
como un SO de 32 bits. En realidad, Windows 95 era
un híbrido que mezclaba códigos de 16 y 32 bits.
Poseía capacidad de multitarea y multihilo, un
sofisticado sistema de ficheros y pleno soporte de
red. Su lanzamiento se pregonaba con la
desaparición del MS-DOS, aunque en verdad la
crítica no lo perdonó, pues traía de fondo el viejo
sistema DOS en su versión 7.0. Así Windows 95
tomaba el control inmediatamente después de la
secuencia de arranque, para dar lugar a una interfaz
totalmente mejorada y una filosofía de trabajo
diferente.

Añádale la famosa promesa del "plug and play" y


tendremos un timo de marketing bien montado.
Claro, en realidad la solución si bien novedosa y
prometedora, era una meta muy alta para Microsoft
y los fabricantes de entonces. No sólo habría que
garantizar la compatibilidad de un legado de
dispositivos de una variedad incontable, en plena
explosión y desarrollo de los periféricos en los PCs,
sino que además habría que lidiar con todo un arco
iris de fabricantes y sistemas, que poco a poco se
organizarían e integrarían para sobrevivir sólo los
más fuertes. Aún años después, el término plug and
play sigue mostrando sorpresas con algunas
configuraciones o dispositivos, pero aquellos
primeros intentos felizmente quedaron atrás.

Una de las notas más contradictorias del nuevo SO


fue la inclusión de un navegador para Internet, el
Internet Explorer, como una utililidad más del
sistema. Esto no era más que el resultado de una
estrategia de mercado que Microsoft había aplicado
desde sus inicios: comprar las licencias de lo mejor
de la competencia para integrarla a su SO o
desarrollar su propia versión y ofrecerla gratis como
parte de su paquete completo, para desplazar al que
no quisiera vender. Comenzó la guerra de los
browsers, que finalmente ganaría el Explorer debido
a la abismal ventaja que le ofrecía llegar de manera
natural al ordenador con cada nueva instalación de
Windows.

Como resultado, a finales de 1997 el Departamento


de Justicia acusó a Microsoft de violar un acuerdo
fechado en 1994 al obligar a los fabricantes de
ordenadores que instalaban Windows 95 a la
inclusión de Internet Explorer. El Gobierno sostuvo
que la Compañía se aprovechaba de la posición en el
mercado de sus sistemas operativos para obtener el
control de los exploradores de Internet. Microsoft
afirmó que debía disponer del derecho de mejorar la
funcionalidad de Windows, integrando en el SO
funciones relacionadas con Internet. En plena guerra
de los browsers, otro gigante del software, la Sun
Microsystems, demanda a Microsoft ese mismo año,
alegando que había incumplido el contrato por el
que se le permitía utilizar el lenguaje de
programación universal JAVA, propiedad de Sun, al
introducir mejoras sólo compatibles en Windows. La
batalla legal de Microsoft en varias direcciones, con
victorias y derrotas para demandados y
demandantes, será algo que caracterizará a la
Compañía desde entonces.

Windows 95, a pesar de su "obligado" éxito no


estuvo exento de problemas prácticos. Con él,
Microsoft nos ató para siempre a su tradicional
política de los paquetes de servicio o service packs
para enmendar errores, huecos de seguridad o
adicionar mejoras, que las premuras del mercado no
habían permitido disponer a tiempo. Con él se
estrenaron las famosas "pantallas azules", muy
comunes entonces, ocasionadas en muchos casos
por un deficiente tratamiento de los manipuladores
de dispositivos o drivers. Con él, finalmente, se le dio
bienvenida a la desenfrenada carrera de poder de
cómputo y memoria, que provocó la obsolescencia
de muchos sistemas que habían sobrevivido durante
años.

La llegada de Windows 98 no marcó mucha


diferencia visual de su predecesor. Sin embargo, en
el fondo fue todo un mensaje de lo que Microsoft
haría para penetrar en el mercado de Internet y
barrer con los que habían dominado en este tema
hasta entonces. La indisoluble integración del WEB
con el escritorio, el llamado active desktop, la
interfaz a lo "HTML", los canales (que pocos
visitaron) y la persistente presencia del Explorer 4.0,
para situarse por vez primera a la cabeza de los
visualizadores de Internet, fueron rasgos distintivos
de esta versión.

El 98 incluyó utilidades para el tratamiento de FAT16


y su conversión a FAT32, mejor manejo de los discos
duros, manipulación múltiple de varios monitores,
una lista extendida de soporte plug and play
(¡extendida, sí, pero lejos de ser perfecta!), soporte
DVD, AGP, etc. A su vez la promesa de una mejora
sustancial en el tratamiento de los drivers de
dispositivos y en la disminución de los pantallazos
azules, que realmente cumplió y mejoró con la
versión SR1 (service release 1), tiempo después.

El Windows 98 se ha mantenido hasta nuestros días


y debe ser la última versión del SO que quede
vinculada a lo que fue la línea MS-DOS-Windows
(salvando la variante Millenium o Windows Me que
no ha convencido a nadie) hasta su total sustitución
por Windows 2000 y el XP, en una serie de
zigzagueantes cambios que deja a todos adivinando
si debe cambiar o no para la próxima versión. Pero
tras este errático rumbo, Microsoft persigue sólo
una cosa: conservar la supremacía de los SO de por
vida.

La saga NT

La misión del equipo de desarrolladores que trabajó


el NT estaba bien definida: construir un SO que
supliera las necesidades de este tipo de programa
para cualquier plataforma presente o futura. Con esa
idea, el equipo encabezado por un antiguo
programador de SO para máquinas grandes, se trazó
los siguientes objetivos: portabilidad en otras
arquitecturas de 32 bits, escalabilidad y
multiprocesamiento, procesamiento distribuido,
soporte API y disponer de mecanismos de seguridad
clase 2 (C2), según parámetros definidos por el
Gobierno estadounidense.

La robustez del sistema, fue un requisito a toda


costa: el NT debía protegerse a sí mismo de
cualquier mal funcionamiento interno o daño
externo, accidental o deliberado, respondiendo de
manera activa a los errores de hardware o software.
Debía ser desarrollado orientado al futuro, prever las
necesidades de desarrollo de los fabricantes de
equipos de cómputo, su adaptación tecnológica no
sólo al hardware, sino al propio software. Todo ello
sin sacrificar el desempeño y eficiencia del sistema.
En cuanto al certificado de seguridad, C2, debiera
cumplir con los estándares establecidos por éste
como la auditoría, la detección de acceso, protección
de recursos, etc. Así nació el Windows NT 3.5 allá por
el año 1994 y se introdujo poco a poco en un
mercado hasta ese momento desterrado para
Microsoft.

El NT 4.0 de nombre código Cairo, sale a luz en 1996.


Por ahí leíamos que el nuevo sistema operativo
cumplía una fórmula muy sencilla: tomar un NT 3.51,
sumarle los service packs 1, 2 y 3 y mezclarlo con una
interfaz a lo Windows 95 (incluido su recycle bin,
algo realmente útil para un sistema montado sobre
NTFS). Un pasó más en la integración del SO con
Internet lo dio el NT 4.0 al incluir Internet
Information Server, servidor de Microsoft para
soporte WEB, FTP, etc. como una utilidad más
dentro del paquete y que como la lógica indicaba
engranaba con éste a las mil maravillas al desplazar
en eficiencia y velocidad cualquier producto externo.
La cara "Windows 95" se sobrepuso a un inicio
incierto, ya que tuvo que vencer la desconfianza que
pudo haber generado. Téngase en cuenta que la
familia NT estaba orientada a un cliente en el que la
estabilidad y seguridad del sistema eran el requisito
número uno y ello contrastaba con la experiencia
que había tenido el 95. Sin embargo, el golpe fue
genial.
Por primera vez, Microsoft mezcló la solidez con el
fácil uso y desterró para siempre el concepto
impuesto hasta entonces de que para las grandes
compañías y las grandes empresas los servidores
debían ser cosa de científicos de bata blanca. El
crecimiento de los usuarios NT se multiplicó desde
ese momento. EL 4.0 se comercializaba en tres
versiones: Workstation, Server y Advanced Server
para tres variantes de clientes tipo, el profesional de
las ingenierías, incluido la informática, la pequeña y
mediana empresas y la gran empresa.

La convergencia

El cierre de los noventa y el inicio de siglo sorprendió


a Microsoft con serios problemas legales, promesas
de lanzamiento varias veces aplazadas y un nuevo
cambio de estrategia. Cuando se esperaba el 5.0
como el sucesor de gama alta, éste es renombrado
como Windows 2000 y la plataforma unificada en
una sola. El 14 de septiembre de 2000 sale el
Millenium, no como un sucesor del 98, sino como un
producto orientado al usuario doméstico (interfaz de
colores, mucha música y vídeo, soporte para redes
LAN inalámbricas, cortafuegos personales), nada del
otro mundo, con poca perspectiva de supervivencia,
aunque esto siempre es una incógnita. En cambio,
Windows 2000 es la alternativa actual para la
mayoría, en la fase justa de emigrar de un 95 ó 98.
Se ofrece en 4 clasificaciones: Windows 2000
Professional, Windows 2000 Server (anteriormente
NT Server), Windows 2000 Advanced Server
(anteriormente NT Advanced Server) y Windows
2000 Datacenter Server, un producto nuevo,
poderoso y muy específico con posibilidad de
manejo de hasta 16 procesadores simétricos y 64 Gb
de memoria física.

Pensamos que lo destacable de este paso estriba en


haber llevado la robustez, la seguridad y la
portabilidad que daba el NT al mercado masivo de
los PCs. Este ofrece una plataforma impresionante
para el trabajo en Internet, Intranet, manejo de
aplicaciones, todo muy bien integrado. La posibilidad
de soporte completo de redes, incluido redes
privadas virtuales, encriptación a nivel de disco o de
red y riguroso control de acceso son otras de sus
bondades.

La historia terminaría aquí... si hubiese sido escrita el


año pasado. No obstante, un nuevo producto, de
nombre código Whistler fue inaugurado en Nueva
York bajo las cuerdas de Sting, el 21 de octubre de
2003, el Windows XP. Bajo su manto, un kernel de 32
bits y la herencia natural de los manipuladores que
el NT y el 2000 han legado. Sin embargo incorpora
toda una gama nueva de herramientas y otra
filosofía de trabajo, siempre, claro está, con la red de
redes en su mira. Se dice que el XP es un upgrade
discreto del Windows 2000 y una piedra más en el
camino de Microsoft hacia su próximo gran SO, de
nombre código Blackcomb.

Hay dos cuestiones a destacar en el XP: primero que


parece ser la integración lógica y perfecta a su
plataforma de desarrollo para la red, eNET, promesa
paradisíaca para programadores y desarrolladores
de aplicaciones, que como nos comentaba un
profesor estudioso del tema, constituye el primer
gran esfuerzo de la compañía de Redmond en el cual
no ha intervenido la compra de una licencia a un
tercero. Segundo, la clave de habilitación en línea
para la activación del producto, que con la
justificación de evitar su copia ilegal pretende
mantener localizado y controlado a cada usuario del
sistema.

El predominio de Microsoft en la arena de los


sistemas operativos a escala masiva es
incuestionable. La visión de sus fundadores, sus
prácticas poco ortodoxas, así como los azares en su
largo camino, han hecho de Microsoft y su Windows,
en cualquiera de sus modalidades, un seguro
ganador en el presente y el futuro inmediato.
Esperemos que al hablar de la historia de la
computación, dentro de varios años, no tengamos
más alternativa que contar la de un único sistema
operativo. Eso sería imperdonable.

Ventana (informática)
Ir a la navegación
Ir a la búsqueda
Para otros usos de este término, véase ventana
(desambiguación).
Esquema de una ventana.
Ventanas en el ambiente GNOME.

En informática, una ventana es un área visual,


normalmente de forma rectangular, que contiene
algún tipo de interfaz de usuario, mostrando la
salida y permitiendo la entrada de datos para uno de
varios procesos que se ejecutan simultáneamente.
Las ventanas se asocian a interfaces gráficas, donde
pueden ser manipuladas con un puntero. La idea fue
desarrollada en el Xerox PARC.

Una interfaz gráfica de usuario (GUI) usa la ventana


como una de sus metáforas principales. Las ventanas
se representan casi siempre como objetos
bidimensionales colocados en un escritorio. La
mayoría de las ventanas pueden ser
redimensionadas, movidas, ocultadas, restauradas, y
cerradas a voluntad. Cuando dos se superponen, una
está encima de la otra, con la parte tapada de la
ventana de abajo no visible. De todas maneras,
muchos programas con interfaces de texto, como
Emacs, permiten su división en áreas denominadas
también ventanas. La parte de un sistema de
ventanas que controla esto se denomina
administrador de ventanas o gestor de ventanas.

Las ventanas son una característica (o widget) de


muchas interfaces gráficas de usuario (sobre todo las
de WIMP). CDE (para VMS), X Window System (para
sistemas GNU y Unix), Microsoft Windows y
OpenWindows son identificados por esta
característica.

Muchas aplicaciones con las que es posible trabajar


con más de un archivo a la vez, como un editor de
imágenes, ponen cada archivo en una ventana
separada de manera que todos los archivos están
visibles a la vez. Normalmente hay una distinción
entre la ventana principal de la aplicación y sus
ventanas hijas, así que a veces una aplicación de este
tipo fuerza a las ventanas a minimizarse en la parte
inferior de la ventana principal, en vez del lugar
preparado para eso por el sistema operativo.
Índice

1 Mac OS X
2 Windows
3 Otros administradores de ventanas
4 Propiedades de las ventanas
5 Tipos de ventanas
6 Foco
7 Modalidad
7.1 Ventana no modal
7.2 Ventana modal respecto a una aplicación
7.3 Ventana modal respecto al sistema

Mac OS X
En Mac OS X, las ventanas se minimizan a la parte
derecha del Dock, usando un efecto 'Genio a su
botella' o de zoom. Exposé permite a todas las
ventanas de una aplicación, o a todas las ventanas,
colocarse en la pantalla de modo que sea posible
verlas todas de una vez. Maximizar las ventanas
puede provocar que ocupen toda la pantalla o sólo
se maximicen verticalmente. Pulsar el botón de
cerrado hará que la ventana desaparezca, pero no
siempre cerrará la aplicación. Normalmente lo hará
si es una utilidad o programa que no genera
ventanas hijas (por ejemplo, iPhoto se cierra al
pulsar el botón; mientras que Safari no lo hace,
porque puede generar más de una ventana). no hay
bordes alrededor de los límites de la ventana (sólo
una sombra para arrastrar), así que el tamaño de la
ventana sólo se puede alterar desde la esquina
inferior derecha de la ventana, mientras que las
ventanas se pueden mover desde cualquier parte de
la interfaz.
Windows
En Microsoft Windows, las ventanas se minimizan a
la barra de tareas. Si se minimizan dos o más
ventanas de la misma aplicación, Windows XP las
agrupa en un solo objeto, y se puede seleccionar una
de las ventanas con un menú contextual. Maximizar
las ventanas hace que ocupen todo el espacio de la
pantalla, menos la barra de tareas. Pulsar el botón
de cerrado finaliza la aplicación, o cierra la ventana
si hay más pertenecientes al mismo programa. Hay
un borde delgado alrededor de todas las
ventanas(excepción windows 10) , y se usa para
modificar su tamaño. La ventana se puede mover
desde la barra de título.

En Windows se pueden abreviar los métodos del


teclado, se puede hacer un método abreviado para
minimizar las ventanas, reducir el tamaño, etc. o
copiar y pegar desde el teclado, por ejemplo:

⊞ Win+M: minimiza todas las ventanas abiertas.


Alt+F4: cierra la ventana actual.
Ctrl+C: copia el texto seleccionado.
Ctrl+X: corta el texto seleccionado. (Sólo si se
puede modificar y/o editar).
Ctrl+V: pega el texto copiado o cortado.

Otros administradores de ventanas

Los sistemas basados en Unix y Linux no tienen un


sistema de ventanas estándar. En muchos
administradores de ventanas para X11, la apariencia
y estado de las ventanas puede especificarse en la
opción de preferencias o en los archivos de
configuración.
Propiedades de las ventanas

Dependiendo del administrador de ventanas


utilizado, estas tienen un amplio conjunto de
propiedades que a menudo pueden ser modificadas
por el usuario:

Su tamaño.
Maximizar en el eje vertical, horizontal, o ambos.
Minimizar (normalmente las oculta y pone un
enlace en la barra de tareas o dock).
Visible en todos los escritorios. Si el administrador
de ventanas soporta escritorios virtuales, esto hace
que la ventana sea visible en todos los escritorios.
Dejar sólo la barra de título y oculta el resto de la
ventana.
Visibilidad de las barras de herramientas de la
ventana.
Transparencia (si el administrador de ventanas lo
soporta).
Siempre arriba, que evita que la ventana sea
tapada por otras.
Borde - presencia y apariencia.
Apariencia de la barra de título.

Normalmente es posible mover las ventanas en X11


manteniendo pulsada una tecla modificadora (como
Alt) y arrastrando cualquier parte de la ventana, o
usando la barra de título. Muchos administradores
de ventanas pueden agrupar ventanas para que
actúen como una sola, y los administradores de
ventanas en 3D, como Metisse y el Proyecto Looking
Glass permiten cambiar las propiedades
tridimensionales de una ventana, (como su rotación
en los ejes Y o Z).
Tipos de ventanas
Un cuadro de diálogo simple.

Los administradores de ventanas a menudo ofrecen


distintos tipos de ventanas, de acuerdo con sus
propiedades.

Ventanas de aplicación/documento - el tipo


normal de ventanas, que contienen documentos o
datos de aplicaciones.
Ventanas de utilidad, que flotan encima del resto y
ofrecen herramientas o información sobre la
aplicación.
Cuadros de diálogo: ventanas que dan información
al usuario o se la piden.
Inspectores: ventanas que están siempre encima
de otras ventanas de la misma aplicación. Se usan
para mostrar las propiedades de un elemento.
Foco

El administrador de ventanas necesita saber qué


ventana se desea utilizar. Por ejemplo, si dos
ventanas permiten la entrada de texto, el usuario
debe decirle al ordenador dónde debe colocar la
entrada del teclado. Esto se denomina poner el foco
en una ventana. A veces es necesario hacer clic en
una ventana para usarla, pero en algunos gestores
de ventanas «el foco sigue al puntero», al mover el
ratón sobre otra ventana esta se activa para su uso.
Los objetos dentro de la ventana requieren otro clic
para activarlos, para diferenciar los sitios en los que
se puede introducir información.
Modalidad

La modalidad de una ventana se refiere a como


mantiene ésta el foco respecto a las demás ventanas
del sistema. De acuerdo a su modalidad se clasifican
en:
Ventana no modal
Permite alternar el foco a cualquier otra ventana
presente dentro del entorno gráfico. Es el tipo más
común de modalidad.
Ventana modal respecto a una aplicación

Permite alternar el foco a otras ventanas del


sistema, pero no a la ventana que le da origen
(«ventana madre») hasta que se toma una acción
sobre ella. Normalmente se utilizan para confirmar
una acción del usuario, un ejemplo típico sería un
administrador de archivos que detiene una acción
del usuario pidiendo confirmación como «¿Desea
eliminar éste archivo? y las opciones de Aceptar y
Cancelar (O Borrar / No Borrar)».
Ventana modal respecto al sistema
Similar a la anterior, pero no cede el foco a ninguna
otra aplicación hasta que se toma determinada
acción sobre ella. Por regla general sólo deben surgir
cuando existe un evento a nivel del sistema
completo que exija atención inmediata del usuario,
por ejemplo «¿Desea apagar el equipo?».
SISTEMAS OPERATIVOS Y ENTORNOS AMIGABLES

1-FUNCIONES DEL SISTEMA OPERATIVO

Casi sin excepción, toda computadora tiene un


sistema operativo. Varían mucho según los distintos
modelos de computadora, pero el sistema operativo
siempre esta ahí.

Para la mayoría de los usuarios el sistema operativo


es la máquina. nunca ven una máquina �en bruto';
en vez de esto ven y utilizan la interfaz que presenta
el sistema operativo.

Una máquina en bruto es un dispositivo poco


agradable. Para que realice una determinada tarea,
requiere un programa en una representación binaria
específica del código particular de máquina.
En especial, necesita programas más o menos
complicados para manejar sus periféricos antes de
que pudiera siquiera comunicarse con el mundo
exterior.

En computadoras personales grandes, en


minicomputadoras y en macrocomputadoras, es
posible identificar cierto número de partes
individuales de software del sistema, la mayor parte,
destinadas a la preparación de programas: editores,
ensambladores, compiladores, editores de enlace,
etc.

Abarcando todo esto se encuentra el sistema


operativo. Dicho sistema se ha descripto como el
pegamento que mantiene juntos a todos los otros
componentes. También se le puede considerar lo
que proporciona una infraestructura: un medio
común en el cual los diferentes programas de
sistemas pueden operar, incluyendo los mecanismos
para comunicarse con los dispositivos periféricos.
Hace muchos año, quedó claro que debía
determinarse una forma de proteger a los
programadores de la complejidad del hardware. La
forma en que esto ha evolucionado de manera
gradual es colocando un nivel de software por arriba
del simple hardware, con el fin de controlar todas las
partes del sistema y presentar al usuario una interfaz
o máquina virtual que facilite la comprensión del
programa. Este nivel de software es el sistema
operativo.

es posible definir la función de un sistema operativo


como aquella que proporciona un medio para el
usuario de un sistema de computación, cualesquiera
que sean sus necesidades: desarrollo de programas,
control de procesos en tiempo real, manejo de base
de datos, nómina, etc.; En el caso de una
computadora personal sólo hay un usuario, y la
función única del sistema operativo es implantar la
interfaz con el usuario. en el caso de un sistema con
múltiples usuarios el sistema operativo debe
compartir los recursos a fin de proporcionar la
interfaz del usuario a cada uno de éstos.
2- CATEGORIAS DEL SISTEMA OPERATIVO

* Un solo usuario y múltiples usuarios: se explican


por sí mismos.

* Un sistema de multiprogramación es aquel en el


cual el procesador(es) disponible (s) (s) comparten
(por el sistema operativo) varios programas
corresidentes en la memoria principal, a fin de
mejorar la utilización de la C.P.U.

* Un sistema de alta prioridad - baja prioridad es un


sistema de un solo usuario en el cual dos programas
están multiprogramados. Uno (el de alta prioridad)
interactúa con la terminal y corre tanto como sea
posible; el programa de baja prioridad se asigna al
procesador siempre que el programa de alta
prioridad no pueda continuar. En cuanto el trabajo
de alta prioridad esté libre para continuar, lo hace.
Un sistema de alta prioridad - baja prioridad en un
caso particular de sistema de un solo usuario y
procesos múltiples.

Un sistema concurrente o de tareas múltiples es una


generalización del sistema de alta prioridad - baja
prioridad en la cual la persona que utiliza el sistema
de un sólo usuario puede iniciar cierto número de
trabajos concurrentes, asignando el exhibidor de la
terminal a cualquiera de los trabajos, según se
necesite.

Un sistema de tiempo compartido, es aquel que


comparte el procesador y la memoria entre cierto
número de programas, asociado cada uno con una
terminal interactiva remota, de manera tal que cada
usuario considera que tiene una máquina para el
solo.

* Un sistema de procesamiento de transacciones se


parece a un sistema de tiempo compartido ya que da
servicio a cierto número de terminales remotas. Sin
embargo, mientras que en un sistema de tiempo
compartido cada usuario remoto está asociado con
un programa distinto, y es independiente por
completo de las otras terminales y programas, en un
sistema. En un sistema Tiempo Compartido todas las
terminales están conectadas al mismo programa.
Este programa acepta transacciones provenientes de
sus terminales, las procesa y envía respuestas.

* Un sistema de aplicación general es un sistema de


múltiple usuarios que combinan procesamientos por
lotes, tiempo compartido y tal vez procesamiento de
transacciones en un sólo sistema( generalmente,
grande y complejo)

3- HISTORIA DE LOS SISTEMAS OPERATIVOS

La primera computadora digital real fue diseñada


por el primer matemático inglés Charles Babbage
(1792 - 1871). Nunca logró que funcionara de
manera adecuada, ya que ésta era un diseño
puramente mecánico y la tecnología de su época no
podía producir las ruedas, engranes, levas y demás
partes mecánicas con la precisión que él necesitaba.
No tenía Sistema Operativo.

1945 - 1955: la primera generación, bulbos y


conexiones

Después de los infructuosos esfuerzos de Babbage,


hubo poco progreso en la construcción de las
computadoras digitales, hasta la Segunda Guerra
Mundial. Se logró construir máquinas de cálculo
mediante bulbos. Éstas máquinas eran enormes y
llenaban cuartos complejos con decenas de miles de
bulbos, y eran mucho más lentas que la
computadora casera más económica en nuestros
días.

Un solo grupo de personas diseñaba, construía,


programaba, operaba y daba mantenimiento a cada
máquina.
No se oía de los sistemas operativos. El modo usual
de operación consistía en que el programador
reservaba cierto período en una hoja de reservación
pegada a la pared, iba al cuarto de la máquina,
insertaba su conexión en la computadora y pasaba
unas horas esperando que ninguno de los 20.000 o
más bulbos se quemara durante la ejecución.

1955 - 1965: La segunda generación: Transistores y


sistemas de procesamiento por lotes.

Ésta introducción del transistor a mediados de los


años cincuenta modificó en forma radical el
panorama. Las computadores se volvieron
confiables. Por primera vez, hubo una clara
separación entre los diseñadores, constructores,
operadores, programadores y personal de
mantenimiento.

Para ejecutar un trabajo, el programador debía


primero escribir el programa en hojas de papel para
después perforar las tarjetas. Después debía llevar el
paquete de tarjetas perforadas al cuarto de lectura y
dárselas a uno de los programadores.

Dado el alto costo del equipo, no debe sorprender el


hecho de que las personas buscaron en forma por
demás, rápida, vías para reducir el tiempo invertido.
La solución que, por lo general se adoptó, fue la de
sistema de procesamiento por lotes.

1965 - 1980: La tercera generación: Circuitos


Inttegrados y Multiprogramación

A principios de la década de los sesenta, estaban las


computadoras científicas de gran escala, orientadas
a palabras como la 7094, la cual se utilizaba en
cálculos científicos y de ingeniería. Por otro lados,
estaban las computadoras comerciales, orientadas a
caracteres, como la 1401, de uso común para el
ordenamiento de cintas a impresión por los bancos y
las compañías aseguradoras.
El desarrollo y mantenimiento de dos líneas de
productor completamente distintas era una
propuesta cara para los fabricantes.

I.B.M. intentó resolver ambos problemas a la vez;


para ello, introdujo el sistema 360. El 360 era una
serie de máquinas con software compatible, con un
rango desde la 1401 hasta máquinas más poderosas
que la 7094.

La 360 fue la primera línea principal de


computadoras que utilizo los circuitos integrados ( a
pequeña escala), lo que proporciono una gran
ventaja de precio y desempeño con respecto de las
maquinas de la segunda generación, construidas a
partir de transistores individuales.

No había forma de que IBM (o cualquier otra


empresa) pudiera escribir un pedazo de software
que cumpliera con todos los requisitos en conflicto.
El resultado fue un sistema operativo enorme y
extraordinariamente complejo. También
popularizaron varias técnicas fundamentales,
ausentes de los sistemas operativos de la segunda
generación, de las cuales la mas importante tal vez
sea la multiprogramación .

Otra de las características principales de los sistemas


operativos de la tercera generación era la capacidad
de leer trabajos de las tarjetas de discos, tan pronto
como llegaron al cuarto de computo,

Así, siempre que concluyera un trabajo, el sistema


operativo podía cargar un nuevo trabajo del disco en
la partición que quedara desocupada y ejecutarlo.
Esta técnica se llama SPOOLiING y también se utilizo
para las salidas. Con el spooling, las 1401 ya no
fueron necesarias y desapareció el transporte de las
cintas de un lado al otro,

Aunque los sistemas operativos de la tercera


generación eran adecuados para los grandes cálculos
científicos y la ejecución de un procesamiento por
lotes.
Con los sistemas de tercera generación, el tiempo
transcurrido entre el envío de un trabajo y la
obtención de la salida era a menudo de varias horas.

Este deseo de una rápida respuesta preparo el


camino para el tiempo compartido, variante de la
multiprogramación en la que cada usuario tenia una
terminal en línea.

Otro desarrollo fundamental durante la tercera


generación fue el crecimiento fenomenal de las
minicomputadoras.

Ken Thompson, se encontró una pequeña


minicomputadora PDP-7 que nadie utilizaba e
intento escribir una versión desprotegida de multics
para un solo usuario.

Este trabajo desemboco en el sistema operativo


UNIX, que en la actualidad domina los mercados de
las minicomputadoras y estaciones de trabajo.
3-d 1980-1990: La cuarta generación: Computadoras
personales

Con el desarrollo de los circuitos LCI (Large Scale


Integracion) , chips con miles de transistores en un
centímetro cuadrado de silicio, se inicio la era de la
computadora. Las computadoras personales no eran
muy distintas de las minicomputadoras del tipo de la
PDP-11, pero en términos del precio si eran distintas.

Las computadoras personales mas poderosas


utilizadas por empresas, universidades e
instalaciones de gobierno reciben el nombre de
ESTACIONES DE TRABAJO, pero en realidad solo son
computadoras personales grandes.

Un interesante desarrollo que comenzó a llevarse a


cabo a mediados de la década de los ochenta ha sido
el crecimiento de las redes de computadoras
personales con sistemas operativos de red y
sistemas operativos distribuidos. En un sistema
operativo de red, los usuarios están conscientes de
la existencia de varias computadoras y pueden
conectarse con maquinas remotas y copiar archivos
de una maquina a otra. Cada maquina ejecuta su
propio sistema operativo local y tiene su propio
usuario.

Por el contrario, un sistema operativo distribuido es


aquel que aparece ante sus usuarios como un
sistema tradicional de un solo procesado, aun
cuando este compuesto por varios procesadores. En
un sistema distribuido verdadero, los usuarios no
deben ser conscientes del lugar donde su programa
se ejecute o del lugar donde se encuentran sus
archivos; eso debe ser manejado en forma eficaz y
automática por el sistema operativo.

Estructura de los sistemas operativos

Examinaremos cuatro estructuras distintas.

Sistemas monolíticos
Este tipo de organización es la mas común: La
estructura consiste en que no existe estructura
alguna.

El sistema operativo se escribe como una educación


de procedimientos, cada uno de los cuales puede
llamar a los demás cada vez que así lo requiera
cuando se usa esta técnica, cada procedimiento del
sistema tiene una interfaz bien definida en términos
de parámetros y resultados y cada uno de ellos es
libre de llamar a cualquier otro si estos últimos
proporciona cierto calculo útil para el primero.

Para construir el programa objeto real del sistema


operativo mediante este punto de vista uno compila
en forma individual los procedimientos o los
archivos que contienen los procedimientos y
después los enlaza en un solo archivo objeto con el
ligador. En términos del ocultamiento de la
información, esta es prácticamente nula: Cada
procedimiento es visible a los demás.
Los servicios que proporcionan el sistema operativo
se solicita colocando los parámetros bien definidos,
como en los registros o en la pila, para después
ejecutar una instrucción especial de trampa de
nombre llamada al núcleo o llamada al supervisor.

Esta instrucción cambia la maquina del modo


usuario al modo núcleo y transfiere el control al
sistema operativo.

El sistema operativo examina entonces los


parámetros de la llamada para determinar cual de
ellos se desea realizar; A continuación, el sistema
operativo analiza una tabla que contiene en la
entrada un apuntador al procedimiento que realiza
la k-esima llamada al sistema. Esta operación
identifica el procedimiento de servicio, al cual se
llama. Por ultimo, la llamada al sistema termina y el
control regresa al programa del usuario.
Esta organización sugiere una estructura básica del
sistema operativo:

1- Un programa principal se llama al procedimiento


del servicio solicitado.

2- Un conjunto de procedimiento de servicios que


lleva a cabo las llamadas al sistema.

3- Un conjunto de procedimientos utilitarios que


ayudan al procedimiento de servicio.

Sistemas con capas

Consiste en organizar el sistema operativo como una


jerarquía de capas, cada una construida sobre la
inmediata inferior. El mismo sistema construido de
esta manera fue el sistema THE desarrollado en
Holanda.
El sistema tenia seis capas como se muestra en la
figura. La capa 0 con la asignación del proceso t
alterna entre los procesos cuando ocurren las
interrupciones o expiran los cronómetros sobre la
capa 0, el sistema consta de procesos secuenciales,
cada uno de los cuales se podía programar sin tener
que preocuparse por el hecho de que varios procesos
estuvieran en ejecución en el mismo procesador. En
otras palabras la capa 0 proporcionaba la
multiprogramacion basica de la CPU.

La capa 1 realizaba la administración de la memoria.


Por encima de la capa 1, los procesos no debían
preocuparse se estaban en la memoria o en el
recipiente; el software de la capa 1 se encargaba de
garantizar que las paginas llegaran a la memoria
cundo fueran necesarias

CAPAS

------------------------------------------------------------------------
---------------------------
5 El procesador

------------------------------------------------------------------------
---------------------------

4 Programas del usuario

------------------------------------------------------------------------
---------------------------

3 Control de entrada/ salida

------------------------------------------------------------------------
--------------------------

2 Comunicación operador - proceso

------------------------------------------------------------------------
--------------------------
1 Administración de la memoria y del disco

------------------------------------------------------------------------
--------------------------

0 Asignación del procesador y multiprogramación

------------------------------------------------------------------------
--------------------------

La capa 2 se encarga de la comunicación entre cada


proceso y la consola del operador . La capa 3
controla los dispositivos E/S y guarda en almacenes
(buffers) los flujos de información entre ellos. Por
encima de la capa tres cada proceso puede trabajar
con dispositivos de E/S con propiedades adecuadas,
en vez de dispositivos reales con muchas
peculiaridades. La capa 4 es donde estaban los
programas del usuario. Estos no tenían que
preocuparse por el proceso, memoria, consola o
control de E/S . El proceso operador del sistema se
localizaba en la capa 5.

Una generalización mas avanzada del concepto de


capas se presento en el sistema MULTICS. En lugar
de capas, MULTICS estaba organizado como una
serie de anillos concéntricos, siendo los anillos
interiores los privilegiados, cuando un
procedimiento de un anillo exterior deseaba llamar a
un procedimiento de un anillo exterior debía hacer
el equivalente a una llamada al sistema; es decir;
una instrucción TRAP cuyos parámetros eran
validadas con cuidado antes de permitir que
procediese la llamada. Aunque todo el sistema
operativo era parte del espacio de direcciones de
cada proceso del usuario en MULTICS, el hardware
posibilito el diseño de procedimientos individuales
(segmentos de memoria, en realidad) de forma
protegida contra la lectura , escritura o ejecución.

Maquinas virtuales
Son versiones iniciales de OS/360 eran, en sentido
estricto, sistemas de procesamiento por lotes. Sin
embargo, muchos de los usuarios de 360 deseaban
tener tiempo compartido.

El sistema de tiempo compartido oficial de IBM,


tSS/360, tuvo una entrada retrasada y cuando
finalmente apareció era tan grande y lento que
pocos lugares lo adoptaron

Este sistema cuyo nombre original era CP/CMS y que


ahora se llama VM/370 se baso en una observación
astuta: un sistema de tiempo compartido
proporciona multiprogramación y una maquina
extendida con una interfaz mas conveniente que el
mero hardware. La esencia de Vm/370 es la total
separación entre estas dos funciones.

El corazón del sistema, llamado monitor de la


maquina virtual se ejecuta en el hardware simple y
realiza la multiprogramación , proporcionando no
una, sino varias maquinas virtuales a la siguiente
capa superior; Sin embargo, la diferencia de los
demás sistemas operativos, estas maquinas virtuales
no son maquinas extendidas con archivos u otras
características adecuadas. En lugar de esto, son
copias exactas de hardware simple, con su modo
núcleo/usuario, interrupciones y todo lo demás que
posee la maquina real.

Puesto que cada maquina virtual es idéntica al


hardware real , cada una puede ejecutar cualquier
sistema operativo que se ejecute en forma directa
sobre el hardware.

Las distinta maquinas virtuales pueden, y por lo


general lo hacen , ejecutar distintos sistemas
operativos.

Cuando un programa CMS ejecuta una llamada al


sistema, la llamada es atrapada por el sistema
operativo en su propia maquina virtual, no a
VM/370, de la misma forma en que lo haría si se
ejecutar en una maquina real en vez de una virtual.
CMS proporciona entonces las instrucciones
normales de E/S en hardware para la lectura de
disco virtual lo necesario para llevar adelante la
llamada. Estas instrucciones de E/S son atrapadas
por VM/370, que entonces las lleva a cabo como
parte de al simulación del hardware verdadero. Al
hacer una separación total de las funciones de
multiprogramación y proporcionar una maquina
extendida , cada una de las partes puede ser mas
sencilla, flexible y tener un fácil mantenimiento.

Modelo cliente - servidor

VM/370 gano mucho en sencillez al trasladar gran


parte del código tradicional del sistema operativo (al
implantar la maquina extendida) en una capa
superior, CMS.

Sin embargo, VM/370 sigue siendo un programa


complejo, puesto que la simulación de varios 370
virtuales no es tan simple (en especial si usted desea
que todo sea eficaz).
Una tendencia de los sistemas operativos modernos
es la de explorar mas esta idea de mover el codigo a
capas superiores y eliminar la mayor parte posible
del sistema operativo para mantener un nucleo
mínimo. El punto de vista usual es el de implantar la
mayoría de las funciones del sistema operativo en
los procesos del usuario.

Para solicitar un servicio, como la lectura de un


bloque de cierto archivo, un proceso del usuario
(denominado en este caso proceso cliente) envía la
solicitud a un proceso servidor, que realiza entonces
el trabajo y regresa la respuesta.

Otra de las ventajas del modelo cliente- servidor es


su capacidad de adaptación para su uso en los
sistemas distribuidos.

Algunas funciones del sistema operativo (como el


cargado de comandos en los registros físicos del
dispositivo de E/S) son difíciles, si no es que
imposibles de realizar a partir de programas del
usuario. Existen dos formas de enfrentar este
problema. Una es la de hacer que algunos procesos
de servidores críticos se ejecuten en realidad en
modo núcleo, con acceso total al hardware pero de
forma que se comuniquen con los demás procesos
mediante el mecanismo normal de mensajes.

La otra forma es la de construir una cantidad mínima


de mecanismos dentro del núcleo, pero
manteniendo las decisiones de política relativas a los
usuarios dentro del espacio del usuario

4 -PROCESOS

La CPU ejecuta una elevada cantidad de programas,


y aunque su principal ocupación es la ejecución de
los programas, también se requiere para otras
actividades del sistema. A estas actividades se las
denomina procesos.
Un proceso es la unidad de trabajo dentro de un
sistema.

Proceso secuencial

Es un programa en ejecución. La ejecución de un


proceso debe proceder en forma secuencial, en
cualquier momento se ejecuta como máximo una
instrucción en nombre del proceso. Un proceso es
más que el código del programa aunado a la
actividad que se desarrolle, por lo general, incluye
tambien la pila del proceso que contiene datos
temporales y una sección de datos con variables
globales.

Un proceso es una entidad activa.

Estado de un proceso
El estado de un proceso se define en parte por la
actividad de este proceso y cada proceso secuencial
puede encontrarse en uno de los siguientes estados

• En ejecución: las instrucciones se están


ejecutando.

• En espera: el proceso está esperando a que


ocurra algún suceso.

• Listo: el proceso está esperando que se le


asegure a un procesador.

Bloque de control de procesos

Un bloque de control de procesos, es un registro de


datos que contiene diversa información relacionada
con un proceso concreto que incluye

• Estado del proceso


• Contador del programa

• Registros de la CPU

• Información de la planificación de la CPU

• Información de la administración de memoria.

• Información contable.

• Información del estado de la E/S.

Procesos concurrentes

Los procesos pueden ejecutarse concurrentemente.

Existen varias razones para permitir la ejecución


concurrente
• Compartir recursos físicos.

• Compartir recursos lógicos.

• Acelerar los cálculos.

• Modularidad.

• Comodidad.

Creación de procesos

Un proceso puede crear varios procesos nuevos a


través de una llamada al sistema para la creación de
procesos.

El proceso que crea se lo llama padre y al creado


hijo.
Si un proceso crea otro nuevo, hay dos alternativas
habituales de implantarlo.

• El padre continua su ejecución


concurrentemente con los hijos.

• El padre espera o que sus hijos hayan


terminado. En general el proceso necesitará recursos
(memoria o archivos) cuando crea un subproceso,
este último puede obtener recursos directamente
del sistema operativo que queda restringido a su
padre.

4.2 TERMINACION DE PROCESOS

El proceso termina cuando concluye la ejecución de


su último enunciado y solicita al sistema operativo
que elimine el proceso.
Un proceso puede provocar la terminación de otro a
través de la llamada al sistema apropiado.

Varios sistemas no permiten que los hijos existan si


los padres han terminado. En estos sistemas cuando
el padre termina, también deben terminar los hijos A
éste fenómeno se lo denomina terminación en
cascada.

RELACION ENTRE PROCESOS

Un proceso puede ser independiente si no puede


afectar o ser afectado por los otros procesos que se
ejecutan. Tiene las siguientes características:

• Su estado no es compartido de ninguna


manera por otro proceso.

• Su ejecución es determinista, es decir, el


resultado de la ejecución depende en exclusiva del
estado de entrada.
• Su ejecución es reproducible, es decir, el
resultado de la ejecución será el mismo para una
misma entrada.

• Su ejecución puede detenerse o renunciarse


sin ocasionar efectos adversos.

Un proceso es cooperativo cuando:

• Su estado es compartido por otros procesos.

• El resultado de su ejecución depende de una


secuencia de ejecución relativa.

• El resultado de su ejecución no es
determinista.

4.3 PLANIFICACION
Los beneficios de la multiprogramación son un
aumento de la utilización de la CPU. La productividad
es la cantidad de trabajo desarrollado en intervalo
de tiempo.

Colas de planificación

Conforme los procesos entran en el sistema, se


colocan en una cola de trabajos formada por todos
los procesos que residen en almacenamiento
secundario esperando la aseguración de la memoria
principal.

Planificadores

En un sistema por lotes se presentan mas procesos


que los que se pueden ejecutar de inmediato, estos
procesos se envian a un "spooler" en un dispositivo
de almacenamiento masivo. El planificador a corto
plazo selecciona uno de los procesos de éste
depósito y los carga en memoria para su ejecución.
El planificador a corto plazo selecciona uno de los
procesos listos para la ejecución y le asegura la cpu.

La diferencia entre los planificadores es la frecuencia


de su ejecución.

El planificador a largo plazo controla el grado de


multiprogramación si, éste es estable, entonces la
tasa promedio de creación de promedios debe ser
igual a la tasa promedio de salida de procesos. En
algunos sistemas es posible que no existan
planificadores a largo plazo o que su función sea
mínima.

Planificación de la CPU

Es una función fundamental del sistema operativo.


Casi todos los recursos de un computador se
planifican antes de usarse.
Siempre que la CPU queda inactiva, el sistema
operativo debe seleccionar para su ejecución uno de
los procesos de la cola de procesos listos y le asegura
la CPU. Esta cola no es necesariamente "primero que
entra, primero que sale".

Las decisiones de planificación pueden efectuarse en


4 circunstancias.

1. Cuando un proceso cambia del estado de


ejecución, al estado de espera.

2. Cuando un proceso cambia del estado de


ejecución al estado de listo.

3. Cuando un proceso cambia del estado de


espera al estado de listo.

4. Cuando termina el proceso.

Algoritmos de planificación
Los criterios que se emplean para la utilización de los
algoritmos son los siguientes:

• Utilización de la CPU, queremos que la CPU se


mantenga tan ocupado como sea posible (entre un
%40 y %90).

• Productividad, una medida del trabajo es el


número de procesos que se completan por unidad de
tiempo.

• Tiempo de retorno, el tiempo de retorno es el


intervalo entre el momento de ofrecer el proceso y
el momento de aceptarlo.

• Tiempo de espera, es el tiempo de espera para


cada proceso.

• Tiempo de respuesta, es la calidad de tiempo


para comenzar a responder.
Es deseable maximizar la utilización de la CPU y la
productividad, y minimizar los tiempos de respuesta,
retorno y espera.

Hay varios algoritmos para la planificación de la CPU:

• Planificación servicio por orden de llegada

Es definitivamente el más sencillo. Con este


esquema el proceso que primero solicita la CPU es al
primero que se le asegura.

El código para la planificación es sencillo de escribir y


comprender.

El tiempo de espera promedio es bastante largo. Es


especialmente conflictivo en los sistemas de tiempo
compartido.
• Planificación "Primero el trabajo mas breve"

Asocia a cada proceso la longitud de su siguiente


ráfaga de CPU. Cuando la CPU está disponible, se le
asegura al proceso que tiene la ráfaga más corta. Si
dos procesos tienen la misma longitud se utiliza el
orden de llegada.

Este tipo de planificación se utiliza frecuentemente.


No puede usarse en planificación a corto plazo.

• Planificación por prioridades

Se asocia una prioridad a cada proceso y la CPU se


asegura al de mayor prioridad. Los de igual prioridad
se ordena por orden de llegada.

Las prioridades pueden definirse interna o


externamente.
El serio problema de este tipo de algoritmos es el
bloqueo indefinido o inanición. Un proceso de baja
prioridad puede quedar esperando indefinidamente.

• Planificación circular

Está diseñada especialmente para sistemas de


tiempo compartido.

Se define una pequeña unidad de tiempo. La cola de


procesos listos se trata como una cola circular, el
planificador la recorre asegurando la UCP o cada
proceso por intervalo de hasta un cuanto tiempo.

Mantenemos la cola de procesos listos, como una


cola. Primero entrada primero salida. El planificador
toma el primer proceso de la cola programa un
cronometro para que interrumpa después de un
tiempo y despache el proceso.

• Planificación de múltiples niveles


Este algoritmo divide la cola de procesos listos en
diversa colas. Los procesos se aseguran a una cola.
Cada cola tiene su propio algoritmo de planificación.
Debe existir planificación entre las colas. Cada cola
tiene prioridad absoluta sobre las colas de menor
prioridad.

4.4 COORDINACION DE PROCESOS

Un proceso productor genera información que será


aprovechada por un proceso consumidor. Para
permitir que se genere concurrentemente, debemos
crear un depósito (pool) de buffers que puede llenar
el productor y vaciar el consumidor.

El problema del productor - consumidor con buffers


ilimitado, no establece limite en el número de
buffers: el consumidor puede tener que esperar
nuevos elementos, pero el productor siempre puede
producirlos por que siempre hay buffers vacios. El
problema de buffers limitado, supone un número fijo
de buffers y el productor puede tener que esperar si
están llenos y el consumidor si están vacios.

EL PROBLEMA DE LA SECCION CRITICA

Cada proceso tiene un segmento de código llamado


sección crítica en el cual el proceso puede estar
modificando variables comunes, actualizando una
tabla, escribiendo en un archivo,etc. La ejecución de
las secciones críticas de los procesos es mutuamente
excluyente en el tiempo.

Una solución para la sección crítica debe cumplir con


tres requisitos:

1. EXCLUSION MUTUA: Si un proceso se está


ejecutando en su sección crítica ningún otro proceso
se puede estar ejecutando en la suya.

2. PROGRESO: Si ningún proceso se está


ejecutando en su sección y hay otros procesos que
desean entrar en las suyas, entonces sólo aquellos
procesos que no se están ejecutando en su sección
restante pueden participar en la decisión de cuál
será el siguiente en entrar en la sección crítica, y esta
selección no puede postergarse indefinidamente.

3. ESPERA LIMITADA: Debe haber un límite en el


número de veces que se permite que los demás
procesos entren en su sección crítica después de que
un proceso haya efectuado una solicitud para entrar
en la suya y antes de que se conceda esa solicitud.

HARDWARE DE SINCRONIZACION

Como resolver el problema de la sección crítica?

El problema de la sección crítica puede solucionarse


simplemente evitando que ocurran interrupciones
mientras se modifica una variable compartida, pero
por desgracia no siempre es factible esta solución.
Por esto, muchas máquinas ofrecen instrucciones de
hardware especiales que permiten evaluar y
modificar el contenido de una palabra o
intercambiar automáticamente el contenido de dos
palabras.

Semáforos

Las soluciones al problema de la sección crítica a


veces no son tan sencillos de generalizar es por eso
que se puede utilizar una herramienta de
sincronización llamada semáforo.Un semáforo S es
una variable entera a la que, salvo por la asignación
de valores iniciales, sólo puede accederse mediante
dos operaciones atómicas comunes: espera y señal.
Las modificaciones al valor entero del semáforo en
las operaciones espera y señal se ejecutan
indivisiblemente. Es decir, cuando un proceso
modifica el valor del semáforo, ningún otro proceso
puede modificar simultáneamente ese mismo valor.

Implantación
La principal desventaja de las soluciones para el
problema de la sección crítica es que todas requieren
una espera activa. Mientras un proceso se encuentra
en su sección crítica, cualquier otro proceso que
intente entrar en esa sección deberá ejecutar un
ciclo continuo en la sección de entrada. La espera
activa desperdicia ciclos de CPU que otros procesos
podrían usar productivamente. A éste tipo de
semáforos se los llama cerradura giratoria. La
ventaja de una cerradura giratoria es que no es
necesario efectuar un cambio de contexto cuando el
proceso debe esperar a una cerradura. Por esto,
cuando se espera que las cerraduras tengan una
duración muy breve, las cerraduras giratorias son
bastante útiles.

Para superar la necesidad de la espera activa,


podemos modificar la definición de las operaciones
espera y señal del semáforo. Cuando un proceso
ejecuta la operación espera y encuentra que el valor
del semáforo no es positivo, debe esperar, pero
puede bloquearse a si mismo para no esperar
activamente.Un proceso bloqueado debe reiniciarse
con la ejecución de una señal de otro proceso. La
operación bloquear suspende al proceso que la
invoca. La operación despertar reanuda la ejecución
de un proceso bloqueado.

Debemos garantizar que dos procesos no pueden


ejecutar operaciones espera y señal al mismo tiempo
en el mismo semáforo.

Bloqueos mutuos y bloqueos indefinidos

La implantación de un semáforo con cola de espera


puede dar como resultado una situación donde dos o
más procesos esperen indefinidamente un suceso
que solo puede ocasionar uno de los procesos de
espera. Cuando se llega a este estado, se dice que los
procesos están el bloqueo mutuo.

Decimos que un conjunto de procesos está en


bloqueo mutuo cuando uno de los procesos del
conjunto está esperando un suceso que solamente
puede ser provocado por otro proceso del conjunto.
PROBLEMAS CLASICOS DE SINCRONIZACION

El problema del buffer limitado

El problema del buffer limitado se presentó


anteriormente y se usa habitualmente para ilustrar
el poder de las operaciones primitivas de
sincronización.

El problema de lectores y escritores

Un objeto de datos va a ser compartido por varios


procesos concurrentes. Algunos solo quieren leer el
contenido del objeto compartido, mientras que otros
quieren actualizarlo. Distinguimos estos dos tipos de
procesos llamándolos lectores y escritores
respectivamente. Para que no surjan conflictos es
necesario que los escritores tengan acceso exclusivo
al objeto compartido. El problema de los lectores y
escritores tiene distintas variantes, todas
relacionadas con prioridades.
CONSTRUCCIONES LINGUISTICAS

Aunque los semáforos ofrecen un mecanismo


adecuado y eficaz para la sincronización de procesos,
si se utilizan incorrectamente pueden surgir errores
de sincronización difíciles de detectar, ya que estos
errores suceden sólo si se presenta una determinada
secuencia de ejecuciones, y ni siempre aparecen
estas secuencias.

Estas dificultades se presentarán incluso si un solo


proceso no se comporta adecuadamente. Esta
situación puede ser el resultado de un error
involuntario de programación o de un programador
poco cooperativo.

Para tratar el tipo de errores que hemos


mencionado, los investigadores han presentado
muchas construcciones lingüísticas, y a continuación
describiremos varias de ellas.
• REGIONES CRITICAS: La primera construcción
de sincronización de alto nivel es la región crítica. Las
construcciones de la región crítica protegen contra
algunos de los errores mas sencillos que se puede
llegar a cometer en cuanto a la solución con
semáforos para el problema de la sección crítica. Si
ocurren errores en la lógica del programa, quizá no
sea tan sencillo reproducir una secuencia concreta
de sucesos.

• MONITORES: Otra construcción de alto nivel


para la sincronización es el tipo monitor el cual se
caracteriza por un conjunto de operadores definidos
por el programador. Los distintos procesos no
pueden usar directamente la representación de un
tipo monitor, por lo que un procedimiento definido
dentro de un monitor sólo puede tener acceso a las
variables declaradas localmente y a los parámetros
formales. La construcción monitor asegura que sólo
un proceso a la vez puede estar activo en el monitor.
Para establecer lo correcto de este sistema se deben
comprobar dos condiciones. Primero, los procesos
de usuario siempre deberán efectuar sus llamadas al
monitor en el orden correcto. Segundo, debemos
asegurar que un proceso poco cooperativo no ignore
la puerta de exclusión mutua que ofrece el monitor y
trate de llegar directamente al recurso, sin utilizar
los protocolos de acceso. Sólo si se aseguran estas
dos condiciones podremos garantizar que no
ocurrirán errores dependientes del tiempo y que no
se burlará el algoritmo de planificación.

COMUNICACION ENTRE PROCESOS

Principalmente hay dos esquemas complementarios


de comunicación: sistemas de memoria compartida y
de mensajes. Los sistemas de memoria compartida
requieren que los procesos comunicantes compartan
algunas variables. Se espera que los procesos
intercambien información por medio de estas
variables compartidas. En un sistema de memoria
compartida, la responsabilidad de proporcionar la
comunicación recae sobre los programadores de
aplicaciones. El método del sistema de mensajes
permite que los procesos intercambien mensajes.
La función de un sistema de mensaje es permitir que
los procesos se comuniquen entre sí sin tener que
recurrir a variables compartidas. Un medio para la
comunicación facilita basicamente dos operaciones
"enviar" y "recibir".

4.5 NOMINACION

Los procesos que desean comunicarse deben tener


una manera de referirse unos a otros. Pueden
utilizar la comunicación directa o la comunicación
indirecta.

Comunicación directa: Cada proceso que desea


enviar o recibir un mensaje debe nombrar
explícitamente al receptor o emisor de la
comunicación. Un enlace de este esquema posee las
siguientes características:

• Se establece un enlace automáticamente entre


cada par de procesos que quieren comunicarse. Sólo
necesitan saber la identidad del otro.
• Un enlace está asociado a dos procesos
exactamente.

• Hay un solo enlace entre cada par de procesos.

• El enlace es bidireccional.

Comunicación Indirecta: Los mensajes se envian y


reciben usando buzones. Cada buzón tiene una
denominación única. Dos procesos pueden
comunicarse solamente si comparten un buzón.

• Se establece enlace solamente si comparten


buzón.

• Un enlace puede asociarse a más de dos


procesos.
• Entre cada par de procesos en comunicación,
puede haber varios enlaces diferentes.

• Un enlace puede ser unidireccional o


bidireccional.

Un buzón puede pertenecer a un proceso o al


sistema. Si pertenece a un proceso, entonces
hacemos una distinción entre el dueño y el usuario
del buzón. Cuando termina un proceso dueño de un
buzón, éste desaparece .

Un buzón que pertenece al sistema operativo tiene


existencia propia, es independiente y no está unido a
un proceso en particular.

4.6 UTILIZACION DE BUFFERS

Un enlace tiene cierta capacidad que determina el


número de mensajes que puede contener
temporalmente. Esta propiedad puede considerarse
como una cola de mensajes unidas al enlace.

• Capacidad cero: La cola tiene una longitud 0,


de modo que el enlace no puede tener a ningún
mensaje esperando.

• Capacidad limitada: El enlace tiene una


capacidad finita. Si el enlace está lleno, el emisor
debe demorarse hasta que haya espacio disponible
en la cola.

• Capacidad ilimitada: La cola tiene una longitud


potencialmente infinita, por lo que en ella puede
esperar cualquier número de mensajes. El emisor
nunca se demora.

CONDICIONES DE EXCEPCION

Un sistema de mensajes es particularmente útil en


un entorno distribuido, donde los procesos pueden
residir en distintas instalaciones (máquinas).En este
entorno es mucho mas probable que ocurra un error
durante la comunicación que en un entorno con una
sola máquina.

• Mensajes perdidos

• Mensajes alterados: El mensaje puede llegar a


su destino, pero alterarse por el camino. Esta
situación es similar a la de mensaje perdido. El
sistema operativo retransmitirá el mensaje original o
notificará este suceso al proceso.

EJEMPLO: MACH

Ejemplo de un sistema operativo basado en


mensajes. Hay operaciones de envío y recepción
bastante flexibles. Cuando un mensaje se envía a un
buzón, éste puede estar lleno. Si no lo está, el
mensaje se copia al buzón y el hilo emisor continua.
Si el buzón está lleno, el hilo emisor tiene cuatro
opciones:
1. Esperar indefinidamente hasta que hay espacio
en el buzón.

2. Esperar como máximo n milisegundos.

3. No esperar sino regresar de inmediato.

4. Se puede entregar un mensaje al sistema


operativo para que lo guarde aunque el buzón esté
lleno

4.7 BLOQUEOS MUTUOS

En un entorno de multiprogramación varios procesos


pueden competir por un número finito de recursos.
Un proceso solicita recursos, y si en ese momento no
están disponibles, el proceso entra en un estado de
espera. Puede suceder que los procesos en espera
nunca cambien de estado, porque los recursos que
solicitan están en poder de otros procesos también
en espera. A esta situación se le llama bloqueo
mutuo.

MODELO DEL SISTEMA

Un proceso debe solicitar un recurso antes de usarlo


y liberarlo al terminar su uso. Puede solicitar cuantos
recursos requiera para llevar a cabo su tarea.

1. Solicitud: Si la solicitud no puede atenderse de


inmediato entonces el proceso solicitante debe
esperar hasta que pueda adquirir el recurso.

2. Utilización: El proceso puede trabajar con el


recurso

3. Liberación: El proceso libera al recurso.

Un conjunto de procesos se encuentra en estado de


bloqueo mutuo cuando cada uno de ellos espera un
suceso que sólo puede originar otro proceso del
mismo conjunto.

CARACTERIZACION DE LOS BLOQUEOS MUTUOS

Una situación de bloqueo mutuo puede surgir por las


siguentes cuatro razones:

1. Exclusión Mutua

2. Retención y espera

3. No apropiación

4. Espera circular

Subrayamos que se deben presentar las cuatro


condiciones para que pueda aparecer un bloqueo
mutuo. La condición de espera circular implica la
condición de retención y espera, por lo que las
cuatro condiciones no son completamente
independientes.

METODOS PARA MANEJAR BLOQUEOS MUTUOS

Existen dos métodos principales para tratar el


problema de los bloqueos mutuos. Podemos usar un
protocolo para asegurar que el sistema nunca entre
en un estado de bloqueo mutuo. Por otra parte,
podemos permitir que el sistema entre en un
bloqueo mutuo y luego se recupere (aunque esta
última opción sea difícil y costosa).

PREVENCION DE BLOQUEOS MUTUOS

• Exclusión mutua: La condición de exclusión


mutua debe conservarse para recursos no
compartibles

• Retención y espera: Para asegurar que la


condición de retención y espera nunca se dé en el
sistema debemos garantizar que, cuando un proceso
solicita un recurso, no retenga otros. Un protocolo
que puede usarse requiere que cada proceso solicite
todos sus recursos y que le sean asignados antes de
que comience su ejecución podemos implantar esta
característica requiriendo que las llamadas al
sistema para solicitar recursos antecedan a las
demás llamadas del sistema. Un protocolo
alternativo permite que un proceso solicite recursos
sólo cuando no tiene ninguno: Un proceso puede
solicitar recursos y utilizarlos, pero antes de que
pueda solicitar más recursos, debe liberar todos los
tiene asignados. El segundo método permite que el
proceso solicite inicialmente sólo la unidad de cinta y
el archivo en disco. Copia de la unidad de cinta al
disco y luego libera los dos recursos. Las desventajas
de estos dos procesos son: La utilización de recursos
puede ser muy baja, pues puede ser que se asignen
varios recursos, pero no se usen durante un período
muy prolongado. En segundo lugar, es posible el
bloqueo indefinido. Un proceso que requiere varios
recursos populares quizá tenga que esperar
indefinidamente porque alguno de los recursos que
necesita siempre está asignado a otro proceso.
• No apropiación: La tercera condición necesaria
es que no se presente una apropiación de los
recursos que ya se han asignado. Si un proceso
solicita algunos recursos, primero comprobamos que
estén disponibles.

• Espera circular: Una forma de asegurar que no


se presente la condición de espera circular consiste
en imponer una ordenación total de todos lo tipos
de recursos y requerir que cada proceso solicite los
recursos siguiendo un orden de numeración
ascendente.

EVITACION DE BLOQUEOS MUTUOS

Otro método para evitar los bloqueos mutuos


consiste en requerir información adicional sobre
cómo se solicitarán los recursos. Los diversos
algoritmos difieren en la cantidad y tipo de
información que requieren. El modelo más sencillo y
útil requiere que cada proceso declare el número
máximo de recursos de cada tipo que puede
necesitar. Con información a priori para cada
proceso es posible construir un algoritmo que
asegure que el sistema nunca entrará en el estado de
bloqueo mutuo. Este algoritmo define la estrategia
de evitación de bloqueos mutuos.

DETECCION DE BLOQUEOS MUTUOS

Si un sistema no emplea un algoritmo de prevención


o evitación de bloqueos mutuos, entonces puede
ocurrir una situación de bloqueo mutuo. En este
entorno, el sistema debe ofrecer

• Un algoritmo que examine el estado del


sistema para determinar si ha ocurridoun bloqueo
mutuo.

• Un algoritmo para recuperarse del bloqueo


mutuo.
Cabe destacar que un esquema de detección y
recuperación requiere tiempo de procesamiento
adicional que incluye no sólo los costos de tiempo de
ejecución para el mantenimiento de la información
necesaria y la ejecución del algoritmo de detección,
sino además las pérdidas potenciales que
comprende recuperarse de un bloqueo mutuo.

UTILIZACION DE LOS ALGORITMOS DE DETECCION

Si los bloqueos mutuos aparecen con frecuencia,


entonces hay que invocar más a menudo al
algoritmo de detección. Los recursos asignados a los
procesos en bloqueo mutuo estarán inactivos hasta
que éste se pueda romper y además puede crecer el
número de procesosque participen en el ciclo de
bloqueo mutuo. Podemos invocar al algoritmo de
detección de bloqueos mutuos cada vez que no
pueda atenderse de inmediato una solicitud de
asignación. En este caso no sólo podemos identificar
el conjunto de procesos en bloqueo mutuo, sino
también el proceso específico que causó el bloqueo
mutuo.
Pero si con cada solicitud se invoca al algoritmo de
detección de bloqueos mutuos, puede incurrirse en
un tiempo de procesamiento adicional considerable.

RECUPERACION DESPUES DE BLOQUEOS MUTUOS

Existen tres posibilidades para la recuperación de un


bloqueo mutuo:

• Informar al operador.

• Dejar que el sistema se recupere


automáticamente del bloqueo mutuo:

1. Abortando todos los procesos que están


en bloqueo mutuo.

2. Abortartando un proceso en cada


ocasión hasta eliminar el ciclo de bloqueo mutuo
Este método incurre en mucho tiempo de
procesamiento adicional, ya que, después de abortar
cada proceso, hay que invocar al algoritmo de
detección de bloqueos mutuos a fin de determinar si
aún quedan procesos en este estado.

• Expropiación de recursos: Se va quitando


sucesivamente recursos de los procesos y los
asignamos a otros hasta romper el ciclo de bloqueo
mutuo. Hay que considerar tres aspectos: Selección
de la víctima osea, determinar que procesos y
recursos se expropiarán , Retroceso ya que no se
puede continuar con la ejecución normal luego de
haber expropiado unrecurso, debemos retroceder el
proceso hasta llegar a un estadio seguro, que suele
ser abortar el proceso y luego reiniciarlo.Bloqueo
indefinido Puede suceder que siempre se elija como
víctima al mismo proceso lo que produce que éste
nunca concluya la tarea asignada.

ESTRATEGIA COMBINADA PARA EL MANEJO DE


BLOQUEOS MUTUOS
Se ha planteado que ninguna de las estrategias
básicas para el manejo de bloqueos mutuos
(prevención, evitación y detección) es por sí sola,
apropiada para la amplia gama de problemas de
asignación de recursos que pueden surgir en los
sistemas operativos. Una posibilidad es combinar las
tres estrategias básicas, permitiendo el uso de la
estrategia óptima para cada clase de recursos del
sistemas. El método propuesto se basa en el
concepto de que todos los recursos pueden dividirse
en clases ordenadas jerárquicamente.

Se aplica una técnica de ordenación de recursos a las


clases. Para cada clase puede usarse la técnica más
apropiada para el manejo de bloqueos mutuos.

Es fácil mostrar que un sistema que emplea esta


estrategia no estará sujeto a bloqueos mutuos. Un
bloqueo mutuo no puede implicar a más de una
clase, ya que se utiliza la técnica de ordenación de
recursos. Para cada clase se emplea una de las
estrategias básicas. Por consiguiente, el sistema no
está sujeto a bloqueos mutuos.
5-SISTEMAS DE ARCHIVO

Todas las aplicaciones de computadora necesitan


almacenar y recuperar la información. Para el
almacenamiento de información a largo plazo se
tienen tres condiciones esenciales:

1.- Debe ser posible almacenar una cantidad muy


grande de información

2.- La información debe sobrevivir a la conclusión del


proceso que la utiliza.

3.- Debe ser posible que varios procesos tengan


acceso concurrente a la información.

La solución a estos problemas es el almacenamiento


de la información en discos y otros medios externos,
en unidades llamadas archivos. La información allí
almacenada debe ser persistente; es decir, no debe
verse afectada por la creación y termino de un
proceso. Los archivos son administradores por el
sistema operativo. Aquella parte del sistema
operativo que trabaja con los archivos se conoce
como sistemas de archivos.

5.1.- Archivos: (Analizados desde el punto de vista


del usuario; es decir, forma de uso y propiedades).

-Nombre de los archivos: Cuando un proceso crea un


archivo le da a este un nombre. Cuando el proceso
concluye, el archivo sigue existiendo y otros
procesos pueden tener acceso a el mediante su
nombre.

Muchos sistemas operativos utilizan nombres de


archivos con dos partes separadas por un punto,
(como en "prog.c"). La parte posterior al punto es la
extensión del archivo e indica por lo general algo
relativo al archivo. Alguna de las extensiones de
archivos mas comunes son:
Extensión

Significado

File . bak

File . bas

File . bin

File . dat

File . ftn

File . tex

File . txt
Archivo de respaldo

Programa fuente en BASIC

Programa ejecutable en binario

Archivos de datos

Programa fuente en FORTRAN

Archivo de entrada para el programa de formato tex

En ciertos casos las extensiones son meras


convenciones y no están forzadas de alguna forma.

Estructura de un archivo: Pueden estructurarse de


varias maneras:
hormiga
zorro

cochino

gato

vaca
perro

chivo

león

gallina
ibis

borrego

A) Secuencia de bytes B) Secuencia de registros c)


Árbol

El ejemplo "C" es una serie no estructurada de bytes.


De hecho al sistema operativo no le interesa ni se
preocupa por el contenido de cualquier archivo. Lo
único que ve son bytes; cualquier significado debe
ser impuesto por los programas a nivel usuario.
Tanto UNIX como MS-DOS utilizan este enfoque.
El hecho de que el sistema operativo considere a los
archivos como una simple serie de bytes proporciona
una máxima flexibilidad.

En la figura "B" un archivo es una secuencia de


registros de longitud fija, cada una con su propia
estructura interna. En este tipo de archivos la idea es
que la operación de lectura regrese un archivo y la
de escritura escriban sobre o añadan un registro. Un
sistema operativo que utiliza este tipo de archivos es
cp/m.

El tercer tipo de estructura de archivo, consta de un


árbol de registro, los cuales no necesariamente
tienen la misma longitud; cada uno de ellos contiene
un campo KEY (llave) en una posición fija del
registro. El árbol se ordena mediante este campo,
con el fin de poder realizar con rapidez la búsqueda
de una llave particular. La operación básica aquí, es
la de obtener un registro con una llave especifica. Se
utiliza en las grandes computadoras (mainframe).
�Tipos de archivos: Muchos sistemas operativos
soportan varios tipos de archivos.

Los archivos regulares son aquellos que contienen


información del usuario. Los directorios son archivos
de sistemas para el mantenimiento de una
estructura del sistema de archivos. Los archivos
especiales de caracteres tienen relación con la
entrada / salida y se utilizan para modelar
dispositivos señales de E / S, tales como terminales,
impresoras y redes. Los archivos especiales de
bloqueo se utilizan para modelos discos.

Los archivos regulares son en general archivos en


ASC II o binarios. La gran ventaja de los archivos en
ASC II es que pueden exhibir e imprimir tal cual son y
pueden editarse mediante un editor de texto común.
Los archivos en binario impresos producen una lista
incomprensible de algo que parece aleatorio y sin
sentido. Todos los sistemas operativos deben
reconocer un sistema de archivos, su propio archivo
ejecutable.
Acceso a un archivo: Los primeros sistemas
operativos tenían un solo tipo de acceso a los
archivos: el acceso secuencial. En estos sistemas el
proceso podía leer en orden sobre los bytes de un
registro en cierto archivo, comenzando desde el
principio, pero no podía saltearse alguno o leerlo en
otro orden.

Estos archivos podían ser rebobinados para leerlos


cuantas veces fuera necesario. Son convenientes
cuando el medio de almacenamiento son las cintas
magnéticas y no los discos.

Cuando se comienzan a utilizar los discos para


almacenamiento de archivos fue posible leer los
bytes o registros de un archivo en un orden
cualquiera o bien tener acceso a los registros a
través de una clave, en vez de una posición. Los
archivos cuyos bytes o registros pueden leerse de
cualquier modo se llaman archivos de acceso
aleatorio y son esenciales en muchas aplicaciones (
ej.: para sistemas de base de datos. Si en una
aerolínea se quiere reservar un asiento de un vuelo
en particular, el programa de reservación debe
poder tener acceso al registro de ese vuelo sin tener
que leer antes los registros de cientos de otros
vuelos ).

Se utilizan dos métodos para determinar el punto de


inicio de una lectura: 1� Cada operación READ da la
posición del archivo con cual iniciar, 2� La
operación especial SEEK establece la posición de
trabajo.

�Atributos del archivo: Algunos de los posibles


atributos de los archivos son:

Campo

Significado

Protección
Contra seña

Bandera de sistemas

Bandera temporal

Posición de la llave

Longitud de la llave

Tamaño actual

Quien debe tener acceso y de que forma

Contraseña necesaria para tener acceso

0 archivo normal, 1 archivo de sistema


0 normal, 1 elimina al salir del proceso

Ajuste de la llave dentro de cada registro

Numero de bytes en el campollave

Numero de bytes en el archivo

Los atributos son elementos adicionales de


información que los sistemas operativos asocian a
cada archivo.

�Operaciones con archivos: Los distintos sistemas


proporcionaron diversas operaciones para permitir
el almacenamiento y recuperación de archivos. Este
es un análisis de las llamadas mas comunes al
sistema relacionado con los archivos:

A) Create (crear ): El archivo se crea sin datos. El


propósito es anunciar que el archivo esta por llegar y
establecer algunos de los atributos.
B) Delete ( eliminar ): Si el archivo ya no es necesario
debe eliminarse para liberar espacio en disco.

C) Read ( leer ): Los datos se leen del archivo quien


hace la llamada debe especificar la cantidad de datos
necesarios y proporcionar un buffer para colocarlos.

D) Seek ( buscar ): Para los archivos de acceso


aleatorio se necesita un método para especificar el
punto de donde tomar los datos. Después de llevar a
cabo esta llamada, los datos se pueden leer o
escribir en esa posición.

E) Rename ( cambiar de nombre ): Hace posible la


modificación del nombre de un archivo existente.

5.2.- Directorios:

�Sistemas jerárquicos de directorio: Un directorio


contiene por lo general varios datos, uno por
archivo. Al abrir un archivo el sistema operativo
busca en su directorio hasta encontrar el nombre del
archivo por abrir. Extrae entonces los atributos y
direcciones en disco a la que apunta y los coloca en
una tabla dentro de la memoria principal.

El numero de directorios varia de sistema a sistema.


El sistema mas sencillo es aquel donde el sistema
tiene un solo directorio en todos los archivos de
todos los usuarios ( solo se utiliza en
microcomputadoras primitivas ). Otro diseño es
directorio raíz del cual se desprende un directorio
por usuario y de allí los archivos. Lo que se necesita
es una jerarquía general: cada usuario puede tener
tantos directorios como sea necesario, de forma que
los archivos se agrupen de forma matricial.

Directorios
del

usuario

Archivo

Subdirectorio

del usuario
Nombre de las rutas de acceso: Cuando el sistema de
archivos esta organizado como un árbol de directorio
se necesita una forma de determinar los nombres de
los archivos. Se utilizan dos métodos: En el primero
cada archivo tiene tiene una ruta de acceso absoluta,
la cual consta de la ruta de acceso desde el directorio
raíz hasta el archivo. Ej: La ruta de acceso
/usr/ast/mailbox indica que el directorio raíz
contiene un subdirectorio usr, el cual a su vez
contiene un subdirectorio ast el cual contiene al
archivo mailbox. Si el primer carácter de la ruta es un
separador entonces la ruta de acceso es absoluta.

El otro tipo es la ruta de acceso relativa, esta se


utiliza junto al concepto de directorio de trabajo. Un
usuario puede designar a un directorio como el
directorio de trabajo, en cuyo caso todos los
nombres que no comiencen con el directorio raíz se
toman en relación con el directorio de trabajo Ej.: Si
el directorio de trabajo es /usr/ast entonces el
archivo cuya ruta de acceso absoluta es
/usr/ast/mailbox puede llamarse solo con mailbox.
La mayoría de los sistemas operativos que soportan
un sistema jerárquico de directorio tienen dos
entradas especiales en cada directorio: "." (punto) y
".." (punto punto). Punto indica al directorio de
trabajo, punto punto a su padre.

�Operaciones con directorios: Ej.: tomado del unix.

A) Create ( crear): Se crea un directorio, el cual esta


vacío

B) Delete ( eliminar ): Se elimina un directorio, solo


se puede hacer si el directorio esta vacío: es decir,
que solo contenga punto y punto-punto.

C) Read dir ( leer directorio ) : Ingresa la siguiente


entrada en un directorio abierto. Siempre regresa
una entrada de formato normal, sin importar el tipo
de estructura de directorio que se utilice.
D) Rename ( cambiar de nombre ): Se les puede
cambiar de nombre, a los directorios, igual que a los
archivos.

E) Link ( ligar ) : El ligado permite que un archivo


aparezca en mas de un directorio.

5.3 Implantación del sistema de archivos: ( Analizado


desde el punto de vista del implantador ).

Implantación de archivos: El aspecto clave de la


implantación del almacenamiento de archivos es el
registro de los bloques asociados a cada archivo. Se
utiliza distintos métodos.

-A) Asignación adyacente: Almacena cada archivo


como un bloque adyacente de datos en el disco.
Tiene dos ventajas. La primera es su fácil
implementacion. La segunda es el excelente
rendimiento.
También tiene dos aspectos negativos. El primero es
que no es realizable a menos que se conozca el
tamaño máximo del archivo al momento de su
creación. Sin esta información el sistema no sabe
cuanto espacio en memoria debe reservar. La
segunda es la fragmentacion del disco que resulta de
este método.

-B) Asignación en forma de larga lista: Mantienen a


cada archivo como una lista ligada de bloques en
disco. Con este método se pueden utilizar cada
bloque del disco, sin perder espacio, debido a la
fragmentacion. Por otro lado, aunque la lectura
secuencial del archivo es directa, el acceso aleatorio
es en extremo lento.

-C) Asignación mediante una lista ligada a un índice:


La desventaja del sistema anterior se elimina
tomando la palabra del apuntador de cada bloque
del disco y colocándola en una tabla o índice de la
memoria. Mediante esta organización todo el bloque
esta disponible para datos. Además, el acceso
aleatorio es mucho mas sencillo. Su principal
desventaja es que toda la tabla debe estar en
memoria todo el tiempo para que funcione.

-D) Nodos - I : Asocia a cada archivo una pequeña


tabla llamada nodo - I (modo índice ), la cual
contiene los atributos y direcciones en disco de los
bloques del archivo.

Implantación de directorios: Antes de poder leer un


archivo este debe ser abierto. Al abrir un archivo el
sistema operativo utiliza el nombre de la ruta de
acceso dado por el usuario para localizar el dato en
el directorio. El dato del directorio contiene la
información necesaria para encontrar los bloques del
disco. La principal función del sistema de directorios
es asociar el nombre en ASC II del archivo con la
información necesaria para localizar datos.

Archivos compatibles: Cuando varios usuarios


trabajan juntos con un proyecto, con frecuencia,
necesitan compartir los archivos. Con frecuencia
conviene que un archivo compartido aparezca en
forma simultánea en mas de un directorio. Ej.: si un
archivo de C esta presente en un directorio de B, la
conexión entre B y el archivo compartido se llama
enlace.

Los enlaces simbólicos se dan cuando B se enlaza con


un archivo de C haciendo que el sistema cree un
archivo de tipo LINK, el cual entra en el directorio B.
Este nuevo archivo solo contiene el nombre de la
ruta de acceso del archivo al cual se enlaza. Cuando
B desea leer el archivo enlazado, el sistema
operativo ve que el archivo por leer es del tipo LINK
busca el nombre del archivo y lo lee.

El problema de los enlaces simbólicos es su alto


costo, y otro problema que presentan los enlaces en
general es que un archivo puede tener dos o mas
rutas de acceso. Los programas que parten de un
cierto directorio y encuentran todos los archivos de
dicho directorio y de sus directorios localizaran
varias veces un archivo enlazado.
Administración del espacio en disco: Existen dos
estrategias posibles para almacenar un archivo de n
bytes: asignar n bytes consecutivos de espacio en el
disco o dividir el archivo con cierto numero de
bloques ( no necesariamente ) adyacentes.

El primero tiene el problema obvio de que si un


archivo crece deberá desplazarse probablemente en
el disco. El mismo problema ocurre con los
segmentos en la memoria excepto que el
desplazamiento de un segmento en la memoria sea
mas rápida que el de un archivo.

A) Tamaño del bloque: Dado la forma en que están


organizados los bloques; el sector la pista y el
cilindro son ..... ................ abrir de asignación de
tamaño.

B) Registro de los bloques libres: después de elegido


el tamaño del bloque, el siguiente aspecto a
considerar es la forma de llevar un registro de los
bloques libres. Un método consiste en el uso de una
lista ligada de bloques de discos, en la que cada
bloque contiene tanto números de bloques libres
como pueda. Otra técnica es el mapa de bits. Un
disco con n bloques necesita un mapa de bits con n
bits, si existe espacio disponible en la memoria para
contener el mapa de bits este método es preferible.

C) Disk quotas: Para evitar que las personas se


apropien de un espacio excesivo en el disco, los
sistemas operativos multiusuarios, como UNIX,
proporcionan con frecuencia un mecanismo para
establecer las cuotas en el disco. La idea es que un
administrador del sistema asigne a cada usuario una
proporción máxima de archivos y bloques y que el
sistema operativo garantice que los usuarios no
excedan sus cuotas.

Confiabilidad del sistema de archivos: Si el sistema


de archivos de una computadora se pierde ya sea
por razones de hardware, software, u otros será
difícil restaurar toda la información. Las
consecuencias pueden ser catastróficas. Aunque el
sistema de archivos no puede ofrecer protección
alguna contra la destrucción física del equipo y los
medios puede ayudar a proteger la información.

A) Manejo de un bloque defectuoso : Los discos


tienen con frecuencia bloques defectuosos, para
estos hay dos soluciones: una en hardware que
consiste en dedicar un sector del disco a la lista de
bloques defectuosos y otra en software la cual
requiere que el usuario o el sistema de archivos
construyan con cuidado un archivo con todos los
bloques defectuosos. Esta técnica los elimina de la
lista de bloques libres de forma que nunca pueden
aparecer en los archivos de datos.

B) Respaldos: Los archivos deben ser respaldados.


Los sistemas de archivos de discos flexibles se
respaldan copiando todo el disco en otro limpio;
mientras que los de disco duro se respaldan
mediante un salvado de todo el disco a una cinta
magnética.
Desempeño del sistema de archivo: El acceso a disco
es mucho mas lento que el acceso a la memoria. Por
esto muchos sistemas de archivo han sido diseñados
para reducir el numero de acceso a disco necesario.

La técnica mas común para reducir los accesos al


disco es el bloque cache o buffer cache ( del francés
cacher que significa ocultar ). Aquí el cache es una
colección de bloques que pertenecen desde el punto
de vista lógico al disco, pero no se mantienen en la
memoria por razones de rendimiento. Otra técnica
importante es la reducción de la cantidad de
movimiento del brazo del disco, colocando los
bloques que probablemente tengan un acceso
secuencial mas cercano entre si de frecuencia en el
mismo cilindro. Al escribir un archivo de salida, el
sistema de archivos ebe asignar los bloques, uno a la
vez, conforme sea necesario.

5.4.- Seguridad: La protección de la información que


contienen los archivos en contra del uso no
autorizado es esencial en todos los sistemas de
archivos.
�El ambiente de seguridad: La seguridad tiene
muchas facetas, dos de las mas importantes son la
perdida de datos y los intrusos.

Los intrusos pueden ser pasivos, solo desean leer los


archivos; o activos desean hacer cambios no
autorizados a los datos. Otro aspecto de la seguridad
es la privacia, es la protección de las personas
respecto del mal uso de la información en contra de
uno mismo.

Principios del diseño para seguridad:

A) El diseño del sistema debe ser publico, pensar que


el intruso no conocerá la forma de funcionamiento
del sistema es engañar a los diseñadores.

B) El estado predefinido debe ser el de no acceso.


C) El sistema no debe verificar el permiso,
determinar que el acceso esta permitido y después
abandonar esta información para su uso posterior.
Muchos sistemas verifican el permiso al abrir el
archivo y no después de abrirlo, esto significa que el
usuario que abra un archivo y lo tenga abierto por
semanas seguirá teniendo acceso a el, incluso en el
caso de que el propietario haya cambiado la
protección del archivo.

D) Se debe dar a cada proceso el mínimo privilegio


posible.

E) El mecanismo de protección debe ser simple,


uniforme e integrado hasta las capas mas bajas del
sistema.

F) El esquema elegido debe ser psicológicamente


adecuado, si los usuarios sienten que la protección
de sus archivos implica demasiado trabajo, no los
protegerán.
Autentificacion del usuario: Muchos de los métodos
de autentificacion se basan en la identificación de
algo conocido por el usuario, algo que posee el
usuario o algo que es el usuario:

A) Contraseñas: El usuario debe escribir una


contraseña o password. Esta autentificacion es fácil
de vencer a través de combinaciones de nombres y
contraseñas.

B) Identificación física: Se trata de verificar si el


usuario tiene cierto elemento; una tarjeta plástica
con una cinta magnética, etc. La tarjeta se inserta en
la terminal, la cual verifica de que tarjeta se trata.
Otro punto de vista es la medición de características
físicas difíciles de reproducir. Ej.: Lectora de huellas
digitales o vocales, etc.

Otra es el análisis de la firma, de la longitud de los


dedos, etc.
C) Medidas preventivas: Todas las entradas al
sistema deben ser registradas. Cuando un usuario se
conecta al sistema este debe informar la hora y
terminal de la ultima conexión, de forma que pueda
detectar posibles intentos de sabotajes. Otro paso
será tender trampas para atrapar a los intrusos.

5.5.- Mecanismos de protección:

�Dominios de protección: Un sistema de cómputos


contiene muchos objetivos que necesitan protección
( Ej. del hardware: CPU, segmentos de memoria, etc.
).

Un dominio es un conjunto de pareja ( objeto -


derecho ). Cada una determina un objetivo y cierto
subconjunto de las operaciones que se puedan llevar
a cabo en el. Un derecho es el permiso para llevar a
cabo algunas operaciones.

�Modelos de protección: Se identifican seis


operaciones que puede llevar a cabo la matriz de
protección, las cuales se pueden utilizar como base
del modelo de cualquier sistema de protección. Estas
operaciones son : CREAR OBJETO, ELIMINAR OBJETO,
CREAR DOMINIO, ELIMINAR DOMINIO, INSERTAR
DERECHO, ELIMINAR DERECHO.

Estas seis primitivas se pueden combinar en


comandos de protección. Son estos comandos los
que pueden ejecutar los programas del usuario para
modificar la matriz.

La política de seguridad tiene dos reglas:

A) Ningún proceso puede leer un objeto de un nivel


superior al suyo, pero puede leer con libertad los
objetos de niveles inferiores o de su mismo nivel. Un
proceso secreto puede leer procesos confidenciales
pero no totalmente secretos.

B) Ningún proceso puede escribir información en un


objeto de nivel inferior al suyo. Un proceso secreto
puede escribir en un archivo totalmente secreto
pero no en uno confidencial.

6.-ADMINISTRACION DE LA MEMORIA

La memoria es un importante recurso que debe


administrarse con cuidado. La parte del sistema
operativo que administra la memoria se llama
administrador de la memoria. Su labor consiste en
llevar un registro de las partes de memoria que se
estén utilizando y aquéllas que no, con el fin de
asignar espacio en memoria a los procesos cuando
éstos la necesiten y liberarlo cuando terminen, así
como administrar el intercambio entre la memoria
principal y el disco, en los casos en que la memoria
principal no pueda albergar a todos los procesos.

Los sistemas de administración de la memoria se


pueden clasificar en dos tipos : los que desplazan los
procesos de la memoria principal al disco y viceversa
durante la ejecución (intercambio y paginación) y
aquellos que no.
ADMINISTRACION DE LA MEMORIA SIN
INTERCAMBIO O PAGINACION

El esquema más sencillo de administración de


memoria es aquel en el que sólo se tiene un proceso
en memoria en cada instante. El usuario carga toda
la memoria con un programa del disco o cinta y
utiliza toda la máquina. La monoprogramación
implica que cada proceso debe contener
controladores de dispositivo para cada uno de los
dispositivos de E/S que utilice.

Si el sistema está organizado de esta forma, sólo se


puede ejecutar un proceso a la vez. El usuario
escribe un comando en la terminal y el sistema
operativo carga el programa solicitado desde el disco
a la memoria y lo ejecuta. Cuando el proceso
termina, el sistema operativo envía un carácter
indicado (el símbolo de comandos) en la terminal y
espera un comando de la misma para poder cargar
otro proceso, que se escribe encima del anterior.
Aunque la monoprogamación se utiliza en ciertas
ocasiones en las computadoras pequeñas, las
grandes computadoras con muchos usuarios casi
nunca la usan. Una razón para la multiprogramación
es que facilita la programación de una aplicación al
dividirla en dos o más procesos. Otra razón es que la
mayoría de los procesos tardan una porción
sustancial de su tiempo en la espera de la conclusión
de la E/S al disco. Se pueden mencionar el modelo
teórico, el probabilístico, de cola y por lote.

La multiprogramación presenta dos problemas


esenciales por resolver : la reasignación y la
protección. Una alternativa para ambos problemas
fue la de equipar la máquina con dos registros
especiales de hardware, llamados el registro base y
el registro límite. Cuando se planifica la ejecución de
un proceso, el registro base carga con la dirección
del inicio de la partición, mientras que el registro
límite se carga con la longitud de la partición. A cada
dirección de memoria generada en forma
automática se le añade el contenido del registro
base antes de ser enviado a memoria. También se
verifican las direcciones, con el fin de que no rebasen
el registro límite y se dirijan a una parte de la
memoria por fuera de la partición activa. El
hardware protege ambos registros, con el fin de
evitar que los programas del usuario los modifiquen.

ADMINISTRACION DE LA MEMORIA CON


INTERCAMBIO O PAGINACION

El traslado de los procesos de la memoria principal al


disco y viceversa se llama intercambio. Este se puede
llevar a cabo con particiones fijas o variables. La
diferencia principal entre las particiones fijas y las
particiones variables es que el número, posición y
tamaño de las particiones varía en forma dinámica
en el segundo caso al crearse o intercambiarse más
procesos, mientras que en el primer caso estas
características son fijas.

Es posible combinar todos los huecos en uno grande,


si se mueven todos los procesos hacia la parte
inferior, mientras sea posible. Esta técnica se conoce
como compactación de la memoria.

Existen tres formas utilizadas por los sistemas


operativos para llevar un registro del uso de la
memoria : mapas de bits, listas y sistemas amigables.

n Con un mapa de bits, la memoria se divide en


unidades de asignaciones. El tamaño de la unidad de
asignación es un aspecto importante de diseño.
Mientras más pequeña sea esta unidad, más grande
será el mapa de bits. Un mapa de bits es una forma
sencilla par llevar un registro de las palabras de la
memoria en una cantidad fija de memoria, puesto
que el tamaño del mapa solo depende del tamaño
de la memoria y el tamaño de la unidad de
asignación. La búsqueda en un mapa de bits de
ciertas cadenas es una operación lenta, por lo que
los mapas no se utilizan con frecuencia.

n Otra forma de mantener un registro de la


memoria es mediante una lista ligada de los
segmentos de memoria asignados o libres, en donde
un segmento puede ser un proceso o un hueco entre
dos procesos. Cuando los procesos y los huecos se
mantienen en una lista ordenada por direcciones, se
pueden utilizar diversos algoritmos para asignar la
memoria par un proceso de reciente creación o
intercambiado. Los diferentes tipos de algoritmos
que se pueden encontrar son : el primero en
ajustarse, el siguiente en ajustarse, el mejor en
ajustarse y el peor en ajustarse. Estos algoritmos
pueden agilizarse si se tiene dos listas
independientes, una para los procesos y otra para
los huecos. De esta forma, todos ellos pueden
dedicarse a inspeccionar los huecos, no los procesos.
El precio que se paga por ese aumento de velocidad
al momento de asignar la memoria es la complejidad
adicional y disminución de la velocidad al liberar la
memoria, puesto que un segmento liberado debe ser
el eliminado de la lista de procesos e insertarse en la
lista de huecos. El de ajuste rápido, es el que
mantiene listas independientes para algunos de los
tamaños que se soliciten más frecuentemente. Con
el ajuste rápido, la búsqueda de un hueco del
tamaño pedido es muy rápida, pero tiene la misma
desventaja de los demás esquemas en el sentido de
qué, al ordenar por tamaño los huecos y terminar o
intercambiarse un proceso, la búsqueda de sus
vecinos para ver si es posible una función es una
operación cara. Si no se lleva a cabo la función, la
memoria se fragmentará con rapidez en un gran
número de pequeños huecos inútiles.

n El sistema asociado es un algoritmo de


administración de la memoria que aprovecha el
hecho de que las computadoras utilizan números
binarios para las direcciones, con el fin de hacer más
rápido la función de los huecos adyacentes cuando
un proceso termina o se pasa a disco. Los sistemas
asociados tienen una ventaja sobre los algoritmos
que ordenan los bloques por tamaño pero no
necesariamente en direcciones múltiplos del tamaño
del bloque. La ventaja consiste en que cuando se
libera un bloque de tamaño 2k, el administrador de
la memoria tan sólo debe buscar en la lista de
huecos de 2k para ver si es posible una fusión. En los
algoritmos que permiten que los bloques de
memoria se dividan de formas arbitrarias, se debe
realizar una búsqueda en todas las listas de huecos.
El resultado es que el sistema asociado es muy
rápido. Los algoritmos para la administración del
hueco de intercambio son los mismos que se utilizan
para la administración de la memoria principal.

MEMORIA VIRTUAL

La idea fundamental detrás de la memoria virtual es


que el tamaño combinado del programa, los datos y
la pila puede exceder la capacidad de memoria física
disponible para él. El sistema operativo mantiene
aquellas partes del programa que se utilicen en cada
momento en la memoria principal y el resto
permanece en el disco.

La mayoría de los sistemas con memoria virtual


utilizan una técnica llamada paginación. En cualquier
computadora, existe un conjunto de direcciones de
memoria que pueden producir los programas. Estas
direcciones generadas por los programas se llaman
direcciones virtuales, y conforman el hueco de
direcciones virtuales. Al utilizar la memoria virtual,
las direcciones virtuales no pasan en forma directa al
bus de memoria, sino que van a una unidad de
administración de la memoria, un chip o conjunto de
chips que asocian las direcciones virtuales con las
direcciones de la memoria física. El hueco de
direcciones virtuales se dividen en unidades
llamadas páginas. Las unidades correspondientes en
la memoria física se llaman marcos para páginas. Las
páginas y los marcos tienen siempre el mismo
tamaño. Las transferencias entre la memoria y el
disco siempre por unidades de página. El número de
página virtual se divide en un número de página
virtual y un ajuste. El número de página virtual se
utiliza como un índice en la tabla de páginas para
encontrar la entrada de esa página virtual. El número
de marco se asocia al extremo superior del ajuste y
reemplaza al número de página virtual para formar
una dirección física que se puede enviar a la
memoria. La finalidad de la tabla de páginas es
asociar las páginas virtuales con los marcos, pero hay
que enfrentar dos aspectos fundamentales : 1) la
tabla de páginas puede ser demasiado grande, 2) la
asociación debe ser rápida.
Para evitar el problema de tener unas tablas
inmensas de páginas en la memoria todo el tiempo,
muchas computadoras utilizan una tabla de páginas
con varios niveles. El secreto del m

0todo de las tablas de páginas de varios niveles


consiste en evitar mantener todas las tablas en la
memoria todo el tiempo. En particular, aquellas que
no sean necesarias no deben mantenerse ahí.
Pueden ser de nivel 1, 2, 3 y 4.

Veamos ahora el funcionamiento de la memoria


asociativa. Cuando se presenta una dirección virtual
ante la MMU para su traducción, el hardware
verifica en primer lugar si su número de página
virtual se encuentra en la memoria asociativa, al
comparar con todos los datos al mismo tiempo. Si
coincide con alguno y el acceso no viola los bits de
protección el marco de página se toma en forma
directa de la memoria asociativa, sin necesidad de
pasar a la tabla de páginas. Si el número de página
virtual esta presente en la memoria asociativa, pero
la instrucción intenta escribir en una página
exclusiva para lectura, se genera un fallo de página
de la misma forma en que se genera a partir de la
propia tabla de páginas. Podemos encontrar
paginación a nivel cero y tablas de páginas
invertidas.

ALGORITMOS DE REEMPLAZO DE PAGINAS

Cuando ocurre un fallo de página, el sistema


operativo debe elegir una página par retirarla de la
memoria y hacer un espacio para la página por
recuperar. Si la página por eliminar fue modificada
mientras estaba en la memoria, debe volver
escribirse en el disco para mantener actualizada la
copia del disco. Si, por el contrario la página no a
sido modificada, la copia en disco ya está
actualizada, por lo que no es necesario volver a
escribirlo. La página por leer sólo escribe encima de
la página por retirar. Los algoritmos mas importantes
son : el algoritmo de reemplazo de páginas óptimo,
el algoritmo de reemplazo de páginas según el uso
no tan reciente, el algoritmo de reemplazo FIFO, el
algoritmo de reemplazo de páginas de la segunda
oportunidad, el algoritmo de reemplazo de páginas -
la de menor uso reciente -, simulación del algoritmo
del uso más reciente en software.

Con frecuencia, el tamaño de página es un


parámetro que pueden elegir los diseñadores del
sistema operativo. La definición del tamaño óptimo
de página requiere el balance de varios factores en
competición.

El hecho de que una computadora posea una


memoria virtual no significa que la E/S no exista. La
memoria virtual y la E/S interactúan en formas muy
sutiles.

La implantación de la segmentación difiere del caso


de paginación en un sentido esencial : las páginas
tienen un tamaño fijo y los segmentos no. Podemos
encontrar segmentación pura y segmentación con
paginación. Mutilics e Intel 386 soportan tanto la
paginación como la segmentación.
7 - SISTEMAS DISTRIBUIDOS

7.1- ESTRUCTURA DE SISTEMAS DISTRIBUIDOS

Un sistema distribuido es un conjunto de


procesadores que no comparten ni memoria ni reloj,
en su lugar cada procesador cuenta con su propia
memoria local y se comunican entre si a traves de
diversas líneas de comunicación.

Ofrece al usuario acceso a los diversos recursos que


mantiene el sistema, y se mejora la velocidad de los
cálculos, la disponibilidad y confianza de los datos.

Básicamente hay dos esquemas para construir


sistemas de multiprocesadores:

a) Los fuertemente acoplados: Comparten memoria


y reloj , la comunicación entre ellos se hace
generalmente a través de la memoria compartida.
b) Los debilmente acoplados : No comparten
memoria ni reloj y se comunican a través de canales
de alta velocidad o teléfonos.

Hoy cuatro motivos para la utilización de sistemas


distribuidos:

a) Comparticion de recursos

b) Aceleración de los cálculos (calculo concurrente)

c) Confiabilidad

d) Comunicación

7.2- TOPOLOGIA :

a) Conexión total: Secomunican todas las


instalaciones entre si , tienen un alto costo básico
pero su velocidad y confiabilidad son altísimas.
b) Conexión parcial: Hay conexión directa entre
algunos pares de procesadores,

c) Jerárquica: Organización tipo árbol , su costo de


instalación es mas bajo que las anteriores pero si un
procesador falla los que de el dependen quedan
incomunicados.

d) Estrella: Una instalación se comunica con todas las


demás , el problema se presenta si la instalación
central se convierte en un cuello de botella

e) Anillo: Cada instalación se comunica con dos


instalaciones de manera que quedan comunicadas
en forma de anillo. Pueden ser unidireccionales o
bidireccionales.

f) Canal multiacceso: Las instalaciones se


comunicanm entre si por medio de un canal comun.
7.3-COMUNICACION:

La comunicación en un sistema distribuido debe


tener en cuenta cuatro aspectos básicos:

a) Estrategias de encaminamiento: Cuando hay mas


de un canal para la comunicación entre dos
procesadores se utilizan técnicas de encaminamiento
para que el procesador decida por que canal mandar
la información / datos

b) Estrategias de conexión : Se refiere a como se


unirán los procesos para enviarse información
/datos entre si .puede ser por enlace firme, temporal
, o por paquetes por diferentes rutas, que luego se
ensamblaran

c) Conflictos: Principalmente en las redes de anillo o


multiacceso suelen generarse conflictos cuando dos
o mas procesadores quieren utilizar un mismo canal
en un mismo momento.
Hay distintas formas para superar este incoveniente:

- Detección portadora de acceso múltiple: Cada


procesador escucha y en el momento en que esta
libre envía el mensaje.

- Paso de testigo: Un mensaje "testigo" circula por el


canal, y cuando una instalación quiere enviar un
mensaje toma el testigo y deja su mensaje.

- Ranuras de mensaje: Circulan por en sistema varias


"ranuras" donde cada procesador deposita el
mensaje cuando lo requiere.

7.4 - TIPOS DE SISTEMAS OPERATIVOS

Un sistema operativo distribuido proporciona al


usuario acceso a los recursos que ofrece el sistema
.Existen dos estructuras básicas :
a) Sistemas de red: Su principal función es transferir
los archivos de una maquina a otra .El problema se
presenta porque el usuario debe saber donde esta
cada archivo.

b) Sistemas operativos distribuidos: Los usuarios


pueden acceder a archivos remotos de la misma
manera que lo hacen a los locales, la migración de
datos queda por completo manejeda por el sistema
operativo.

Para la transferencia de archivos se utilizan


generalmente dos formas:

- Transferir el archivo a la instalación local y luego


devolverlo con las modificaciones hechas (Estructura
que utiliza el sistema ANDREW)

- Transferir solo los datos necesarios , con el mismo


procedimiento que el anterior.
4.1 Migración de cálculos: Cuando los archivos a
utilizar son grandes y/o están en varias instalaciones
,se puede pedir al los distintos procesadores que
hagan los cálculos y luego remitan la información al
solicitante.

4.2 Migración de procesos: Una instalación puede


requerir que otras hagan algún proceso en lugar de
ellas, con el objetivo de equilibrar las cargas de
trabajo, acelerar los cálculos o por una preferencia
de hardware o software.

Estos sistemas operativos pueden utilizarse en forma


conjunta para lograr una mayor eficiencia de trabajo.

7.5 - ASPECTOS DE DISEÑO

El reto para muchos diseñadores es lograr una


transparencia total en la multiplicidad de los
procesadores, el usuario debe poder utilizar
cualquier dispositivo con la facilidad con que utiizan
los locales.
Por otro lado se debe lograr que el sistema tenga
una alta tolerancia en cuanto a las fallas en el
hardware, debe poder seguirse trabajando aun
cuando no funcionen ciertas instalaciones

El diseño debe resistir una elevada carga de


servicios, adaptarse al crecimiento en la cantidad de
usuarios y permitir una sencilla integración de
recursos adicionales, esto se llama sistema
escalonado.

7.6 PROCESOS.

ORDENACION DE LOS SUCESOS.

En los sistemas centralizados se puede determinar el


orden de los sucesos ya que tienen memoria y reloj
conjuntos ¿ Que pasa con ello en los sistemas
distribuidos ? .
Una de las formas para salvar este inconveniente es
la asignación de un contador particular (reloj lógico)
que va aumentando en un valor monótonamente
creciente. En el caso que haya procesadores de
distinta velocidad entonces el mas lento toma el
valor de el reloj lógico a partir del que tiene cuando
llega al procesador .

EXCLUSION MUTUA

a) Enfoque centralizado:

Uno de los procesadores actúa como coordinador


para evitar que dos procesos entren en su sección
critica por medio de permisos de entrada y avisos de
salida, y si el algoritmo que coordina estos procesos
esta bien diseñado no habrá nunca espera infinita.

b) Enfoque distribuido:
En los criterios descentralizados se puede utilizar la
marca de tiempo.

El procesador que desee entrar en su sección critica


(p1) envía un mensaje que llega a todos los procesos
y estos responderán de inmediato si no están en su
sección critica . Si el proceso (p1) no recibe respuesta
de alguno de los otros procesos , entonces quiere
decir que hay un procesos en su sección critica.

En caso que un procesador (p2) reciba el mensaje de


(p1) y quiera también entrar en sección critica,
compara la marca de tiempo de p1 con la suya , y en
base a esto responde o entra en la sección.

Para la exclusión mutua también se puede utilizar la


técnica del paso de testigo antes explicada.

SOLIDEZ
Para que un sistema sea sólido, no debe darse la
posibilidad de perdida de mensajes, para ello el
sistema debe detectar cuando se produzca alguna
falla, ya sea de comunicación o de instalación .

SISTEMAS DE ARCHIVOS

UN sistema de archivos distribuido tiene la


característica que sus clientes, servidores, y
dispositivos de almacenamiento están distribuidos
por las distintas instalaciones .En vez de un
dispositivo centralizado de datos, existenvarios
dispositivos de almacenamiento independientes.

En situación ideal el sistema debe parecer a los


clientes como un sistema centralizado convencional,
debe ser transparente y no distinguir entre local y
remoto.

Depende del S.A.D. localizar los archivos y hacer la


transferencia de datos.
Hay diversas formas para la nominación de los
archivos, una de ellas es la de nombrar a ellos en
base al nombre de su anfitrión y su nombre local.

Las solicitudes de acceso son en general manejadas


por dos métodos:

a) Con el servicio remoto, las solicitudes se entregan


a un servidor, el cual ejecuta los accesos y envía los
resultados al cliente.

b) Utilización de memoria cache: Se transfiere una


copia de los datos necesarios a la memoria cache y
se trabaja sobre esa copia. La idea es que pueda
utilizarse el archivo en forma local para no adicionar
trafico a la red y dar un tiempo de respuesta mas
breve para situaciones reiterativas.

Ejemplos de sistemas que se manejan en forma


distribuida:
- UNIX UNITED

- NFS

- ANDREW

- SPRITE

- LOCUS

8- ENTRADA SALIDA

Una de las funciones principales de un sistema


operativo es el control de todos los dispositivos de
entrada/salida de la computadora.

La forma de administrar la E/S por parte del sistema


operativo es el tema de este capítulo.
En primer lugar, analizaremos algunos de los
principios del hardware de E/S y después, del
software de E/S en general.

Después de esta introducción, estudiaremos con


detalle tres dispositivos comunes de E/S : discos,
relojes y terminales.

8.1 PRINCIPIOS DEL HARDWARE DE E/S

En este libro nos interesaremos por la programación


de los dispositivos de E/S, no por su diseño,
construcción o mantenimiento ; así, nuestro interés
estará restringido a la forma de programar el
hardware y no a su funcionamiento interno. Sin
embargo, es frecuente que la programación de
muchos dispositivos de E/S esté íntimamente ligada
con su operación interna.

DISPOSITIVOS DE E/S
Los dispositivos de E/S se pueden dividir de manera
general en dos categorías : dispositivos de bloque y
dispositivos de carácter. Un dispositivo de bloque es
aquel que almacena la información en bloques de
tamaño fijo, cada uno con su propia dirección. Los
tamaños comunes de los bloques van desde 128
bytes hasta 1024 bytes. La propiedad esencial de un
dispositivo de bloque es que en todo momento el
programa puede leer o escribir en cualquier de los
bloques. Los discos son dispositivos de bloque.

Otro tipo de dispositivo de E/S es el dispositivo de


carácter. Un dispositivo de carácter envía o recibe un
flujo de caracteres, sin sujetarse a una estructura de
bloques. No se pueden utilizar direcciones ni tienen
una operación de búsqueda. Las terminales,
impresoras de línea, cintas de papel, tarjetas
perforadas, interfaces de una red, ratones y muchos
otros dispositivos no parecidos a los discos, son
dispositivos de carácter.

Este esquema de clasificación no es perfecto. Los


relojes no tienen direcciones por medio de bloques.
Tampoco generan o aceptan flujos de caracteres. Las
pantallas mapeadas a memoria tampoco se ajustan
al modelo.

1.2 CONTROLADORES DE DISPOSITIVOS :

Las unidades de E/S constan por lo gral. De un


componente mecánico y otro electrónico. El
componente electrónico se llama controlador del
dispositivo o adaptador. En las mini y
microcomputadoras , éste toma con frecuencia la
forma de una tarjeta de circuitos impresos que se
puede insertar en la computadora,. El componente
mecánico es el propio dispositivo.

La tarjeta controladora tiene por lo general un


conector, en el que se puede conectar el cable que
va al dispositivo en sí. Muchos controladores pueden
manejar dos, cuatro y hasta ocho dispositivos
idénticos.
Mencionamos esa distinción entre controlador y
dispositivo porque el sistema operativo casi siempre
trabaja con el controlador y no con el dispositivo.
Casi todas las micro y utilizan el modelo de un bus,
para la comunicación entre la CPU y los
controladores. Los grandes mainframes utilizan con
frecuencia otro modelo, con varios buses y
computadoras especializadas en E/S llamadas
canales de E/S.

La interfaz entre el controlador y el dispositivo es


con frecuencia de muy bajo nivel.Un disco, por ej.,
puede recibir un formato de 8 sectores de 512 bytes
por pista. Sin embargo, lo que realmente sale de la
unidad es un flujo de bits en serie, que comienza con
un preámbulo, seguido de 4096 bits en un sector y
por último una suma para verificación o un código
corrector de errores. El preámbulo se escribe al dar
formato al disco y contiene el número de cilindro y
sector, el tamaño de sector y otros datos similares.

La labor del controlador es convertir el flujo de bits


en serie en un bloque de bytes y llevar a cabo
cualquier corrección de errores necesaria. Lo común
es que el bloque de bytes se ensamble, bit a bit, en
un buffer dentro del controlador. Después de
verificar la suma y declarar al bloque libre de
errores, se le puede copiar en la memoria principal.

Cada controlador tiene unos cuantos registro que


utiliza para la comunicación con la CPU. En ciertas
computadoras, estos registro son parte del espacio
normal de direcciones de la memoria.

La asignación de direcciones de E/S a dispositivos se


lleva a cabo mediante una lógica de descodificación
del bu asociada al controlador.

El sistema operativo realiza la E/S al escribir


comandos en los registros de los controladores.

Al aceptar un comando, la CPU puede dejar al


controlador y dedicarse a otro trabajo. Al terminar el
comando, el controlador provoca una interrupción
para permitir que el sistema operativo obtenga el
control de la CPU y verifique los resultados de la
operación. La CPUobtiene los resultados y el estado
del dispositivo al leer uno omás bytes de
información de los registros del controlador.

ACCESO DIRECTO A MEMORIA (DMA) :

Muchos controladores, en particular los


correspondientes a los dispositivos de bloque,
permiten el acceso directo a memoria o DMA. Si no
se tuviera éste, la forma de acceder al disco sería la
siguiente :

El controlador lee en serie el bloque de la unidad


hasta que todo el bloque se encuentra en el buffer
interno del controlador. A continuación calcula la
suma de verificación para corroborar que no existen
errores de lectura. Entonces, el controlador provoca
una interrupción. Cuando el sistema operativo
empieza su ejecución , puede leer el bloque del disco
por medio del buffer del controlador, un byte o una
palabra por vez, en un ciclo, en el que durante cada
iteración se lee un byte o una palabra del registro del
controlador y se almacena en memoria.

DMA se crea para ahorrar tiempo a la CPU, y de ésta


forma la CPU le proporciona la dirección del bloque
en el disco, la dirección en memoria adonde debe ir
el bloque y el número de bytes por transferir.

Después que el controlador ha leído todo el bloque


del dispositivo a su buffer y ha corroborado la suma
de verificación, copia el primer byte o palabra a la
memoria principal, en la dirección especificada por
medio de la dirección de memoria de DMA.

El buffer interno se necesita porque si el controlador


intentara escribir los datos en la memoria de forma
directa, tendría que recurrir al bus del sistema para
cada una de las palabras transferidas. Si el bus
estuviera ocupado debido a que lo utilizara otro
dispositivo, entonces el controlador debería esperar.
So la siguiente palabra llegase antes de que la
anterior hubiera sido almacenada, el controlador la
tendría que almacenar en alguna parte. Si el bus
estuviese demasiado ocupado, el controlador
terminaría por almacenar unas cuantas palabras y
con una gran tarea de administración al mismo
tiempo.

Aunque los datos se transfieren del controlador a la


memoria, ya sea mediante la CPU o mediante el
propio controlador, el siguiente sector pasará debajo
de la cabeza del disco y los bits llegarán al
controlador. Los controladores simples no pueden
enfrentarse a la E/S simultánea, de forma que
mientras se lleva a cabo una transferencia en la
memoria, el sector que pasa debajo de la cabeza del
disco se pierde.

Como resultado, el controlador sólo podrá leer hasta


el siguiente bloque, La lectura de una pista completa
se realizará entonces en dos rotaciones completas,
una para los bloques nones y otra para los pares. Si
el tiempo necesario para una transferencia de un
bloque del controlador a la memoria por medio del
bus es mayor que el tiempo necesario para leer un
bloque del disco, podría ser necesario leer un bloque
y después saltar dos o más bloques.

El salto de bloques, que se ejecuta para darle tiempo


al controlador para la transferencia de los datos a la
memoria se llama separación. Al dar formato al
disco, los bloques se numeran tomando en cuenta el
factor de separación.

PRINCIPIOS DEL SOFTWARE DE E/S :

La idea básica es organizar el software como una


serie de capas, en donde las capas inferiores se
encarguen de ocultar las peculiaridades del
hardware a las capas superiores y de forma que
éstas se preocupen por presentar una interfaz
agradable, limpia y regular a los usuarios.

OBJETIVOS DEL SOFTWARE DE E/S :


Un concepto clave en el diseño del software de E/S
es la independencia del dispositivo. Debe ser posible
escribir programas que se puedan utilizar con
archivos en un disco flexible o un disco duro, sin
tener que modificar los programas para cada tipo de
dispositivo.

El sistema operativo debe encargarse de los


problemas causados por el hecho de que estos
dispositivos sean distintos y requieran directivas de
dispositivos muy diferentes.

El objetivo de lograr nombres uniformes está muy


relacionado con el de independencia del dispositivo.
El nombre de un archivo o dispositivo debe ser sólo
una cadena o un entero y no de debe depender del
dispositivo.

Otro aspecto importante del software de E/S es el


manejo de errores. En gral. los errores deben
manejarse lo más cerca posible del hardware. Si el
controlador descubre un error de lectura, debe
tratar de corregirlo, en la medida de lo posible. Si no
puede corregirlo, entonces el manejador del
dispositivo debería controlarlo, tal vez mediante la
forma de leer el bloque de nuevo.

Otro de los aspectos claves son las transferencias


síncrona (por bloques) o asíncrona (controlada por
interruptores). La mayor parte de la E/S es
asíncrona.

Los programas de los usuarios son mucho más fáciles


de escribir si las operaciones de E/S son por medio
de bloques. El sistema operativo se encarga de hacer
que operaciones controladas por interruptores
parezcan del tipo de bloques para el usuario.

Algunos de los dispositivos de E/S, como los discos,


pueden ser utilizados por varios usuarios al mismo
tiempo.

Otros dispositivo, como las impresoras, deben


dedicarse a un solo usuario hasta concluir con él.
El uso de dispositivos de uso exclusivo presenta
también una serie de dificultades. El sistema
operativo debe administrar los dispositivos
compartidos y de uso exclusivo de forma que evite
dichos problemas.

Estos objetivos se logran de una forma comprensible


y eficiente al estructurar el software de E/S en
cuatro capas :

1) Directivas de dispositivos

2) Software de sistema operativo independiente de


los dispositivos.

3) Manejadores de interrupciones

4) Software a nivel usuario


MANEJADORES DE INTERRUPCIONES :

Las interrupciones deben ocultarse en lo más


profundo de las entrañas del sistema operativo, de
forma que sólo una pequeña parte del sistema sepa
de ellas. La mejor forma de esconderlas es que cada
proceso que inicie una operación de E/S se bloquee
hasta que termine la E/S y ocurra la interrupción.

Al ocurrió la interrupción el procedimiento de


interrupción realiza lo debido para eliminar el
bloqueo del proceso que lo inició.

El efecto real de la interrupción será que un proceso


antes boqueado podrá continuar su ejecución.

MANEJADORES DE DISPOSITIVOS :

Todo el código que depende de los dispositivos


aparece en los manejadores de los dispositivos. Cada
uno de éstos controla sólo un tipo de dispositivo ; o
a lo más, una clase de dispositivos muy cercanos
entre sí.

Cada controlador tiene uno o más registros de


dispositivos, los cuales se utilizan para dale los
comandos. Los manejadores de dispositivos proveen
estos comandos y verifican su ejecución adecuada.
Así el manejador del disco es la única parte del
sistema operativo que conoce el número de registros
de un controlador de disco y el uso que tienen éstos.
El se encarga de los sectores, pistas, cilindros,
cabezas, movimiento del brazo, factores de
separación, control del motor, tiempos de descenso
de la cabeza y el resto de la mecánica del
funcionamiento adecuado del disco.

Es decir, la labor de un manejador de dispositivo es


la de acepar las solicitudes abstractas que le hace el
software independiente del dispositivo y verificar la
ejecución de dicha solicitud.
El primer paso para llevar a cabo una solicitud de E/S
para un disco es traducirla de términos abstractos a
términos concretos. Para un manejador de disco,
esto quiere decir estimar el lugar donde se
encuentra en realidad el bloque solicitado, verificar
si el motor de la unidad funciona, si el brazo está
colocado en el cilindro adecuado, etc.

Una vez determinados los comandos, pueden ocurrir


dos tipos de situaciones :

� El dispositivo debe esperar hasta que el


controlador realice cierto trabajo, de forma que el
manejador se bloquea hasta que ocurre una
interrupción que elimina el bloqueo.

� La operación termina sin retraso, por lo que el


manejador no necesita el bloqueo.

En cualquier caso, debe verificar los errores después


de terminar la operación. Si todo está en orden, el
manejador dispondrá de datos para transferirlos al
software independiente del dispositivo. Por último,
regresa cierta información de estado para informar
de los errores a quien lo llamó. Si existen otras
solicitudes pendientes, debe seleccionar e iniciar
alguna de ellas, Si no hay pendientes, el manejador
se bloquea en espera de una solicitud.

SOFTWARE DE E/S INDEPENDIENTE DEL DISPOSITIVO


:

Aunque una parte del software de E/S es


dependiente del dispositivo, una gran parte de él es
independiente.

La función básica del software independiente del


dispositivo es llevar a cabo las funciones de E/S
comunes a todos los dispositivos, además de
proporcionar una interfaz uniforme del software a
nivel usuario.
El software independiente del dispositivo se encarga
de asociar los nombres simbólicos de los dispositivos
con el nombre adecuado.

Un aspecto muy relacionado con los nombres es el


de la protección ; MS-DOS, no tiene protección
alguna, en cambio UNIX utiliza un esquema más
flexible. Loas archivos especiales correspondientes a
los dispositivos de E/S están protegidos por los bits
usuales rwx. El administrador del sistema puede
establecer entonces los permisos adecuados para
cada dispositivo.

Los distintos discos pueden tener diferentes


tamaños de sector. Es labor del software
independiente del dispositivo ocultar este hecho y
proporcionar un tamaño uniforme de los bloques a
los niveles superiores.

De esta forma, las capas superiores sólo trabajan con


dispositivos abstractos que utilizan el mismo tamaño
de bloque lógico, de forma independiente al tamaño
de sector físico.

El almacenamiento en buffer también es otro


aspecto, tanto de los dispositivos de bloque como
los de carácter. Si un proceso del usuario escribe la
mitad de un bloque, el sistema operativo mantendrá
los datos en forma interna hasta que se escriban el
resto de ellos, en cuyo momento el bloque podrá
pasar al disco. Para los dispositivos de carácter, los
usuarios pueden escribir los datos al sistema de
manera más rápida que la velocidad con la que
pueden salir, por lo que se requiere el uso de buffers

Al crear un archivo y llenarlo de datos, los nuevos


bloques del disco deben ser asignados al archivo.
Para esto, el sistema operativo necesita una lista o
un mapa de bits de los bloques libres del disco, pero
el algoritmo para localizar un bloque libre es
independiente del dispositivo y se puede realizar por
arriba de la capa del manejador.
Algunos dispositivos, como las unidades de cinta
magnética, sólo se pueden utilizar por un proceso en
determinado momento. El sistema operativo se
encarga de examinar las solicitudes para el uso del
dispositivo y aceptarlas o rechazarlas, según la
disponibilidad del dispositivo solicitado.

El manejo de errores lo realizan los manejadores. La


mayoría de los errores dependen en gran medida del
dispositivo, por lo que sólo éste sabe qué hacer. Un
error común se produce cuando un bloque del disco
ha sido dañado y no se puede leer más. Después de
que el manejador ha intentado leer el bloque un
cierto número de veces, se da por vencido e informa
del hecho al software independiente del dispositivo.

Interfaz uniforme para los manejadores de


dispositivos

nombres de los dispositivos

protección del dispositivo


proporcionar un tamaño de bloque independiente
del dispositivo

uso de buffers

asignación de espacio en los dispositivos por bloques

asignación y liberación de los dispositivos de uso


exclusivo

informe de errores

funciones del software de E/S independiente del


dispositivo

SOFTWARE DE E/S EN EL ESPACIO DEL USUARIO :

Aunque la mayoría del software de E/S está dentro


del sistema operativo, una pequeña parte de él
consta de bibliotecas ligadas entre sí con los
programas del usuario e incluso programas
completos que se ejecutan dentro de del núcleo.

No todo el software de E/S a nivel usuario consta de


procedimientos de biblioteca. Otra categoría
importante es el sistema de spooling. El spooling es
una forma de trabajar con los dispositivos de E/S de
uso exclusivo en un sistema de multiprogramación.
Supongamos el caso de una impresora y un archivo
especial que un proceso abrió y después no llevó a
cabo actividad alguna durante horas. Ningún proceso
podría imprimir nada.

En vez de esto, lo que hace es crear un proceso


especial, llamado un demonio, y un directorio
especial, llamado directorio de spooling. Para
imprimir un archivo, un proceso genera en primer
lugar todo el archivo por imprimir y lo pone en el
directorio de spooling. El demonio, que es el único
proceso con permiso para utilizar el archivo especial
de la impresora, debe imprimir los archivos en el
directorio. Al proteger el archivo especial contra el
uso directo de los usuarios, se elimina el problema
de tener a alguien manteniendo algún archivo
abierto un largo tiempo innecesario.

Para enviar un archivo a alguna parte, un usuario lo


coloca en un directorio de spooling de la red, Más
adelante, el demonio de la red lo toma y transmite.

Solicitud de E/S capa Réplica de E/S

Procesos del usuario

hace llamadas a E/S ; da formato a la E/S ; spooling

software independiente del dispositivo


nombre, protección, bloqueo, uso de buffers,
asignación

manejadores de dispositivos

conforma los registros del dispositivo ; verifica el


estado

manejadores de la interrupciones

despiera el manejador al terminar la E/S

hardware
lleva a cabo la operación de E/S

funciones de E/S

capas del sistema de E/S y las principales funciones


de cada capa

Las flechas de la figura anterior muestran el flujo de


control. Por ejemplo, cuando un programa del
usuario intenta leer un bloque de un archivo, se
llama al sistema operativo para llevar a cabo la
llamada. El software del dispositivo busca, por
ejemplo en el caché. Si el bloque necesario no se
encuentra ahí, llama al manejador del dispositivo
para que éste pase la solicitud al hardware. El
proceso se bloque entonces hasta que termina la
operación con el disco.

Al terminar con el disco, el hardware genera una


interrupción. Se ejecuta el manejador de
interrupciones para descubrir lo ocurrido. Extrae
entonces el estado del dispositivo y despierta para
terminar con la solicitud de E/S para que continúe el
proceso.

DISCOS :

Las ventajas principales respecto de la memoria


central en cuanto a almacenamiento, son :

1. La capacidad de espacio de almacenamiento


disponible es mucho más grande.

2. El precio por bit es más barato

3. La información no se pierde al apagar la


computadora.

HARDWARE PARA DISCOS :


Todos los discos reales están organizados mediante
cilindros, cada uno de los cuales contiene tantas
pistas como cabezas apiladas en forma vertical. Las
pistas se dividen en sectores y el número usual de
sectores en torno de la circunferencia es de ocho a
32. Todos los sectores contienen el mismo número
de bytes, aunque una ligera reflexión mostrará que
los sectores cercanos a la orilla del disco serán
mayores físicamente que los cercanos al anillo. El
espacio adicional no se utiliza.

Una característica de dispositivo es la posibilidad de


que un controlador realice búsquedas en una o más
unidades al mismo tiempo. Esto se conoce como
búsquedas traslapadas.

Muchos controladores pueden también leer o


escribir en una unidad mientras buscan en otras,
pero ninguno puede leer o escribir en dos unidades
al mismo tiempo.
ALGORITMOS DE PROGRAMACIóN DEL BRAZO DEL
DISCO :

El tiempo para la lectura o escritura de un bloque de


disco está determinado por tres factores : el tiempo
de búsqueda (el tiempo necesario para mover el
brazo hasta el cilindro apropiado), el retraso
rotacional (el tiempo necesario para que el sector
adecuado rote debajo de la cabeza) y el tiempo real
de la transferencia. Para la mayoría de los discos, el
tiempo de búsqueda domina.

Si el manejador del disco acepta solicitudes, una a la


vez, y las lleva a cabo en ese orden poco se puede
hacer para reducir el tiempo de búsqueda. Sin
embargo es posible otra estrategia si el disco está
demasiado cargado.

Para esto consideremos un disco con 4o cilindros. Se


presenta una solicitud para leer un bloque en el
cilindro 11. Mientras se busca el cilindro, llegan
nuevas solicitudes para los cilindros 1,36,16,34,9 y
12, en ese orden. Cuando termina la solicitud activa,
por medio del algoritmo anterior, podría pasar al
cilindro 1, después al 36, etc. Este algoritmo
necesitaría movimientos del brazo de 10,35,20,18,25
y 3 respectivamente, para un total de 111 cilindros.

Ora alternativa es manejar siempre a continuación la


solicitud más cercana, a fin de minimizar el tiempo
de búsqueda. Este algoritmo, reduce a la mitad el
número de movimientos del brazo en comparación
con el anterior. Pero éste último tiene un
inconveniente : con un disco muy cargado, el brazo
tenderá a permanecer a la mitad del disco la mayoría
del tiempo, de modo que las solicitudes de los
extremos deberán esperar hasta que una fluctuación
estadística en la carga provoque que no existan
solicitudes cerca de la mitad del disco. Las solicitudes
lejanas de la mitad obtendrán un mal servicio. Los
objetivos de tiempo mínimo de respuesta y justicia
entran en conflicto. Sin embargo la mayoría de los
elevadores utilizan un algoritmo distinto para
reconciliar los objetivos conflictivos de eficiencia y
justicia. El algoritmo del elevador necesita que el
software solo conserve 1 bit : el de la dirección
actual, ARRIBA Y ABAJO. Al terminar con una
solicitud, el manejador del disco o elevador verifica
el bit. Si indica ARRIBA, el brazo o cabina se desplaza
hacia la siguiente solicitud pendiente hacia arriba, si
ésta existe. Si no existen solicitudes pendientes en
posiciones más altas, se invierte el bit de dirección.
Cuando el bit indica ABAJO, el movimiento es hacia
la siguiente posición inferior solicitada, si ésta existe.

Una ligera modificación de éste algoritmo con una


variación menor en los tiempos de respuesta es
rastrear siempre en la misma dirección. Después de
darle servicio al cilindro con el número mayor, el
brazo pasa al cilindro de número menor con una
solicitud pendiente y continúa su movimiento hacia
arriba.

Algunos controladores de disco proporcionan una


forma para que el software inspeccione el número
del sector activo debajo de la cabeza. Si dos o más
solicitudes para el mismo cilindro están pendientes,
el manejador puede enviar una solicitud para el
sector que pasará por debajo de la cabeza. Al
mejorar la tecnología de los discos, los tiempos de
búsqueda se acortan, pero no se modifica el retraso
debido a la rotación.

Otra tendencia es el trabajo conjunto de varios


discos. Una configuración interesante es la de 38
unidades ejecutándose en paralelo. Cuando se
realiza una operación de lectura, entran a la
computadora 38 bits a

la vez, uno por cada unidad.

MANEJO DE ERRORES :

Los disco están sujetos a una amplia gama de


errores.

1. Error de programación

2. Error temporal en la suma de verificación.


3. Error permanente en la suma de verificación

4. Error de búsqueda

5. Error del controlador

Los errores de programación ocurren cuando el


manejador le dice al controlador que busque un
cilindro no existente, lea un sector no existente,
utilice una cabeza no existente o transfiera desde o
hacia una memoria no existente.

Los errores temporales en la suma de verificación


son provocados por partículas de polvo en el aire,
que penetran entre la cabeza y la superficie del
disco. La mayor parte del tiempo se podrán eliminar
al repetir la operación unas cuantas veces. Si persiste
el error, el bloque puede ser marcado como un
bloque defectuoso de forma que el software lo evite.
Otra alternativa es que controladores de disco
inteligentes reserven unas cuantas pistas que por lo
general no estén disponibles para los programas del
usuario. Al dar formato a una unidad de disco, el
controlador determina los bloques defectuosos y
sustituye en forma automática una de las pistas de
repuesto por la pista defectuosa.

Los errores de búsqueda son provocados por


problemas mecánicos en el brazo, El controlador
lleva un registro interno de la posición del brazo.
Para realizar una búsqueda, envía una serie de
pulsaciones al motor del brazo, un pulso por cada
cilindro, para desplazar el brazo hacia el nuevo
cilindro.

Algunos controladores corrigen de manera


automática los errores de búsqueda, pero otros sólo
activan un bit de error y dejan el resto al manejador,
el cual se encarga del error enviando un comando
RECALIBRATE, para mover el brazo tan lejos como
sea posible y modificar la idea interna del
controlador acerca del cilindro activo.
Como hemos visto el controlador es en realidad una
peque4a computadora especializada, con software,
variables, buffers y, en ciertas ocasiones, fallas.

Los diseñadores de controladores prevén lo peor y


proporcionan una clavija en el chip o tarjeta la cual
obliga al controlador a olvidar lo que realizaba para
inicializarse él mismo. Si todo lo demás falla, el
manejador del disco puede activar un bit para
invocar ésta señal y volver a inicializar al
controlador.

OCULTAMIENTO DE UNA PISTA A LA VEZ :

Una desventaja del ocultamiento de una pista a la


vez es que las transferencia del caché al programa
que hace la llamada deben ser realizadas por el CPU
mediante un ciclo programado, en vez de dejar que
el hardware DMA realice la labor.
Algunos controladores llevan este proceso un poco
más adelante y realizan el ocultamiento de una pista
a la vez en su propia memoria interna, en forma
transparente al manejador, de modo que las
transferencias entre el controlador y la memoria
puedan utilizar DMA.

Un disco en RAM tiene la ventaja del acceso


instantáneo (no existe retraso rotacional o debido a
las búsquedas), lo que lo hace adecuado para el
almacenamiento de programas o datos con acceso
frecuente.

El disco en RAM se divide en n bloques, según la


cantidad de memoria asignada a él. Cada bloque
tiene el mismo tamaño que el bloque de los discos
reales. Cuando el manejador recibe un mensaje para
la lectura o escritura en un bloque, solo calcula el
lugar de la memoria del disco en RAM donde se
encuentra el bloque solicitado y lee o escribe en él,
en vez de utilizar un disco flexible o un disco duro.
Por lo general, se puede hacer la transferencia al
llamar un procedimiento en lenguaje ensamblador,
el cual copia desde o hacia el programa del usuario a
la máxima velocidad posible para el hardware.

Además de los discos también tenemos relojes y


terminales. Para los relojes, lo importante es
mantener un registro de varias solicitudes con un
solo reloj. Para el caso de las terminales hay que
distinguir entre la entrada y la salida. Los aspectos
de la entrada son el modo crudo o el modo cocinado,
el almacenamiento en buffers, el eco, los caracteres
de relleno, la edición de líneas y el manejo de
caracteres especiales. El software de salida se
encarga del movimiento del cursor y otras
secuencias de escape.

8. ESTUDIO 2 : MS-DOS

Sistema Operativo de un solo procesador. A


diferencia de UNIX, que se puede ejecutar en una
amplia gama de máquinas distintas, MS-DOS sólo se
ejecuta en el Intel 8088 y sus sucesores, 286, 386 y
486. MS-DOS es sin duda el sistema operativo de
más amplio uso de todos los tiempos.

8.1HISTORIA DE MS-DOS

La primera computadora personal fue la Altair,


producida en 1975 por la compañía MITS de
Albuquerque, Nuevo México. Tenía un CPU con el
Intel 8080 de 8 bits y 256 bytes de memoria. Un
joven llamado Bill Gates escribió una versión de
BASIC para la Altair. Después de unos cuantos años,
muchas compañías comenzaron a fabricar
computadoras personales con base en el chip 8080.
Casi todas ellas trabajaban con un sistema operativo
llamado CP/M, producido por Digital Research.

8.1.1La PC-IBM

Alrededor de 1980, IBM decidió que las


computadoras personales eran un área donde
debería estar presente. Le dijo a uno de sus gerentes
Philip Estridge, que fuera a Boca Ratón, Florida, y
que no regresara hasta tener una computadora
personal.

Estridge pronto decidió que la única forma en que él


podía producir una computadora personal era
mediante el uso de componentes estándar,
disponibles, en vez de diseñar los suyos propios.
Para entonces, Intel había producido el 8086 de 16
bits y el 8088. Estridge eligió el 8088. IBM sabía que
BASIC era popular entre los usuarios de las
microcomputadoras, por lo que acudió a Bill Gates
con el fin de obtener la licencia del intérprete de
BASIC para su uso en la PC de IBM. En aquel
entonces, Microsoft se encargaba de vender UNIX,
pero UNIX, necesitaba 100 K, sólo para el sistema
operativo y un disco duro. La máquina de IBM tenía
64 K, sin disco duro. Gates sugirió que IBM utilizara
el sistema operativo CP/M-86 de Digital Research.
IBM habló de esto con Digital Research, pero el
programa de desarrollo de CP/M-86 estaba
retrasado.
Fue así como IBM regresó a Microsoft y les pidió que
escribieran un sistema operativo del tipo de CP/M.
Gates sabía de una compañía, Seattle Computer
Products, que había escrito un sistema operativo del
tipo CP/M, llamado 86-DOS. Microsoft compró
entonces el 86-DOS y contrató en abril de 1981 a su
autor, Tim Patterson, para realizar unos cuantos
arreglos. Cambiaron su nombre por el de MS-DOS y
lo entregó a tiempo a IBM. Cuando IBM anunció la
PC en agosto de 1981, MS-DOS estaba ahí, junto a
ella.

La gran virtud de MS-DOS era que podía ejecutar la


mayor parte del software que se utilizaba entonces
en el 8080 bajo CP/M.

Estas fueron las versiones de MS-DOS que


estubieeron en el mercado:

MS-DOS Versión 1.0

MS-DOS Versión 2.0


MS-DOS Versión 3.0

MS-DOS Versión 4.0

MS-DOS Versión 5.0

MS-DOS Versión 6.0

MS-DOS Versión 6.2

MS-DOS Versión 6.22

8.2 PANORAMA DE MS-DOS

8.2.1 Uso de MS-DOS

Para utilizar MS-DOS sólo hay que encender la


computadora. Unos segundos después, aparece el
indicador del shell. No existe un procedimiento de
entrada ni contraseñas, puesto que MS-DOS está
pensado para utilización en una computadora
personal. Por la misma razón, los archivos y
directorios no tienen propietarios y no existen bits
de protección.

Para ejecutar un programa, se escriben su nombre y


argumentos en el shell. Algunas de las características
del shell de UNIX también están presentes en MS-
DOS. Los caracteres comodines * y ? están presentes
y concuerdan con todas las cadenas y un carácter
arbitrario, respectivamente, al igual que en un UNIX.
Así copy *.c src

indica que se copien todos los archivos del directorio


activo con terminación.c al directorio src y

del directorio en que está.


indica la eliminación en el directori activo de todos
los archivos cuyo nombre tenga exactamente tres
caracteres.

Command.com no distingue entre las letras


mayúsculas y minúsculas. Así se puede escribir

COPY A B

con el mismo efecto de

copy a b

El redireccionamiento de la entrada y salida estándar


y los filtros funciona de la misma manera que en
UNIX e incluso utiliza la misma notación. También se
permiten los entubamientos, pero se implantan de
manera distinta (mediante archivos temporales).
Otras características tomadas de UNIX son las
variables del shell, indicadores adaptables por el
usuario y los guiones en shell, llamados archivos de
procesamiento por lotes en MS-DOS.

Por otro lado, sólo se permite el uso de "[a-z]" en


cierto rango y no se reconocen el entrecomillado de
las cadenas.

Los comandos de MS-DOS se dividen en dos


categorías: internos y externos. Los internos se
ejecutan por el propio shell: los externos son
auténticos programas que por lo general, se
encuentran en el directorio \dos o \bin

En MS-DOS muchas de las utilerías de más uso son


comandos internos del shell. En total existen 40
comandos internos. Algunos de los más comunes
aparecen en la figura 8-2, junto con su equivalente
en UNIX.

Comando de MS-DOS
Equivalente en UNIX

Descripción

copy

cp

Copia uno o más archivos

date

date
Exhibe o modifica fecha actual

del

rm

Elimina uno o más archivos

dir

is

Enlista archivos y directorios


mkdir

mkdir

Crea un nuevo directorio

rename

mv

Da a un archivo nuevo nombre

rmdir
rmdir

Elimina un directorio vacío

type

cat

Exhibe un archivo

Fig. 8.2 Algunos de los comandos de MS-DOS


integrados al shell.

La construcción de tantos comandos dentro del shell


representa una situación contradictoria. Por un lado,
el hecho de no tener que buscarlos en un disco lento
los hace más rápidos. Puesto que la PC de IBM
original no tenía un disco duro, sin uda, esta fue la
razón para incluirlos en esa ocasión en el shell. Por
otro lado, todo ese código hace que el shell sea más
grande. Para evitar que este problema se salga de
contro, se ha mantenido un número mínimo de
comandos internos. Por ejemplo, no existe forma de
eliminar varios archivos no relacionados entre sí a la
vez. El comando

del tom dick harry

no funciona, puesto que del sólo toma un


argumento. Sin embargo, es válido decir

del *.obj

para eliminar todos los archivos que terminen con


.obj
Un problema relacionado con esto es la
interpretación de los caracteres comodines.
Supongamos que un usuario escribe

dir *.c

y se le indica que el único archivo que termina en .c


es hypertext.c. Entonces escribe

edir *.c

y espera llamar al editor con hypertext. Para su


sorpresa, el editor se queja de que *.c no es un
archivo válido y termina. El problema es que el
desarrollo de los comodines sólo funciona para los
comandos internos y no para los externos. En MS-
DOS, la lína de comandos se transfiere de manera
literal al programa. El resultado neto de esto es que
los usuarios deben recordar los comandos que
manejan el desarrollo de los comodines y los que no.
El hecho de que los comandos vean los comodines
también puede ser una ventaja. Un comando
externo como

replace *.c *.old

reemplaza de manera sistemática todas las


extensiones de los archivos con terminación .c por
.old. En UNIX esto es casi imposible de lograr.

MS-DOS tiene directorios de trabajo, pero difieren


de los de UNIX de manera importante. En UNIX, cada
proceso tiene su propio directorio de trabajo, pero si
un usuario escribe

cd /usr/ast/src

e inicia entonces un proceso, éste hereda a


/usr/ast/src como un directorio de trabajo. Si el
proceso cambia entonces de directorio de trabajo a
/usr/ast/mail y hace su salida, el shell seguirá
teniendo a usr/ast/src como directorio de trabajo y
el siguiente proceso que inicie será colocado ahí. En
contraste, los mismos sucesos en MS-DOS dejarán al
segundo proceso en el directorio mail, puesto que
MS-DOS sólo tiene un directorio de trabajo (para
cada disco).

MS-DOS 5.0 tiene un programa doskey que se puede


instalar con el fin de registrar y guardar en un buffer
todas las combinaciones de teclas. Su función es
permitir la repetición de comandos, con o sin
edición.

8.2.2 El Shell de MS-DOS

Muchos usuarios, en especial los principiantes,


consideran que la interfaz de la línea de comandos
de MS-DOS es crítica, o francamente hostil.

Para facilitar la vida de estas personas, MS-DOS


tiene ahora una interfaz orientada a la pantalla,
llamada dosshell. Despliega los archivos y directorios
en ventanas y permite que los usuarios realicen una
gran cantidad de trabajo al apuntar mediante el
ratón y oprimir el botón de éste.

Al iniciar dosshell, ya sea en forma manual o


automática al encender la máquina, se exhiben
varias ventanas en la pantalla. Pueden aparecer
varias pantallas, una de las cuales se muestra en la
figura 8-3. Esta contiene ocho ventanas.

La ventana superior es la barra de título, la cual


identifica el programa en ejecución. A continuación
aparece la barra de menú. Al oprimir el botón del
ratón sobre File aparece un menú que permite a los
usuarios desplazar, copiar, cambiar el nombre e
imprimir archivos, crear directorios, así como otras
operaciones análogas.

El menú Options activa o desactiva varias opciones.


También permite al usuario seleccionar los colores
de la pantalla y cosas similares.
El menú View controla los cuatro tipos de ventanas
que se pueden exhibir y el tamaño de cada una.

El menú Tree controla las opciones de la forma en


que se exhiben los subdirectorios en la pantalla.
Estas opciones afectan los valores predefinidos [+] y
[-].

El menú Help proporciona una amplia ayuda en línea


en relación con varios aspectos de dosshell..

La siguiente sección de la pantalla de la figura 8-3


contiene los iconos de unidad. En MS-DOS, cada
unidad de disco tiene asignado un código. Los dos
primeros discos se llaman A y B y el primer disco
duro se llama C.

La cadena C:\ que se muestra arriba de las unidades


indica que el directorio de trabajo es el directorior
aíz del disco duro.
La ventana Directory Tree exhibe el directorio raíz de
la unidad C. Una entrada con un símbolo [+] indica
que el directorio en cuestión, como es el caso de
PUBLISH, tiene subdirectorios que no se muestran.
Al oprimir el botón sobre [+] este símbolo cambia
por [-] y se muestran los subdirectorios, como en el
caso de GAMES.

La barra de recorrido (scroll bar) a la derecha de la


ventana se utiliza si la información por exhibir
excede el tamaño de la ventana.

Al seleccionar una entrada del Directory Tree, sus


archivos aparecen en la ventana File List a la derecha
de ésta. En la figura 8-3, se seleccionó TEXT, por lo
que se muestran sus archivos.

Si el archivo es un programa ejecutable, este se


ejecuta al oprimir dos veces el botón sobre él. Esta
es la forma usual de ejecutar un programa desde
dosshell.
La ventana Main tiene una lista de los comandos de
uso frecuente. Los programas se ejecutan al oprimir
el botón del ratón sobre ellos.

En un principio, MS-DOS era, un sistema de un único


proceso. Sin embargo, en la verisón 6.0, es posible
inicar un comando y después suspenderlo al escribir
CTRL-ESC. Entonces vuelve a aparecer la pantalla
dosshell, con el nombre del programa suspendido en
la ventana Active Task List.

Todos los programas suspendidos aparecen en esta


ventana. Si se oprime el botón del ratón dos veces
sobre alguno de ellos, este programa continúa su
ejecución.

Por último, la ventana Status. Tiene una lista de


ciertas abreviaturas de comandos, exhibe mensajes y
muestra la hora del día.

Figura 8.3
8.2.3 Configuración de MS-DOS

MS-DOS se puede configurar en una infinidad de


formas.

El programa doskey es un ejemplo del uso de esta


característica. Al registrar las interrupciones del
teclado, doskey puede examinar todos los caracteres
tecleados antes de que éstos pasen al sistema
operativo. Además de reciclar comandos anteriores,
doskey permite que los usuarios definan macros con
nombres cortos para secuencias largas de teclas.

Otra forma de configuración por parte del usuario es


la capacidad de instalar manejadores de dispositivos
adaptados a las necesidades de aquellos. Estos
manejadores pueden cotnrolar a los dispositivos de
E/S no estándar, como los sintetizadores de música
MIDI. También pueden manejar los dispositvos
estándar, como la memoria extendida, de forma no
estándar (por ejemplo simular discos en RAM). Esta
capacidad permite un alto grado de flexibilidad.
Otro tipo muy distinto de posibilidades de
configuración es el soporte de los diferentes
lenguajes nacionales. La organización del teclado
tradicional también difiere de país en país. Para el
manejo de teclados diferentes, MS-DOS tiene la
capacidad de asociar los códigos de teclas
producidos por el teclado con diferentes caracteres.
Gran parte de la capacidad de configuración de MS-
DOS se controla mediante un archivo llamado
config.sys. Puede contener comandos para la
instalación de manejadores de dispositivos
adecuados, establecer el soporte del lenguaje
nacional, determinar la parte de la memoria donde
debe colocarse el sistema operativo, asignar
memoria para el buffer caghé, especificar el número
máximo de archivos abiertos y seleccionar el shell.
Además, después de procesar este archivo, se
ejecuta un archivo por lotes llamado autoexec.bat
para otros detalles de la inicialiación y configuración.

8.3 CONCEPTOS FUNDAMENTALES EN MS-DOS


En MS-DOS, el modelo de un proceso y su uso de
memoria están fuertemente entrelazados e
íntimamente relacionados con los detalles de la
arquitectura del CPU 8088 y la arquitectura del
sistema PC de IBM. Además, la programación del
modelo de los procesos y de la memoria son
inseparables de la implantación.

8.3.1 Procesos en MS-DOS

MS-DOS no es un sistema de multiprogramación


como UNIX y no puede soportar varios procesos
independientes en ejecución simultánea en la misma
máquina. Tampoco es un sistema de
monoprogramación. Es algo intermedio.

En MS-DOS, el proceso padre y el hijo no pueden


ejecutarse en paralelo. Cuando un proceso produce
un hijo, el padre se suspende de manera automática
hasta que el hijo hace una salida. Nada de lo que
pueda hacer el padre puede evitar esto. Así, en
cualquier momento puede existir un número
arbitrario de procesos dentro de la memoria, pero
sólo uno de ellos estar activo. Por esta razón,
aunque MS-DOS permite la existencia de varios
procesos a la vez, no es un verdadero sistema de
multiprogramación.

Sin embargo, es posible hacer un truco y lograr un


limitado grado de multiprogramación mediante el
manejo directo de las estructuras de datos del
sistema operativo. Este truco sólo funciona debido a
que MS-DOS se ejecuta en máquinas sin protección
de memoria.

MS-DOS tiene dos tipos de archivos binarios


ejecutables, los que producen dos tipos ligeramente
distintos de procesos. Un archivo con extensión
.com, como prog.com es un simple archivo
ejecutable. El archivo ejecutable es una imagen
exacta, byte a byte, del código ejecutable. El archivo
se carga en la memoria tal cual es y se ejecuta.
Un proceso que inicia a partir de un archivo .com
tiene un segmento texto + datos + pila de a lo más
64 K. Incluso aunque el proceso no pueda exceder de
64 K, se le asigna toda la memoria disponible. La pila
está en la parte superior del segmento común de
64K. Si el proceso no planea producir procesos hijos,
se puede ejecutar de esta manera. Si realmente va a
producir hijos, debe regresar la parte no utilizada de
la memoria al sistema operativo, mediante una
llamada al sistema. Si se niega a liberar cierta
memoria, el intento por producir un hijo fracasará,
debido a la falta de memoria.

El otro tipo de archivo ejecutable es el archivo .exe


Un proceso creado a partir de estos archivos puede
tener un segmento de texto, un segmento de datos,
un segmento de pila y tantos segmentos adicionales
como lo desee. A diferencia de los archivos .com, lo
archivos .exe contienen información relativa a la
reasignación, por lo que pueden ser reasignados
conforme se cargan en la memoria. El sistema
operativo indica la diferencia entre los archivos .com
y los archivos .exe mediante los dos primeros bytes.
Los primeros 256 bytes de cada proceso de MS-DOS
forman un bloque especial de datos llamado PSP
(prefijo del segmento de programa). El sistema
operativo construye este bloque al momento de
crear el proceso. Para los archivos .com, cuenta
como parte del espacio de direcciones del proceso y
se puede hacer referencia a él mediante las
direcciones 0 a 255. Por esta razón todos los
procesos .com comienzan en la dirección 256 y no en
la dirección 0. Por el cotnrario los archivos .exe se
reasignan por arriba de PSP. Esto evita desperdiciar
256 bytes de espacio de direcciones.

PSP contiene el tamaño del programa, un apuntador


al bloque del ambiente, la dirección del manejador
CTRL-C, la cadena del comando, un apuntador al PSP
del padre, la tabla de descriptores del archivo y otro
información. Alguna de esta información es obsoleta
y alguna otra es sólo para uso interno de MS-DOS.

El bloque de ambiente es una parte de la memoria


que contiene a todas las variables de shell, donde
cada cadena termina con un byte nulo. Con respecto
al ambiente, MS-DOS es igual que UNIX, excepto que
en UNIX el puntador al ambiente no es una dirección
fija de la parte inferior del espacio de direcciones del
proceso, sino que es un parámetro de main.

Si en la cadena de comando, el usuario escribe

edit *.c

la cadena de comando que se transfiere a edit es


"*.c". El propio programa se encarga de desarrollar
el *, si así lo desea. Algunos lo hacen y otros no: esta
es la razón de que los comodines puedan actuar de
maneras distintas con los comandos internos y
externos.

En MS-DOS un hijo hereda, por lo general, los


archivos abiertos del padre y sus posiciones de
archivo, a menos que ellos hubieran sido abiertos de
modo especial, para inhibir la herehcia. Los archivos
abiertos por el propio hijo se cierran de manera
automática al terminar éste y su memoria es librada.
Un hijo también puede regresar un estado de salida
a su padre. Todo esto es igual en las características
correspondientes a UNIX.

A diferencia de UNIX, MS-DOS no soporta formas de


intercambio (swapping) o paginación. Cuando un
proceso produce un hijo, existe el peligro de que no
exista la suficiente memoria para el hijo y sus futuros
descendientes. Con el fin de reducir la probabilidad
de que esto ocurra, muchos de los procesos que
pueden tener hijos se construyen en dos partes. En
la figura 8.4 vemos la máquina justo después de
haber arrancado e iniciado command.com.

Figura 8.4

Supongamos ahora que este editor tiene la


capacidad de que el usuario pase a command.com
sin perder el contesto de la edición.
Es probable que el enorme editor haya sido
construído en la memoria dejando un pequeño
espacio de resguardo (stub) después del intérprete o
editor principal. Antes de regresar a command.com
el enorme editor puede copiar su propia imagen
central a un archivo en disco, reducir su asignación
de memoria dejando exactamente sólo el espacio de
resguardo y después producir al hijo, lo que da la
situación de la figura 8.4(c). Si el usuario decide dar
formato a un disco para guardar su archivo, pasamos
a la figura 8-4 (d). Al terminar el programa de
formato, regresamos a la figura 8-4(c). Cuando el
usuario escriba

exit

para salir de command.com, el espacio de resguardo


(stub) del enorme editor recupera el control y lee en
el resto de sus procesos. Entonces puede continuar
la edición a partir del punto donde se suspendió.
Por lo general, cuando un proceso termina se
reclama su memoria y el proceso desaparece para
siempre. Sin embargo, MS.DOS también tiene una
alternativa para un proceso que concluye, donde se
indica al sistema que no recupere su memoria, sino
que considere que hizo su salida

Los procesos en MS-DOS pueden instalar sus propios


manejadores de interrupciones. En particular, un
proceso puede instalar un nuevo manejador del
teclado, el cual se llama en cada interrupción del
teclado. Este manejador se puede localizar dentro de
los procesos TSR inalcanzables.

El manejador examina rápidamente la combinación


de teclas, para ver si es la tecla especial o
combinación de teclas llamada tecla de activación
(hot key), que activa el código TSR. Si este no es el
caso, el carácter se coloca en la cola de entrada de
caracteres del sistema operativo y el programa TSR
regresa de la interrupción al programa de la
aplicación. Si es la tecla de activación, el programa
TSR vuelve a la vida y realiza lo que se supone deba
hacer. Esta secuencia de eventos se muestra en la
fig. 8-5. También es posible tener un manejador de
interrupciones que busque varias teclas de
activación y desvíe el control hacia el procedimiento
adecuado.

MS-DOS no es un sistema que vuelva a entrar


(reentrant), lo que significa que no puede manejar
una segunda llamada hasta terminar con la primera.
Entre otras cosas, el programa TSR no puede utilizar
MS.DOS para leer nuevos datos mediante el teclado
y no lo puede utilizar para escribir en la pantalla.
Tampoco lo puede utilizar para tener acceso a
archivos.

En la actualidad MS-DOS contiene ciertos puntos que


posibilitan el hecho de que los programas TSR
realicen llamadas al sistema mediante ciertos trucos
con MS-DOS. Nada de esto está documentado en el
manual oficial Microsoft MSDOS Programmer's
Reference Manual.
Sin embargo, la gran mayoría de los programas
comerciales TSR, por necesidad, hacen un extenso
uso de características no documentadas en MS.DOS.

8.3.2 El modelo de memoria de MS-DOS

MS-DOS tiene un modelo de memoria bastante


complejo. El espacio de direcciones se divide en
cuatro regiones, con tamaños y propiedades
diferentes.

La arquitectura de memoria del 8088

El 8088 tiene 12 registros, como se muestra en la fig.


8-6. El primer bloque, AX, BX, CX y DX lo forman
registros de 16 bits, cada uno de los cuales consta de
una pareja de registros de 8 bits

El segundo bloque, SI, DI, BP y SP son verdaderos


registros de 16 bits, SI y DI son registros de índices:
BP se utiliza, por lo general, para apuntar a la base
del marco de pila activo y SP es el apuntador a la
pila. Todos estos registros deben contener
apuntadores.

El tercer bloque, CS, DS, SS y ES son registros de


segmento. Cada registro de segmento contiene los
16 bits superiores de una dirección de 20 bits. Los 4
bits inferiores siempre son nulos.

Los registros de segmento contienen direcciones de


memoria medidas no en bytes, sino en unidades de
16 bytes, llamadas párrafos. Por ejemplo, un registro
de segmento con el valor 3 apunta al párrafo 3, que
es la dirección 0x00030 (48 decimal).

Cada registro de segmento tiene su propio uso. CS,


iniciales de segmento de código, se utiliza para
reasignar el contador del programa. DS, iniciales de
segmento de dato, se utiliza para reasignar
direcciones de datos SS, segmento de pila, se utiliza
para reasignar referencias a la pila.
Por último, ES, segmento extra, es un registro de
segmento adicional, que se utiliza con distintos fines.
Los segmentos tienen una longitud de 64 K bytes y se
pueden reasignar en cualquier parte del espacio de
direcciones de 1 megabyte.

La figura 8-7 (a) muestra dos segmentos dentro del


espacio de direcciones de IM. El segmento de código
ocupa la región de 8K a 72K y el segmento de datos
va de 512 K a 576 K. Para colocar el segmento de
código en 8K, el registro CS debe contener el valor
8192/16 que es 512. En forma análoga, DS es
524288/16, que es 32768. No es posible que el
segmento de código comience en la dirección 8190 o
la dirección 8194, puesto que ninguno de estos
valores se encuentra en la frontera de un párrafo; es
decir, ninguno de ellos se puede expresar como un
número de 20 bits cuyos 4 bits inferiores sean todos
0. Sólo las direcciones divisibles entre 16 tienen esta
propiedad.
Las instruccines de máquina en el 8088 contienen
direcciones de 16 bits y ajustes de 16 bits. El
contador del programa también tiene 16 bits

Con los registros de segmento, los programas y los


datos se pueden colocar en cualquier parte del
espacio de direcciones de IM. El precio que se paga
es que sólo se tiene un fácil acceso a 128 K. Para
tener acceso a un lugar fuera de los segmentos de
código o de datos, el programa debe cargar alguno
de estos segmentos con un valor distintos o cargar
ES y utilizar un tipo especial de direccionamiento que
indique al CPU que utilice ES en vez de Ds.

La arquitectura segmentada del 8088 indica que la


escritura del programa que utilice más de 64K de
código o datos es costosa.

Se han desarrollado varios modelos distintos de


programación para el 8088, según las necesidades de
cada programa. La elección depende de si los
segmentos de código y datos se asocian con la
misma memoria o no. La longitud de los apuntadores
al código y los datos, o bien si se necesita un espacio
mayor de 64K para los datos estáticos. En todos los
casos, la menor de las opciones utiliza direcciones y
apuntadores de 16 bits; la mayor utiliza éstos de 32
bits.

El área de memoria alta

Los registros de segmentos con valores entre 0xF001


y 0xFFFF tienen parte de sus segmentos por arriba de
1M. En el 286 y los siguientes procesadores, su
comportamiento depende del tipo de conexión del
pin de la dirección A20 en el chip del CPU. Si está
conectado de forma que funcione con los demás,
HMA se puede utilizar para la memoria y el propio
MS-DOS puede colocarse ahí. Sin embargo, si está
conectado a tierra (forzado a0), entonces todas las
direcciones entre 0x100000 y 0x101FFEF serán
asociadas al rango 0x00000 y 0x0FFEF. Para que sea
100% compatible con el 8088, el pin se debe
conectar a tierra.
Memoria extendida

El 286 y los siguientes CPU pueden tener memoria


por arriba de la marca de 1 M. El 286 puede tener
más de 16M; el 386 y 486 pueden tener hasta 4
gigabytes. La memoria por arriba de 1M se llama
memoria extendida. El 86 y las máquinas superiores
pueden tener dos o más modos de funcionamiento
del CPU, uno de los cuales es el modo real. El modo
real es el único que permite la compatibilidad con el
8088.

MS-DOS sólo funciona en modo real, lo que dificulta


el uso de la memoria extendida. En principio,
MS.DOS no utiliza la memoria extendida en forma
alguna. Ahora la memoria extendida sólo se utiliza
para los discos RAM y el buffer caché. La estructura
de MS-DOS no permite su uso para los programas.

El área superior de la memoria


En la PC la memoria entre 90 y 640K se reservaba
para el sistema operativo, los manejadores de
dispositivos y los programas ordinarios. Esta región
se llama ahora la memoria convencional. Los
restantes 348K, de 640K a 1M llamados área superior
de memoria (UMA) estaban reservados para video
RAM, ROM de BASIC y otras funciones relacionadas
con la E/S.

En un principio bastaban los 640K, pero al pasar el


tiempo y agrandarse los programas, esto se convirtió
en un predicamento En retrospectiva, la división del
espacio de direcciones del 8088 en la memoria
convencional de 640K y el área superior de memoria
de 384K fue un error. Los dispositivos de E/S no
necesitan tanto espacio de direcciones y los
programas necesitan mucho más, por lo que hubiera
sido mejor una divisi�n de 832K para programas y
192K para los dispositivos de E/S.

Aunque la mayorái de las PC tengan de 200K a 300K


de espacio de direcciones no utilizado en el área
superior de la memoria, las direcciones exactas libres
varían de una máquina a otra. Además, no están en
bloques adyacentes, sino en una colacci�n de
huecos entre las tarjetas de E/S

A partir de MS-DOS 5.0 Microsoft decidió permitir


que los modelos 386 y CPU superiores utilizaran este
espacio de direcciones, mediante la asociación de
partes de la memoria extendida con los huecos. Así
por ejemplo, si cierta máquina no tiene dispositivos
de E/S, ROM video RAM enlas direccines 640K a
703K, 768K a 800K y 896K a 960K puede indicar a
MS-DOS que asocie 160K de su memoria extendida
con estos huecos, para poderlos utilizar como RAM.

Sobreposiciones (overlays)

La necesidad de un espacio de direcciones mayor de


640K data desde el CPU 286. En ese momento, se
necesitaba una solución compatible con el 8088. Se
diseñaron dos soluciones, una en software y otra en
hardware. La solución en software que ofrece
MS.DOS es una llamada al sistema que permite a un
programa en ejecución cargar en la memoria un
archivo .com o .exe, lo que se denomina una
sobreposición (overlays), para recuperar después el
control. El programa que hace la llamada llama
entonces a un procedimiento que se encuentra en la
sobreposición. Después de concluir la sobreposición,
el control regresa al programa que hizo la llamada,
que puede entonces liberar la memoria de la
sobreposición y continuar. De esta forma, es posible
que programas arbitrariamente grandes queden
contenidos en una cantidad relativamente pequeña
de memoria.

La figura 8.9 muestra el funcionamiento de la


sobreposición. La sobreposición raíz (root overlay)
contiene el código de control del mecanismo de
sobreposición y también puede contener tablas y
estructuras de datos compartidas entre las fases del
compilador.

Un poco después de la incialización, la sobreposición


raíz hace una llamada al sistema, que carga la
sobreposición de la fase 1. Después de completar la
carga, la sobreposición raíz puede llamar al
procedimiento principal en la fase 1 mediante una
instrucción de llamada a procedimiento. Se ejecuta
la fase 1 y se coloca información en las tablas
contenidas en la sobreposición raíz. Al terminar, el
procedimiento principal de la fase 1 regresa al punto
donde se hizo la llamada en la sobreposición raíz. En
este punto, la sobreposición raíz puede pedir la
carga de la fase 2 y llamarla entonces. La fase 2
puede leer la información depositada en las tablas
de la sobreposición raíz por la fase 1.

Memoria expandida

Esquema de hardware llamada memoria expandida


mediante el cual se podían conectar al 8088 grandes
cantidades de memoria para su uso.

Como MSDOS no puede utilizar de manera adecuada


la memoria extendida, las máquinas 386 y 486
utilizan, por lo general, parte de la memoria
extendida para relenar los huecos en el área superior
de la memoria y el resto se utiliza a menudo para
simular la memoria expandida.

El espacio de direcciones de 1M en la PC de IBM se


divide en 64 páginas de 16K cada una. Un hardware
especial en la tarjeta de la memoria expandida
asocia las 64 pag virtuales, con cualquier conjunto de
marcos físicos de pág.

El problema que intenta resolver la memoria


expandida es ajustar programas y estructuras de
datos grandes en un espacio de direcciones virtuales
de 640 K. La memoria expandida es visible por
completo para el programador

8.3.3 El sistema de archivos en MS-DOS

MS-DOS permite que el directorio raíz tenga


subdirectorios y que éstos tengan de nuevo
subdirectorios, con una profundidad sin límite.
Los nombres de archivo en MS-DOS tienen una parte
básica de 8 caracteres, que pueden estar seguidos de
una extensión. La extensión siempre comienza con
un punto y puede contener 1 a 3 caracteres. Las más
comunes son:

.bat .obj .txt

.com .exe

.doc .sys

Para el shell de MS-DOS ABC, Abc y abc son el mismo


archivo.

Otra característica que posee MS-DOS es la


presencia de atributos de archivo. Existen 4:

1. Readonly
2. Archive

3. System

4. Hidden

copy a:\abc c: \usr\ast\xyz

copia un archivo del disco en la unidad a: al disco


duro. Si no se proporciona el código del dispositivo,
se asume el valor activo.

8.3.4 Entrada/Salida en MS-DOS

MS-DOS soporta archivos especiales de carácter para


la E/S hacia dispositivos seriales.

La apertura de un archivo especial de carácter


regresa un descriptor de archivo, que se puede
utilizar para la lectura y escritura. Otros archivos
especiales de carácter son com1 ltp1 y nul. Estos
nombres no deben utilizarse como la primera parte
del nombre de cualquier archivo, sin importar su
extensión.

Los archivos especiales de carácter soportan los


modos crudo y cocinado. En el modo cocinado, la
edición entre líneas es llevada a cabo por el sistema
operativo y sólo el resultado final es disponible para
el programa. En el modo crudo, los caracteres se
transfieren al programa exactamente como son
recibidos.

Si un proceso inicia en MS-DOS, éste tiene cinco


archivos abiertos de manera automática: entrada
estándar, salida estándar, error estándar, la línea
serial y la impresora, con los descriptores de archivo
0 y 4 respectivamente.

MS-DOS permite a los usuarios instalar sus propios


manejadores de dispositivos adaptados justo
después de arrancar el sistema.
Alguno de los manejadores de dispositivos más
comunes:

ANSI.SYS Manejador de la consola con secuencias de


escape

DISPLAY.SYS Manejador de la consola con soporte de


lenguas extranjeras

MOUSE.SYS Manejador del ratón

PRINTER.SYS Manejador de la impresora con soporte


de leng. extranj.

RAMDRIVE.SYS Manej. del disco en RAM para


memoria extendida

SMARTDRV.SYS Manej. del buffer caché para


memoria extendida
9.- UNIX

El análisis de UNIX se puede ejecutar en más tipos de


computadoras que cualquier otro sistema operativo.

1- UNICS

En las décadas de los cuarentas y cincuentas, todas


las computadoras eran personales. Al surgir los
sistemas de procesamiento por lotes en la década de
los sesentas, el programador escribía un trabajo en
las tarjetas perforadas y lo llevaba al cuarto de
máquinas. Al ensamblar un número suficiente de
trabajos, el operador los leía como un solo lote. La
salida se obtenía una hora o más después de que el
programador enviaba las tarjetas.

Para evitar algo no satisfactorio e improductivo, se


inventó el concepto de tiempo compartido en
Darmouth College y M.I.T.. Sólo ejecutaba el BASIC y
tuvo éxito comercial a corto plazo; era de propósito
general y tuvo un enorme éxito entre la comunidad
científica. Los investigadores de M.I.T. unieron sus
fuerzas con Bell Laboratories y General Electric e
iniciaron el diseño de un sistema de segunda
generación, MUKTICS, fue un fracaso.

Se le diseñó para soportar en hardware cientos de


usuarios en forma un poco más poderosa que una
moderna PC/AT. Las razones del fracaso, fueron
escritas en PL/I, la aparición del compilador de PL/I
se atrasó y cuando finalmente apareció, funcionaba
con bastantes dificultades. Además, era demasiado
ambicioso para su época, casi como el trabajo de
Charles Babbage en el siglo XIX.

Bell Labs abandonó en cierto momento el proyecto,


por lo que uno de sus investigadores, Ken
Thompson, se lanzó a la búsqueda de algo
interesante. Decidió volver a escribir un nuevo
MULTICS (esta vez en lenguaje ensamblador) en una
abandonada minicomputadora PDP-7. El sistema
funcionó y pudo soportar su esfuerzo de desarrollo.
En consecuencia, otro investigador de Bell Labs,
Brian Kernighan, lo denominó de manera un tanto
burlona UNICS (Sistema de información y cómputo
con uniplexión) el nombre se afirmó, aunque más
adelante se cambió por UNIX.

2- UNIX EN LA PDP-11

El trabajo de Thompson impresionó de tal forma,


que pronto se le unió Dennis Ritchie y más tarde
todo el departamento. Se hicieron dos desarrollos
principales. El primero fue el traslado de UNIX de la
obsoleta PDP_7 a las más moderna PDP_11/20 y
después a la PDP-11/45 y la PDP-11/70; estas
dominaron el mundo de las minicomputadoras. La
PDP-11/45 y la PDP-11/70 tenían hardware de
protección a la memoria, lo que permitió soportar
varios usuarios al mismo tiempo.

El segundo desarrollo fue con respecto al lenguaje en


que se escribió UNIX. Thompson decidió volver a
escribir UNIX en un lenguaje de alto nivel con su
propio diseño, llamado B, era una forma simplificada
de BCPL. Debido a ciertas debilidades de B, este
intento no tuvo éxito. Ritchie diseño entonces un
sucesor de B, llamado C y escribió un compilador
excelente para él. Juntos, volvieron a escribir UNIX
en C, fue el lenguaje correcto en el momento
correcto.

En 1974, la PDP-11 era la computadora a elegir en


casi todos los departamentos de ciencia de la
computación en las universidades y los sistemas
operativos que venían con ella eran considerados
ampliamente, como un desastre. UNIX vino a llenar
ese hueco. Se organizaron reuniones científicas que
indicaban el descubrimiento de cierto oscuro error y
la forma de arreglarlo. La versión que se convirtió en
el primer estandardel mundo académico fue la
versión 6, llamada así porque era descrita en la sexta
edición del manual del programador de UNIX.
Después se reemplazó con la versión 7.

3. UNIX portable
Una vez escrito UNIX en C, su traslado a una nueva
máquina (portarlo) fue más fácil que en los primeros
días, requiere que primero se escriba un compilador
en C para la nueva máquina. Después hay que
escribir controladores de los dispositivos para los
dispositivos de E/S de la nueva máquina, tales como
las terminales, impresoras y discos. No se puede
transferir de una máquina a otra, puesto que dos
discos no tienen que funcionar de la misma manera,
se debe volver a escribir un pequeño código
dependiente de la máquina, como los controladores
de las interrupciones y las rutinas para el manejo de
la memoria.

Aunque el compilador de Ritchie era rápido y


producía un buen código objeto , éste era sólo para
la PDP-11. Steve Johnson de Bell Labs diseñó e
implantó el compilador portable de C instruido de
formaque produjera el código de cualquier máquina
razonable con sólo una cantidad moderada de
esfuerzo.
El traslado de UNIX a la Interdata fue lento al
principio, después surgió un gran interés en la
posibilidad de conectar varias máquinas entre sí en
forma electrónica. El concepto de redes en UNIX
tiene sus raíces en este período. Después UNIX fue
portado a la VAX y otras computadoras.

Poco tiempo después, AT&T lanzó su primer


producto comercial de UNIX, el sistema III. No fue
bien recibido, por lo que se reemplazó por el sistema
V; versiones 2,3 y 4 cada una de ellas más grandes y
compleja que su predecesora. La idea original detrás
de UNIX, tener un sistema elegante y simple se ha
desvanecido en forma gradual.

4. UNIX de Berkeley

Una de las muchas universidades que adquirió


pronto la Versión 6 de UNIX fue la Universidad de
California en Berkeley y pudo modificar el sistema de
manera sustancial. Por medio del apoyo económico
de DARPA, Berkeley produjo y distribuyó una versión
mejorada para la PDP-11 llamada 1BSD seguida
pronto por la 2BSD, para la PDP-11.

Todavía más importante fueron la 3BSD y en


particular la 4BSD, para la VAX, llamada 32V, era en
esencia la versión 7. Por el contrario, 4BSD tenía un
gran número de mejoras, el uso de la memoria
virtual y la paginación, lo cual permitía que los
programas fueran más grandes que la memoria
física. Otro cambio permitía que los nombres de
archivos fueran mayores de 14 caracteres. También
se modificó la implantación del sistema de archivos,
lo cual lo hizo más rápido . Se introdujo el uso de
redes, lo que hizo que el protocolo de redes BSD,
TCP/IP, se convirtiera en un estandart de hecho,
mucho más utilizado. Berkeley añadió un número
sustancial de programas de utilerías para UNIX,
como un nuevo editor (vi), un nuevo shell (csh),
compiladores de Pascal y Lips y mucho más.

5. UNIX Estandar
A fines de la década de los ochenta, se utilizaba
ampliamente dos versiones distintas de UNIX:
4.3BSD y la versión 3 del Sistema V, aunada al hecho
de que no existían estándares para el formato de los
programas en binario. Los primero intentos por
lograr un UNIX estándar fracasaron. Por ejemplo,
AT&T lanzó el SVID, en donde se definían las
llamadas al sistema, formato de archivos, etc. El
primer intento serio por reconciliar las dos
tendencias de UNIX se inició bajo los auspicios del
IEEE Standards Board, un cuerpo muy respetado y lo
mas importante neutral. El nombre colectivo del
proyecto era POSIX. Después , el comité POSIX
produjo un estandard conocido como 1003.1. La idea
de POSIX es que un vendedor de software pudiera
escribir un programa donde sólo utilice los
procedimientos definidos en 1003.1 y el podía estar
seguro que dicho programa podría ejecutarse en
cualquier sistema conforme con UNIX. Si una
característica estaba presente en el Sistema V y el
BSD, se incluía en el estándar y si no, no se incluía.
Como consecuencia de este algoritmo, 1003.1
recuerda al ancestro inmediato de ambos, la versión
7. Las dos áreas en las que 1003.1 difiere en gran
medida de la Versión 7 son las señales y el manejo
de las terminales, una nueva característica. El
documento 1003.1 esta escrito de tal forma que
tanto los implantadores de un sistema operativo
como los autores de software lo puedan
comprender, lo cual constituye otra novedad en el
mundo de los estándares. Aunque el estandard
1003.1 se refiere sólo a las llamadas al sistema, los
documentos relacionados con él intentan lograr un
estándar para los programas de utilerías, redes y
muchas otras características de UNIX.

Además, el lenguaje C también tiene estándares de


ANSI e ISO. Un grupo de vendedores encabezados
por IBM, DEC. Hewlett Packard y otros no aceptaban
la idea que AT&T tuviera el control del resto de
UNIX, por lo que establecieron un consorcio
conocido como OSF para producir un sistema que
cumpliera con todos los estándares de IEEE y otro
más, pero con otras características adicionales, tales
como un sistema de ventajas (X11), una interfaz
gráfica para el usuario (MOTIF), cómputo distribuido
(DCE), manejo distribuido (DME) y mucho más.
La reacción de AT&T fue formar su propio consorcio,
UI (UNIX International) , se basa en el sistema V. El
resultado neto es que tenemos ahora dos poderosos
grupos industriales. Además, IBM tiene su propia
variante, AIX, al igual que otras compañias. Todos
estos sistemas evolucionan en direcciones distintas.

1. Objetos de UNIX

UNIX es un sistema interactivo de tiempo


compartido. Fue diseñado por programadores, para
programadores, y cuyo uso será en ambiente en
donde la mayoría de lo usuarios son relativamente
sofisticados y comprometidos en proyectos de
desarrollo de software.

¿ Qué características desean de un sistema los


buenos programadores?. La mayoría desea que sus
sistemas sean sencillos, elegantes y consistentes.
Mediante el comando 1sA* se enlistan todos los
archivos que comienzan con "A" , entonces el
comando rmA* debe indicar la eliminación de todos
los archivos que comiencen con "A" y un asterisco.
Esta característica se conoce a veces como el
principio de sorpresa mínima.

Otra cosa que en general desean los programadores


experimentados es potencia y flexibilidad. Esto
quiere decir que un sistema debe tener un número
pequeño de elementos básicos, combinables entre sí
para adecuarse a la aplicación. La mayoría de los
programadores aborrecen la redundancia inútil. ¿Por
que escribir copy si basta cp? Para extraer todas las
líneas que contengan la cadena "ard" del archivo f, el
programador en UNIX escribe - grep ard f -.

El enfoque opuesto es que el programador


seleccione el programa "grep" y que entonces "grep"
se anuncie a sí mismo de la siguiente forma: "Hola,
soy grep, busco patrones en los archivos. Por favor
escribe tu patrón . Después de obtener el patrón.
grep pide un nombre de archivo. Después, pregunta
si existen más nombres de archivo. Por último,
resume lo que va a hacer y pregunta si eso es
correcto.

2. Interfaces de UNIX

En la parte inferior se encuentra el hardware, con el


CPU, la memoria, los discos, terminales y otros
dispositivos. El sistema operativo UNIX se ejecuta en
el hardware. Su función es controlar a éste y
proporcionar una interfaz de llamadas al sistema
para todos los programas.

Los programas hacen llamadas al sistema al colocar


argumentos en registros y ejecutar instrucciones de
señalamientos, para alternar del modo usuario a
modo núcleo e iniciar UNIX.

Estros procedimientos se escriben en lenguaje


ensamblador, pero pueden ser llamados desde C.
cada uno de ellos comienza por colocar sus
argumentos en el lugar adecuado, para después
ejecutar la instrucción de señalamiento.

En POSIX se especifica la interfaz de la biblioteca, y


no la interfaz de la llamada al sistema. En otras
palabras , POSIX indica los procedimientos de
biblioteca que debe proporcionar un sistema
conforme con UNIX, lo que son sus parámetros, lo
que deben realizar y los resultados que deben
producir.

Además el sistema operativo y la biblioteca de


llamadas al sistema, todas las versiones de UNIX
proporcionan un gran número de programas
estándar, algunos de los cuales están especificados
mediante el estándar POSIX 1003.2 y otros
diferentes. Entre estos se encuentran el procesador
de comandos (shell), compiladores, editores,
programas para procesamiento de texto y las
utilerías para el manejo de archivos. Tres interfaces
distintas con UNIX: la verdadera interfaz de llamadas
al sistema, la interfaz de biblioteca y la interfaz
formada por el conjunto de programas estándar de
utilerías.

3. Entrada a UNIX

Para utilizar UNIX, primero hay que entrar en él, con


un nombre y contraseña. Esta identificación es
necesaria con el fin de proporcionar seguridad, ya
que UNIX mantiene información para saber a quién
pertenece cada archivo. Cualquier persona que
ejecute MS-DOS puede tener acceso a cualquier
parte de la máquina, sin importar quién la haya
creado.

Mantienen los nombres y contraseñas de los


usuarios en un archivo secreto, UNIX utiliza un mejor
esquema. El archivo de contraseñas de los usuarios
en un archivo secreto, UNIX utiliza un mejor
esquema. El archivo de contraseñas contiene un
renglón por usuario, con el nombre de entrada del
usuario, el número de identificación, la contraseña
cifrada, el directorio donde se aloja y otra
información. Al entrar un usuario, el programa login
cifra la contraseña recién leída de la terminal y la
compara con la otra contraseña en el archivo de
contraseñas. Si coinciden, se permite el acceso; si no,
no se permite.

4. El Shell de UNIX

Después de un acceso el programa login inicializa el


intérprete de la línea de comandos, determinado
mediante la entrada correspondiente al usuario en el
archivo de contraseñas y después sale. Aunque
algunos usuarios tienen intérpretes , la mayoría de
ellos utilizan el llamado shell que inicia a sí mismo,
escribe después en la pantalla un carácter indicador
que es un signo de porcentaje o dólar y espera que el
usuario escriba una línea de comandos.

Cuando el usuario escribe una línea de comandos,


shell extrae la primera palabra de ésta, supone que
es el nombre de un programa por ejecutar, busca
este programa y lo ejecuta. Se suspende a sí mismo
hasta

que el programa termina, en cuyo momento intenta


leer el siguiente comando. Todo lo que necesita es la
capacidad de leer y escribir en la terminal y el poder
de ejecutar otros programas.

Los comandos pueden tener argumentos:

a) CP SRC DEST

Llama al programa cp con dos argumentos, src y


dest. Este interpreta al primero como el nombre de
un archivo existente. Hace una copia de este archivo
y llama a la copia realizada dest.

b) HEAD 20 FILE

El primer argumento, -20, indica al comando head


que imprima las primeras líneas de file, en lugar del
número predeterminado de líneas, 10. Los
argumentos que controlan la operación de un
comando o determinan un valor especial se
denomina banderas y por convención se indican
mediante un guión.

c) HEAD 20 FILE

Es válido e indica a head que imprima en primer


lugar las primeras 10 líneas de un archivo llamado 20
y que después imprima las primeras 10 líneas de un
segundo archivo llamado file.

d) Para facilitar la especificación de varios nombres


de archivo, shell acepta caracteres mágicos, también
llamados comodines.

1S *:C

indica al comando ls que enliste todos los archivos


cuyo nombre termine en .c.. Si existen los archivos
de nombre x.c, y.c y z.c, el comando anterior es
equivalente a escribir.

1s x.c y.c z.c

Un programa del tipo de shell no tiene que abrir la


terminal para leer o escribir en ella un archivo
llamado entrada estándar y un archivo llamado error
estándar. Por lo general , todos los se dirigen hacia la
terminal, de forma que la lectura desde la entrada
estándar proviene del teclado y la escritura a la
salida estándar o el error estándar va hacia la
pantalla. Muchos programas en UNIX también leen
de entrada estándar y escriben en la salida estándar
en forma predefinida. Por ejemplo:

Sort

Llama al programa sort, que lee líneas desde la


terminal, las ordena en forma alfabética y escribe el
resultado en la pantalla.
Es posible redireccionar la entrada estándar y la
salida estándar, esto a veces es útil. La sintaxis de la
entrada estándar utiliza un signo "menor" (<)
seguido del nombre del archivo de entrada. La salida
estándar se redirecciona mediante un signo mayor
(>). Se permite cambiar la dirección de ambas en el
mismo comando. Por ejemplo, el comando

sort <in> out

hace que sort tome su entrada del archivo in y


escriba la salida en el archivo out. Un programa que
lea su entrada de la entrada estándar, la procese y
escriba su salida en la salida estándar se conoce
como un filtro. Consideremos la siguiente línea de
comando:

Sort <in> temp; head - 30 <temp; rm temp

Primero ejecuta sort, toma la entrada de in y escribe


la salida en temp. Al terminar shell ejecuta head,
para imprimir las primeras 30 líneas de temp en la
salida. Por último, elimina el archivo temporal. UNIX
proporciona una construcción más sencilla para
realizar lo mismo.

Sort <in "borra" head -30

La barra vertical, llamada el símbolo de tubo, indica


que se tome la salida de sort y que se utilice como
entrada de head, lo que elimina la necesidad de
crear, utilizar y eliminar el archivo temporal. El
entubamiento, puede contener un número arbitrario
de comandos. El siguiente ejemplo contiene un
entubamiento de 4 componentes:

Grep ter *.t head -20 tail -5>foo

Todas las líneas que contengan la cadena "ter" de


todos los archivos que terminen en .t se escriben en
la salida estándar, en donde se ordenan. Las
primeras 20 se seleccionan mediante head, que
después las transfiere a tail, el cual escribe las
últimas cinco en foo.
UNIX no sólo es un sistema compartido: también es
un sistema de multiprogramación de propósito
general. La sintaxis de shell para ejecutar un proceso
de modo asíncrono ó en segundo plano es colocar
una ampersand (&) después del comando. Así

WC - 1 <a> b &

ejecuta el programa contador de palabras, wc, para


contar el número de líneas en su entrada, a, escribe
el resultado en b, pero lo hace de modo asíncrono,
por ejemplo:

Sort <x barra Vertical head &

Se pueden ejecutar varios entubamientos en modo


asíncrono o en segundo plano de manera
simultánea. También pueden tener parámetros y
utilizar construcciones �if, for, while, y case. Así, un
guión en shell es en realidad un programa escrito en
lenguaje shell. El shell C de Berkeley es un shell
alternativo diseñado para que los guiones en shell se
parezcan a los programas en C en muchos aspectos.

5. Archivos y directorios en UNIX

Un archivo en UNIX es una secuencia de 0 o más


bytes que contiene información arbitraria. No se
hace una distinción entre archivos en ASCII, archivos
en binario u otros tipos de archivos. El significado de
los bits de un archivo depende totalmente del
propietario. Los nombres de los archivos se
restringían antes a 14 caracteres arbitrarios, pero el
UNIX de Berkeley aumentó el límite a 255 caracteres.

Muchos programas esperan que los nombres de


archivo consten de un nombre base y una extensión,
separadas por un punto. Así, prog.c es, por lo
general, un programa en C, prog.p es usualmente un
programa en Pascal y prog.f un programa en
FORTRAN. El sistema operativo no obliga a utilizar
estas convenciones. los archivos se pueden proteger
al asignarles a cada uno un modo de 9 bits, llamados
bits de derechos. Los primeros tres bits se aplican a
los demás miembros del grupo del poseedor. Los
últimos tres bits se refieren a todas las demás
personas.

Los archivos se pueden agrupar en directorios, los


directorios que se almacenan como archivos y se
puede trabajar con ellos en gran medida como
archivos. Están protegidos por los mismos nueve
bits. Los directorios pueden contener subdirectorios,
lo que produce un sistema jerárquico de archivos. El
directorio raíz se llama / y contiene varios
subdirectorios.

6. Programas de utilerías en UNIX

La interfaz del usuario con UNIX consta no sólo del


shell, sino de un gran número de programas de
utilerías estándar, que se pueden dividir en general
en las seis categorías siguientes:
1) Comandos para el manejo de archivos y
directorios.

2) Filtros

3) Compiladores y Herramientas para el desarrollo


de programas

4) Procesamiento de texto

5) Administración del sistema

6) Varios

El estándar POSIX 1003.2 especifica la sintaxis y


semántica de un poco menos de 100 de estos
programas. La idea de lograr un estándar de ellos es
hacer posible que cualquier escriba guiones en shell
utilicen estos programas y funcionen en todos los
sistemas UNIX.
Ejemplo:

cp a b

copia a a b pero elimina el original. Así, desplaza el


archivo en vez de hacer una copia de él en el sentido
usual. Se pueden concatenar varios archivos
mediante cat, que lee cada uno de los archivos de
entrada y los copia a la salida estándar. Los archivos
se pueden eliminar mediante el comando rm. El
comando chmod permite que el propietario
modifique los bits de derechos para cambiar los
permisos de acceso. Los directorios se pueden crear
con mkdir y eliminar con "rmdir". Para ver una lista
de los archivos en el directorio, se puede utilizar "ls".

Otros filtros definidos por 1003.2 son "cut" y "paste"


que permiten recortar y pegar líneas de texto en los
archivos; "od" que convierte su entrada a texto en
ASCII , en octal, decimal o hexadecimal; tr, que hace
traducción de caracteres y pr que da formato a la
salida para la impresora, con opciones para incluir
encabezados de página, números de página, etc.

Entre los compiladores y herramientas para la


programación están cc, que llama al compilador de C
y ar que junta procedimientos de biblioteca en
archivos de biblioteca. Otra herramienta importante
es make, la cual se utiliza para mantener programas
grandes cuyo código fuente conste de varios
archivos, algunos son archivos de encabezado. De
esta manera, dos o más archivos fuente pueden
compartir las mismas declaraciones. Sin embargo, si
se modifica un archivo de encabezado, es necesario
localizar todos los archivos fuente que dependen de
él y volverlos a compilar. La función de make es
mantener un registro de los archivos fuente que
dependen de él y volverlos a compilar. La función de
make es mantener un registro de los archivos que
dependen de cierto encabezado y cosas análogas,
con el fin de que las compilaciones necesarias se
realicen en forma automática.

3. Conceptos Fundamentales en UNIX


ar

Construye y mantiene archivos y bibliotecas de


varios archivos.

awk

Lenguaje para el reconocimiento de patrones

basename

Expone los prefijos y sufijos de un nombre d archivo

bc
Calculadora programable

cat

Concatena archivos y los escribe en la salida


estándar

cc

Compila un programa en C

chmod

Modifica el modo de protección de los archivos


cmp

Compara dos archivos para ver si son idénticos

comm

Imprime líneas comunes a dos archivos ordenados

cp

Hace una copia de un archivo

cut
Hace que cada columna de un documento sea un
archivo aparte

date

Imprime la fecha y hora

dd

Copia todo o parte de un archivo mediante varias


conversiones

diff

Imprime todas las diferencias de dos archivos


echo

Imprime los argumentos (se utiliza principalmente


en los guiones en shell)

ed

Editor de texto original, orientado a líneas

find

Encuentra todos los archivos que cumplen


determinada condición

grep
Busca en un archivo las líneas que contienen cierto
patrón

head

Imprime las primeras líneas de uno o más archivos

kill

Envía una señal a un proceso

in

Crea un enlace con un archivo


ip

Imprime una línea en la impresora de líneas

ls

Enlista los archivos y directorios

make

Vuelve a compilar aquellas partes modificadas de un


programa grande

mkdir
Crea un directorio

mv

Mueve o cambia de nombre a un archivo

od

Realiza un vaciado de un archivo en octal

paste

Combina varios archivos como columnas de un solo


archivo

pr
Da forma a un archivo para su impresión

pwd

Imprime el directorio de trabajo

rm

Elimina un archivo

rmdir

Elimina un directorio
sed

Editor del flujo (es decir, no interactivo)

sh

Llama al shell

sleep

Suspende la ejecución durante cierto número de


segundos

stty
Establece las opciones de la terminal, tales como los
caracteres para la edición de líneas

sort

Ordena un archivo que consta de líneas en ASCII

tail

Imprime las últimas líneas de un archivo

tee

Combina varios archivos como columnas de un solo


archivo
tr

Traduce los códigos de caracteres

uniq

Elimina las líneas consecutivas idénticas de un


archivo

wc

Cuenta los caracteres, palabras y líneas de un


archivo

1. Procesos en UNIX
Las únicas entidades activas en un sistema UNIX son
los procesos, cada proceso ejecuta un solo programa
y tiene un único hilo de control.

UNIX es un sistema de multiprogramación, por lo


que se pueden ejecutar varios procesos
independientes al mismo tiempo. cada usuario
puede tener varios procesos activos a la vez.

En la mayoría de las estaciones de trabajo con un


solo usuario, se ejecutan ocenas de procesos en
segundo plano o asíncrona (llamados demonios),
aun cuando el usuario esté ausente.

Un demonio típico es el demonio cron. Despierta


una vez cada minuto para verificar si existe un
trabajo para él.

Este demonio es necesario, puesto que en UNIX es


posible planificar actividades con minutos, horas,
días e incluso meses de anticipación. Otros demonios
controlan la llegada y salida de correo electrónico, la
cola de impresión, verifican si existe el numero
suficiente de paginas libres en memoria, etc.. Los
demonios tienen una implantación directa en UNIX.
Los procesos se crean en UNIX de una manera
sencilla en lo particular. La llamada al sistema FORK
crea una copia exacta del proceso original. El proceso
original recibe entonces el nombre de proceso
padre. El nuevo proceso se llama proceso hijo.

Los archivos abiertos se comparten entre el padre y


el hijo, los cambios hechos en el archivo por
cualquiera de ellos será visible para el otro.

pid=fork( ) /* si fork tiene éxito, pid > 0 en el padre


*/

if ( pid < 0 ) {

/* fork falla, lo cual se debe, por lo general, a que la


memoria o alguna tabla esta totalmente ocupada. */
} else if ( pid > 0 ) {

/* aquí va el código del padre.*/

} else {

/* aquí va el código del hijo. */

Esta habilidad para crear un árbol de procesos es la


clave del funcionamiento del tiempo compartido en
UNIX. Al arrancar el sistema, el núcleo moldea un
proceso llamado init. Este proceso lee un archivo
/etc/ttys para indicar el numero de terminales de
que dispone el sistema y proporciona cierta
información que describe a cada uno, init inicia
entonces un proceso hijo para cada terminal y se
duerme hasta que uno de los hijos termina.

Cada hijo ejecuta el programa login, el cual exhibe:


Login:

Cuando alguien se siente frente a la terminal y


proporciona un nombre de entrada, login pregunta
entonces una contraseña, la verifica con la
contraseña cifrada almacenada en el archivo de
contraseñas /etc/password. Si es correcta, login se
cubre a sí mismo con el shell del usuario, el cual
espera entonces el primer comando. Si es incorrecto,
login solo pide otro nombre de usuario.

Los procesos en unix se pueden comunicar entre sí


mediante una forma de transferencia de mensajes.
Es posible crear un canal entre dos procesos en el
que un proceso pueda escribir un flujo de bytes para
que el otro lo lea, donde es posible la sincronización.

Los entubamientos del shell se implantan mediante


tubos. Cuando el shell ve un comando como:

sort < f | head


crea dos procesos, sort y head y establece un tubo
entre los dos, de forma que la salida estándar de sort
se conecte a la entrada estándar de head. Todos los
datos escritos por sort pasan en forma directa a
head, en vez de irse a un archivo. Si el tubo se llena,
el sistema detiene la ejecución de sort hasta que
head ha retirado algunos datos del tubo.

Un proceso puede enviar lo que se conoce como una


señal a otro proceso. Los procesos pueden indicar al
sistema lo que desean que ocurra al llegar una señal.
Las opciones son ignorarla, atraparla, o dejar que la
señal aniquile el proceso.

Cuando el manejador termina, regresa el control de


donde vino, de forma análoga a laas interrupciones
de e/s del harware, un proceso sólo puede enviar
señales a miembros de su propio grupo de procesos,
el cual esta formado por su padre, hermanos e hijos.
Cada usuario se identifica mediante un entero
llamado UID ( identificación del usuario ) contenido
en el archivo de contraseñas. Estas son asignadas por
el administrador del sistema. Cada proceso adquiere
en forma automática la uid de la persona que lo
creó.

El usuario con uid 0 es especial y se llama el


superusuario ( o raíz ). El superusuario tiene el poder
de leer y escribir en todos los archivos del sistema,
sin importar quien los posea o la forma en que estén
protegidos.

El poder del superusuario se explota en forma


inteligente, para permitir a los usuarios que realicen
cosas que podrían ser peligrosas de modo
controlado. El superusuario puede determinar la
información con relativa facilidad, pero al indicar a
todos la contraseña del superusuario, todo el
sistema de protección quedaría indefenso.
UNIX tiene un bit asociado con cada programa
ejecutable, llamado el bit setuid. Este bit es parte de
la palabra del modo de protección. Cuando se
ejecuta un programa con el bit setuid activo, el uid
efectivo de ese proceso se convierte en el uid del
propietario del archivo ejecutable, en vez del uid del
usuario que lo llamó.

El mecanismo uid se utiliza a todo lo largo de unix


para evitar una masa de llamadas al sistema de
propósito especial, tales como una que permita a los
usuarios leer el bloque 0 ( y solo el bloque 0 ).

2. El modelo de memoria de UNIX

El modelo de memoria UNIX es algo directo, para


que los programas sean portables y poder implantar
unix en maquinas con unidades de manejo de
memoria con amplias diferencias entre sí, desde casi
nada hasta un sofisticado hardware de paginación.
Cada proceso en UNIX tiene un espacio de
direcciones, con tres segmentos: textos, datos y
pilas.

A) El segmento de texto contiene las instrucciones de


maquina que conforman el código ejecutable del
programa. Es producido por el compilador y el
ensamblador, al traducir el programa en "C", Pascal
u otro en código de maquina, exclusivo para la
lectura.

B) El segmento de datos es un espacio para


almacenar las variables, cadenas, arreglos y otros
datos del programa. Tiene dos partes, los datos
inicializados y los datos no inicializados, estos
últimos se conocen como bss. La parte inicializada
del segmento de datos contiene las variables y
constantes del compilador que necesitan un valor al
iniciar el programa.

La existencia de datos no inicializados es en realidad


una optimización. Cuando una variable global no se
inicializa de forma explícita, la semántica del
lenguaje "C" indica que su valor inicial 0. En la
práctica, la mayoría de las variables globales no se
inicializa y sus valores iniciales son entonces 0.

El tercer segmento es el segmento de la pila. En la


mayoría de las máquinas, éste comienza en la parte
superior del espacio de direcciones virtuales y crece
hacia abajo en dirección de 0. Si la pila crece debajo
de la parte inferior del segmento de la misma, ocurre
un fallo de hardware y el sistema operativo reduce el
límite inferior del segmento de la pila en unos
cuantos miles de bytes. Al iniciar un programa, su
pila no está vacía, sino que contiene las variables del
entorno (shell), así como la línea de comando escrita
en el shell para llamar a dicho programa.

cp src dest

el programa cp se inicia con la cadena "cp src dest"


en la pila, de forma que pueda determinar los
nombres del archivo y destino. Cuando dos usuarios
ejecutan el mismo programa, sería posible tener dos
copias del texto del programa editor en la memoria
al mismo tiempo. Muchos sistemas UNIX soportan
los segmentos de texto compartidos. Los segmentos
de datos y de la pila nunca se comparten. Si
cualquiera de ellos necesita crecer y no existe
espacio adyacente hacia el cual hacerlo, se le
desplaza a otra parte de la memoria. El segmento de
texto comenzaba en 0 y podría ocupar hasta 64 K. El
segmento de datos también comenzaba en la
dirección 0 y crecía hacia arriba, mientras que el
segmento de la pila comenzaba en 64K y crecía hacia
abajo. Un salto a 0 pasaba el espacio del texto,
mientras que un movimiento a partir de 0 utilizaba
el espacio de datos.

3 El sistema de archivos en UNIX

Cuando un proceso desea leer o escribir en un


archivo, primero debe abrir éste. Se abre mediante
la llamada al sistema OPEN, cuyo primer argumento
es el nombre de la ruta de acceso del archivo por
abrir y cuyo segundo argumento especifica si el
archivo se va a leer o escribir o ambos. Si se permite
el acceso, el sistema regresa un entero positivo
pequeño llamado descriptor de archivo a quien hizo
la llamada. Si el acceso está prohibido, las llamadas
para la lectura o escritura en el archivo utilizan el
descriptor de archivo para identificarlo.

Al iniciar un proceso, siempre dispone de tres


descriptores de archivo: 0 para la entrada estándar,
1 para la salida estándar y 2 para el error estándar

Existen dos formas para especificar los nombres de


archivos en UNIX, tanto para el shell como para la
llamada al sistema OPEN. La primera utiliza una ruta
absoluta de acceso, que indica la forma de llegar al
archivo desde el directorio raíz. Los nombres de las
rutas absolutas de acceso son con frecuencia largos e
inconvenientes. Por esta razón, UNIX permite a los
usuarios que designen el directorio en el que
trabajan en un momento dado como el directorio de
trabajo. Los nombres de las rutas de acceso se
pueden determinar entonces en forma relativa al
directorio de trabajo. Tal nombre se llama ruta
relativa de acceso. Por ejemplo si /ust/ast/book es el
directorio de trabajo, entonces el comando de shell

cp chl backup

tiene el mismo efecto que el comando más largo

cp / usr / at/book/chl /usr/ast/book/backup

A menudo ocurre que un usuario necesita hacer


referencia a un archivo que pertenece a otro
usuario,o que al menos se localiza en un lugar
distinto en el árbol de archivos.

Muchas computadoras tienen dos o más discos.


Surge la cuestión de la forma de controlarlas. Una
soluci�n es colocar un sistema de archivos
autocontenido en cada uno de ellos y mantenerlos
independientes. Con esta solución, el usuario tiene
que especificar tanto el dispositivo como el archivo
cuando se necesite algo no predefinido. Por ejemplo,
para copiar x al directorio d ( siH: es el predefinido),
se debe escritir este es el punto de vista que toman
los sistemas como MS-DOS y VMS:

cp D:/x / a/d/x

La soluci�no de UNIX es permitir que un disco se


monte en el árbol de directorios de otro disco.
Podríamos montar el disco flexible en el directorio
/b, lo que produce el sistema de archvios. El usuari
ve entonces un único árbol de archivos y no tiene
que preocuparse por el lugar donde reside un
archivo en un dispositivo.

Otra interesante propiedad del sistema de archivos


UNIX es la cerradura (locking). Dos o más procesos
podrían utilziar el mismo archivo al mismo tiempo,
lo que produciría condiciones de competencia. Una
solución es programar la aplicación con regiones
críticas. Sin embargo, el proceso pertenece a
usuarios independientes que ni siquiera se conozcan
entre sí, por lo general, este tipo de coordinación es
conveniente.

POSIX proporciona un mecanismo fino pero flexible


para que los procesos se cierren desde un solo byte y
hasta todo un archivo en una operación indivisible.
El mecanismo de cerradura (locking) requiere que
quien haga la llamada determine el archivo por
cerrar, el byte de inicio y el número de bytes. Si la
operación tiene éxito, el sistema crea un dato de una
tabla para observar que los bytes en cuestión (por
ejemplo, un registro de una base de datos) están
cerrados.

Se proporcionan dos tipos de cerraduras, compartida


y exclusiva. Una cerradura compartida se permite un
segundo intento por colocar una cerradura en él,
pero fracasará un intento por colocar una cerradura
exclusiva en él. Si una parte del archivo, tiene una
cerradura exclusiva, todos los intentos por cerrar
cualquier parte de ella fracasarán, hasta que se
libere la cerradura.
Al colocar una cerradura, un proceso debe
especificar si desea quedar o no bloqueado en caso
de que no pueda colocar la cerradura. Si se opta por
el bloqueo al eliminar la cerradura existente, el
proceso se desbloquea y se coloca la cerradura.

4 Entrada/Salida en UNIX

Las computadoras que ejecutan UNIX, como todas,


tienen dispositivos de E/S, tales como las terminales,
los discos, y redes conectadas a ellas. Se necesita
que los programan tengan acceso a estos
dispositivos de alguna forma. Aunque existen varias
solucines, la de UNIX es integrar al sistema de
archivos lo que se conoce como archivos especiales.
Cada dispositivo de E/S tiene asignado el nombre de
su ruta de acceso, que se encuentra en /dev.

Estos archivos especiales pueden tener un acceso


igual al de otros archivos. No se necesitan comandos
o llamadas especiales al sistema: las llamadas
usuales al sistema, READ y WRITE se ajustan a esto.
Por ejemplo, el comando:

cp file /dev / lp

copia fiel a la impresora, lo que provoca la impresión


del archivo. Los programas pueden abrir, leer y
escribir los archivos especiales, de la misma forma
que los archivos regulares.

Una ventaja adicional es que las reglas usuales de


protección de archivos se aplican de manera
automática a los dispositivos de E/S. Si los bits de
protección de /dev se configuran en forma que sólo
el superusuario tenga acceso directo a sus archivos.
Entonces los usuarios no podrán realizar la E/S por sí
mismos. El acceso restringido a los dispositivos
seleccinados de E/S se puede otorgar mediante la
instalación de programas setuid con permiso para
leer y escribir en los archivos de /dev, pero que
hagan esto de manera limitada.
Los archivos especiales se dividen en dos categorías,
de bloque y de carácter. Un archivo especial de
bloque es uno que consta de una serie de bloques
numerados. La propiedad fundamental de un archivo
especial de bloque es que cada bloque se puede
direccionar y accesar de manera individual.

Los archivos especiales de caracter se utilizan, para


los dispositivos de entrada o salida de un flujo de
caracteres. Las terminales, impresoras, redes,
ratones, plotters y la mayoría de los demás
dispositivos de E/S aceptan o producen datos para
las personas utilizan archivos especiales de carácter.

Aunue los archivos especiales de caracter no pueden


tener un acceso aleatorio, a menudo deben ser
controlados de forma distinta a un archivo especial
de bloque, para eliminar la última línea escrita,
existen muchas convenciones. Alguno prefieren
utilizar el signo "arroba", otros CTRL-U, CTRL-C o
algún otro carácter.
En vez de hacer una elección y forzar a las personas a
utilizarla, UNIX permite que todas estas funciones
especiales y muchas otras sean adaptadas por el
usuario Se dispone de una llamada al sistema
especial para configurar estas opciones. Esta llamada
al sistema también controla el desarrollo de los
tabuladores, permite o inhibe el eco de los
caracteres.

Otro ejemplo de E/S lo constituyen las redes,


iniciadas por el UNIX de Berkeley. El concepto
central del diseño de Berkeley fue el enchufe
(socket).

Figura 7-12

1. Orientado a conexiones por flujo confiable de


bytes

2. Orientado a conexiones por flujo confiable de


paquetes
3. Transmisión no confiable de paquetes

a. El primer tipo de enchufe permite que dos


procesos en distintas maqunas establezcan de
manera efectiva el equivalente de un tubo entre
ellos. Los bytes se envían en un extremo y llegan en
el mismo orden al extremo contrario.

b. Es similar al primero, excepto que preserva las


fronteras de los paquetes.

c. Se utiliza para que el usuario tenga acceso directo


a la red. Este tipo es particularmente útil para las
aplicaciones de tiempo real y en aquellas situaciones
en que el usuario desea implantar un esquema
especializado de manejo de errores.

Durante la creación de un enchufe, uno de los


parámetros determina el protocolo por utilizar. Por
los flujos de paquetes y butes, el producto más
popular es TCP/IP. Para una transmisión no confiable
orientada a paquetes, UDP es la opción general.
Ambos protocolos surgieron de ARPANET, del Depto.
de Defensa de los EUA y ahora se utilizan con
amplitud en todo el mundo.

Antes de poder utilizar un enchufe en una red, éste


debe tener una dirección asociada a él que puede
estar en uno de varios dominios de nomenclatura.
Una vez creados los enchufes en las computadoras
fuente y destino, se puede establecer una conexión
entre ellas. Una de las partes hace una llamada al
sistema LISTEN en un enchufe local, lo cual crea un
bugger y un bloqueo hasta la recepción de datos.

Una vez establecida la conexión, esta funciona de


manera similar a un tubo. Un proceso puede leer y
escribir de él mediante el descriptor de archivo para
su enchufe local. Cuando ya no es necesaria la
conexión, se puede cerrar de la manera usual.

Llamadas al sistema de UNIX


Llamadas al sistema para la administraci�no de
procesos en UNIX

El primer grupo de llamadas se relaciona con la


administración de los procesos. FORK es un buen
ejemplo para iniciar el análisis. Es la única forma de
crear un nuvo proceso. Crea un duplicado exacto del
proceso original e incluye todos los descriptores de
archivo, registros y todo lo demás. Después del
FORK, el proceso original y la copia (padre e hijo)
siguen su propio camino.

En la mayoría de los casos, después de un FORK, el


hijo necesitará ejecutar un código distinto del padre.
Consideremos el caso de Shell. Lee un comando de la
terminal, produce un proceso hijo, espera a que el
hijo ejecute el comando y después lee el siguiente
comando al terminar el hijo. Para esperar a que
termine el hijo, el padre ejecuta una llamada al
sistema WAITPID, que simplemente espera a que
termine el hijo. WAITPID tiene tres parámetros. El
primero permite a quien hizo la llamada esperar por
un hijo específico. Si el =1 bastará con que termine
cualquiera de los hijos. El segundo parámetro es la
dirección de una variable con el estado de salida del
hijo. El tercero determina si el proceso que hizo la
llamada se bloquea o regresa si ningún hijo ha
terminado.

En el caso más general, EXEC tiene tres parámetros:


el nombre del archivo por ejecutar, un apuntador al
arreglo de argumentos y un apuntador al arreglo del
entorno.

EXEC es la llmada al sistema más compleja. El resto


son mucho más simples. Como ejemplo de una
llamada más sencilla, consideremos EXIT, la cual
deben utilizar los procesos cuando terminen su
ejecución. Tiene un parámetro, el estado de salida (0
a 255), que se regresa al padre en la variable status
de lallamada al sistema WAITPID

Por ejemplo, si un proceso padre ejecuta el


enunciado
n = waitpid(-i, &status. 0):

se suspenderá hasta que uno de sus procesos hijo


termine. Si el hijo sale con, digamos, 4 como
parámetro de exit, el padre despertará con n igual al
pid del hijo y status igual a 0 x 0400 (0x es un prefijo
que indica nexadecimal).

Para anunciar su disposición por recibir ésta (o


cualquier otra) seña, el proceso puede utilizar la
llamada al sistema SIGACTION. El primer parámetro
es la señal por recibir. El segundo es un apuntador a
una estructura que proporciona un apuntador al
proced. para el manejo de las señales, así como
otros bits o banderas. El tercero apunta a una
estructura en la que el sistema reresa informaci�no
en caso de que deba restaurarse más adelante.

La llamada al sistema SIGACTION también se puede


utilizar para lograr que se ignore una señal o bien
para restaurar una acción predefinida, lo que
equivale a eliminar el proceso.
La acción de oprimir la tecla DEL, no es la única
forma de enviar una señal a otro proceso. La llamada
al sistema KILL, permite que un proceso envíe una
señal a otro proceso relacinado con él. La elección
del nombre "kill" no e sparticularmente buena.

La llamada al sistema ALARM. El parámetro


especifica un intervalo, en segundos, después del
cual se envía una señal SIGALRM al proceso. Un
proceso sólo puede tener una alarma principal en
cualquier instante. Si se hace una llamada ALARM
con un parámetro de 10 segundos y después de 3
segundos se hace otra llamada ALARM con un
parámetro de 20 segundos, sólo se genera una señal,
20 segundos después de la segunda llamada. La
primera señal se cancela con la segunda llamada de
ALARM.

2 Llamadas al sistema para la administración de la


memoria en UNIX
POSIX no especifica llamadas al sistema para la
administraci�no de la memoria. Este tema se
consideró como demasiado dependiente de las
máquinas como para lograr una estandarización. El
problema se escondió debajo del tapete, al indicar
que los programas que necesiten una administración
dinámica de la memoria podrían utilizar el proced.
de biblioteca malloc (definido en el estándar ANSI C)

La forma de implantar malloc, se sale entonces de


los objetivos del estándar POSIX. En ciertos círculos,
esto se consideró como una forma de pasarse el
bulto.

3 Llamadas al sistema relacionadas con archivos y


directorios en UNIX

Muchas llamadas al sistema se relacionan con los


archivos y el sistema de archivos. Para crear un
nuevo archivo se utiliza la llamada CREAT. Los
parámetros proporcionan el nombre del archivo y el
modo de protección. Así
fd = creat ("abc". mode):

crea un archivo a b c con los bits de protección


tomados de mode.

CREAT no sólo crea un nuev archivo, sino que


también lo abre para la escritura, sin importar el
modo del archivo. Regresa el descriptor del archivo,
fd, el cual se puede utilizar para escribir el archivo.

Para leer o escribir en un archivo ya existente,


primero hay que abrir el archivo con OPEN. Esta
llamada determina el nombre del archivo por abrir, y
si se puede abrir para lectura, escritura o ambas.

Aunque la mayoría de los programas leen y escriben


en los archivos de manera secuencial, en cietos
programas de aplicación es necesario disponer de un
acceso aleatorio a cualquier parte del archivo. Al leer
(escribir) de manera secuencial, esta apunta por
apuntador, de forma que las llamadas READ o WRITE
pueden iniciar en cualquier parte del archivi o
incluso más allá del final de éste.

LSEEK tiene 3 parámetros: el primero es el descriptor


del archivo; el segundo es una posición en el archivo.
El tercero indica si la posición del archivo es con
respecto al inicio del archivo, a la posición activa o al
final del archivo. El valor que regresa LSEEK es la
posición absoluta en el archivo después de modificar
el apuntador al archivo.

Para cada archivo, UNIX mantine un registro del


modo del archivo (regular, directorio, archivo
especial) tamaño, hora de la última modificación y
otra información.

El directorio de trabajo se cambia por medio de la


llamada al istema CHDIR. Esto tiene el efecto de
cambiar la interpretación de los nombres relativos
de las rutas de acceso.
La llamada al sistema CHMOD permite cambiar el
modo de un archivo; es decir, los bits de protección.

4 Llamadas al sistema relacionadas con


Entrada/Salida en UNIX

Las últimas dos llamadas de la lista establecen y


recuperan todos los caracteres especiales que se
utilizan para eliminar caracteres y renglones,
interrumpir procesos, etc. Además activan y
desactivan el eco, manejan el control del flujo y
realizan otras funciones. También existen otras
llamadas al sistema relacionadas con E/S, pero son
un poco particulares para analizarlas aquí

Implantación de UNIX

El núcleo de UNIX no está bien estructurado


itnernamente, pero se pueden distinguri más o
menos dos partes. En la inferior está el núcleo
dependiente de la máquina. Este código consta de
los controladores de interrupciones, los manejadores
de dispositivos del sistema de E/S de bajo nivel y una
parte del software para la administración de la
memoria. La mayoría de este código está escrito en C

Por el contrario, el núcleo independiente de la


máquina es el mismo en todas las máquinas, puesto
que no depende en forma cercana del hardware
particular en el que se ejecute. El código
independiente de la máquina, incluye el manejo de
las llamadas al sistema, la administración de
procesos, planificación, entubamientos, señales,
paginación e intercambio, el sistema de archivos y la
parte del sistema de E/S de alto nivel.

Implantación de procesos en UNIX

Un proceso en UNIX es como un iceerg: uno ve la


parte de arriba del agua, pero también existe una
parte importante por debajo. Cada proceso tiene
una parte del usuario y una parte del núcleo. La
parte del núcelo tiene su propia pila y su propio
contador del programa. Esto es importante debido a
que una llamada al sistema se puede bloquear a la
mitad de su camino.

El núcleo mantiene dos estructuras de datos


fundamentales relacionadas con los procesos, la
tabla de procesos y la estructura del usuario. La
primera es residente todo el tiempo y contiene la
info necesaria para todos los procesos, incluso para
aquellos que no se encuentren por el momento en la
memoria.

La información en la tabla de procesos cae en alguna


de las sgtes. categorías:

1. Parámetros de planificación

Esto se utiliza para determinar el sgte. proceso por


ejecutarse.

2. Imagen de la memoria
Si el proceso no se encuentra en la memoria, aquí
está la info necesaria para localizar sus partes en el
disco.

3. Señales

Las máscaras que muestran cuáles señales se


ignoran, cuáles señales se deben analizar, cuáles
están bloqueadas en forma temporal y cuáles están
en proceso de entregarse.

4. Varios

Estado actual del proceso, el evento que se espera,


hora en la que debe sonar la alarma del reloj.

La estructura del usuario contiene la info que no es


necesaria cuando el proceso no se encuentra
físicamente en la memoria o no es ejecutable. La info
relativa a las señales debe encontrarse en la tabla de
procesos, por lo que están en la memoria todo el
tiempo, mientras que la info acerca de los
descriptores de archivo puede conservarse en la
estructura del usuario y recuperarse sólo cuando el
proceso sea ejecutable.

La estructura del usuario incluye los siguientes


elementos:

1. Registro de máquina

2. Estado de la llamada al sistema

3. Tabla de descriptores de archivos

4. Contabilidad

5. Pila del núcleo

Al ejecutar una llamada al sistema FORK, el proceso


que hace la llamada realiza un señalamiento hacia el
núcelo y busca una entrada libre en la tabla de
procesos para que la utilice el proceso hijo. Si
encuentra un especio, copia toda la info de la
entrada del padre en la tabla de procesos hacia la
entrada del hijo. La estructura del usuario se
mantiene adyacente al segmento de la pila y se copia
junto con éste. En este momento el hijo está listo
para su ejecución.

Si un proceso intenta leer un archivo en disco y se le


obliga a esperar un segundo entre cada llamada
READ se le retrasará mucho. Es mucho mejor dejarlo
que se ejecute de inmediato después de concluir
cada solicitud, de forma que el siguiente se pueda
realizar rápidamente.

2 Implantación del control de la memoria en UNIX

Antes de 3BSD la mayoría de los sistemas UNIX se


basaban en el intercambio de la siguiente manera. Si
existían más procesos de los que se podían
mantener dentro de la memoria, algunos de ellos se
intercambiaban al disco. Un proceso intercambiado
de esta manera se intercambiaba en su totalidad. Así
un proceso se encontraba dentro de la memoria o
dentro del disco..

2.a Intercambio

El movimiento entre la memoria y el disco se


administraba mediante el nivel superior del
planificador de dos niveles, conocido como el
intercambiador (swapper). El intercambio de la
memoria hacia el disco se iniciaba cuando el núcleo
ocupaa toda la memoria libre debido a alguno de los
siguientes eventos:

1. Una lamada FORK que necesitaba memoria para


un proceso hijo.

2. Una llamada BRK que necesitaba ampliar un


segmento de datos.
3. Una pila que se agrandaba y ocupaba un espacio
mayor al asignado a ella.

2.b Paginación

La paginación se implanta en parte mediante el


núcleo principal y en parte mediante un nuevo
proceso llamado demonio para paginación. El
demonio para paginaci�no es el proceso número 2.
El proceso 0 sigue siendo el intercambiador y el
proceso sigue siendo init. Como todos los demonios,
el demonio para paginación se inicializa de manera
períódica de forma que pueda verificar si existe
trabajo para él.

El mapa cnetral contiene info relativa al contenido


de los marcos para página. Con 1K de marcos para
página y entradas de 16 bytes en el mapa central, el
mapa central ocupa menos del 2 por ciento de la
memoria. Entonces se emplean para una lista
doblemente ligada que une en una cadena todos los
marcos librs. Las siguientes tres entradas se utilizan
cuando el marco contiene info. Cada página de la
memoria también tiene una posición en algún disco,
donde se le colcoa al ser paginada fuera de la
memoria. Estas entradas sirven para determinar la
posición en el disco donde se almacena la página Las
sgtes. tres entradas proporcionan la entrada de la
tabla de procesos correspondiente al proceso de la
página, el segmento en que se encuentra y su
posición en ese segmento. La última muestra algunas
de las banderas necesarias para el algoritmo de
paginación.

3 Implantación del sistema de archivos en UNIX

Todos los discos que contienen sistemas de archivos


en UNIX tienen la organización de la fig. 7.18. El
bloque 0 no es utilizado por UNIX y contiene a
menudo código para el arranque de la computadora
El bloque 1 es el superbloque. Contiene info crítica
relativa a la organización del sistema de archivos: el
número de nodos-i, el número de bloques en disco.
La destrucción del superbloque provocaría que el
sistema de archivos quede ilegible.
Después del superbloque están los nodos-i. Se
enumeran de 1 hasta cierto máximo. Cada nodo-i
tiene una longitud de 64 bytes y describe a un
archivo. Un nodo-i contiene la info contable así como
la info suficiente para localizar todos los bloques del
disco que contengan los datos del archivo.

Después están los bloques de datos. Todos los


archivos y directorios se almacenan aquí. Es
probable que los bloques de un archivo grande estén
diseminados por todo el disco. Las mejoras de
Berkeley se diseñaron para reducir esta dispersión.

Fig. 7.18

Un directorio en el sistema tradicional de archivos


consta de una colección no ordenada de entradas de
16 bytes. Cada entrada contiene un nombre de
archivo y el número de nodo-i del archivo. Para abrir
un archivo en el directorio de trabajo, el sistema sólo
lee el directorio, compara el nombre por buscar con
cada entrada, hasta que encuentra el nombre o
concluye que no está presente.

El nodo-i se colocar en la tabla de nodos-i, una


estructura de datos en el núcleo que conserva todos
los nodos-i de los archivos y directorios abiertos en
cada momento.

La búsqueda de un nombre absoluto de ruta de


acceso como /usr/ast/file es un poco más compleja.
El sistema localiza el directorio raíz, que siempre
utiliza el nodo-i2. Entonces busca la cadena "usr" en
el directorio raíz, para obtener el número de nodo-i
del directorio /usr: Se busca entonces este nodo-i y
se extraen los bloques del disco de entrada, se
puede tomar de ella el número de nodo-i para el
directorio /usar/ast. Con el número de nodo-i, del
directorio /usr/ast, se puede leer este nodo-i y
localizar los bloques del directorio. Por último, se
busca "file" y e encuentra su número de nodo-i

4 Implantación de la Entrada/Salida en UNIX


La E/S en UNIX se implanta mediante una colección
de manejadores de dispositivos, donde por lo
general, hay un manejador por cada dispositivo.

Su función es la de aislar el resto del sistema de las


pecualiaridades del hardware. Con interfaces
estándar entre los manejadores y el resto del
sistema operativo. El sistema de E/S se divide en dos
componentes principales: el manejo de los archivos
especiales de bloque y el manejo de los archivos
especiales de carácter.

El objetivo de la parte del sistema que realiza la E/S


en los archivos especiales de bloque es minimizar el
número de transferencias reales por realizar.

Los sistemas UNIX cuentan con un buffer, caché


entre los manejadores del disco y el sistema de
archivos. El bugger caché es una table en el núcleo,
la cual contiene docenas o tal vez centenas de los
bloques de uso reciente. Cuando se necesita un
bloque de disco con cierto propósito (nodo-i.
directorio o datos) primero se verifica si se
encuentra en el buffer caché: en tal caso, se toma de
ahí y se evita un acceso al disco.

Si el bloque no está ne el buffer caché, se lee del


disco al buffer y se le copia de ahí cuando sea
necesario.

El buffer caché funciona para la escritura y la lectura.


Para evitar que los bloques permanezcan por mucho
tiempo en el caché antes de ser escritos al disco,
todos los bloques sucios se escriben al disco cada 30
segundos.

La salida funciona de manera análoga: desarrolla los


tabuladores como espacios, convierte los
alimentadores de línea en retornos de carro +
alimentadores de línea, añade caracteres de relleno
después de los retornos de carro en las terminales
mecánicas lentas, etc. La disciplina puede pasar a
través de la disciplina de línea o evitarla. El modo
crudo es particularmente útil al enviar datos en
binario a otras computadoras en una línea en serie.

Profesor Otilio

Imprenta antes y despues de la revolucion industrial


Páginas: 8 (1875 palabras) Publicado: 18 de mayo de
2011
La Imprenta, antes y después de la revolución
industrias.
Una imprenta es cualquier tipo de sistema por el
cual aplicando tinta a una pieza se reproduce una
imagen o un texto sobre un papel o una tela o
cualquier otro material.
En 1040 Bi Sheng inventa en China el primer sistema
de imprenta de tipos móviles, a base de complejas
piezas de porcelana en las que se tallaban los
caracteres chinos.1440 - El primer medio de
comunicación mecanizado para hacer escritos
masivos y de amplia comunicación fue la imprenta,
la cual fue creada por el alemán Johannes Gutenberg
en el 1440, y en este momento el mundo está
sobresaltado por el ultimo
La imprenta: El gran logro de Gutenberg (1436 y
1450) fue el desarrollo de un método que permitió
fundir letras con dimensiones precisas, este avance
en laimpresión contribuyó sin duda y de forma
decisiva a la aceptación inmediata del libro impreso
como sustituto del libro manuscrito. Podemos
atribuir a Gutenberg la utilización de tipos móviles
de metal no usados anteriormente, pero no se sabe
bien quien fue el primero en implementarlas.
Su primera obra impresa con este sistema fue la
Biblia de 42 líneas en 1455. En un período de 50 años
seimprimieron más de 6.000 obras diferentes. El
número de imprentas aumentó rápidamente
durante esos años. A partir de allí, fueron cambiando
las prensas primitivas, pasaron a automatizarse las
máquinas de imprimir.
Hacia 1800, los avances en el mundo de la impresión
hicieron hincapié en aumentar la velocidad. Y nació
la imprenta de Vapor. Esta invención abre sus
puertas a la época moderna delperiodismo. El autor
de este decisivo invento fue, Federico Koenig. De ella
se obtenía un aproximado de 4000 hojas impresas
por una cara en un tiempo de una hora, y a la par de
misma logra ensamblar la misma máquina pero
doble que permitía que una hoja pudiera ser impresa
por ambas caras
La primera revolución tecnológica antes y después
de Gutenberg la había provocado la imprenta: había
modificadotodos los mensajes que circulaban en la
sociedad: periodísticos, didácticos, científicos, de
entretenimientos, ideas religiosas y políticas, leyes.
La imprenta logra producir varios ejemplares iguales
en un mismo proceso de enunciación. Por eso la
imprenta es un recurso repetidor. Reproduce, copia,
difunde un texto sin alteraciones. La imprenta
confirmó y amplió el campo visual del lenguaje que
habíaaparecido con la escritura, porque permitió
que cada persona se conectara directamente con el
mensaje.

Antes de la imprenta, los pocos ejemplares


elaborados a mano, permanecían en sitios
privilegiados. No había posibilidad de que la gente
conservara el ejemplar, para releerlo, retomarlo,
manejarlo, marcarlo, etc. Con la imprenta, permitía
que la gente lo leyera en la intimidad y en
formaaislada.
IMPORTANCIA DE LA IMPRENTA. (PORQUE FUE UNA
REVOLUCIÒN)
Si un invento como el de la imprenta apareció en
esta época y no en otra anterior no se debió en
absoluto a una casualidad, sino a una serie de
circunstancias que favorecieron e hicieron posible su
descubrimiento. Estas circunstancias fueron:
a) Aumento de la demanda del libro gracias a una
mayor alfabetización de la población, alpapel de las
universidades y centros de estudios, a las
inquietudes religiosas de la época y a la curiosidad e
interés por la investigación del hombre renacentista.
b) Incremento del poder adquisitivo de los europeos,
que se beneficiaban de las nuevas rutas comerciales
abiertas y en plena expansión. La imprenta también
se beneficiaría de las rutas comerciales europeas
para su difusión por todo elcontinente.
c) Avances en los conocimientos sobre metales y sus
aleaciones, que permitieron encontrar las fórmulas
adecuadas para la fabricación de punzones y
matrices, así como las tintas capaces de imprimir sin
engrasar el papel o traspasarlo.
d) Aparición de la industria del papel, que comienza
a vencer al pergamino desde 1350. El pergamino era
muy grueso para poder ser utilizado con...

Revolución industrial: Un antes y un después

La revolución industrial es considerada como el


cambio tecnológico de la historia que más ha
influido en la humanidad. Esta revolución ocurrió al
finales del siglo XVIII y principios del siglo XIX,
comenzando en el Reino Unido y extendiéndose por
todo el mundo. El trabajo manual pasó a la historia y
se introdujo la maquinaria como medio de
producción.

La revolución empezó con la mecanización de las


industrias textiles y el desarrollo de los procesos de
hierro. La expansión del comercio aumentó por la
mejoría de las rutas y, posteriormente, por el
ferrocarril. La introducción de la máquina de vapor y
una poderosa maquinaria (mayormente relacionada
a la industria textil: la rudimentaria spinning Jenny)
favorecieron los drásticos incrementos en la
capacidad de producción. El desarrollo de
maquinaria en las dos primeras décadas del siglo XIX
facilitó la manufactura para una mayor producción
de artefactos utilizados en otras industrias.

Los efectos de la revolución industrial se esparcieron


alrededor de Europa occidental y América del norte
durante el siglo XIX, eventualmente afectando a la
mayor parte del mundo. El impacto de este cambio
en la sociedad fue enorme y frecuentemente
comparado con el de la Revolución Neolítica (6000
años antes), cuando el arado hizo posible el
desarrollo de la agricultura.

Las causas de la revolución industrial son complejas,


con algunos historiadores viéndola como el
momento en el que se dejaron atrás los cambios
sociales e institucionales surgidos en el fin de la
etapa feudal británica después de la guerra civil
inglesa en el siglo XVII. Como los controles
fronterizos se hicieron más efectivos, la propagación
de enfermedades disminuyó previniendo epidemias
como las ocurridas en tiempos anteriores. La
revolución agrícola británica hizo además eficiente la
producción de alimentos con menos trabajo
intensivo, aletando a la población que no podía
encontrar trabajos agrícolas a tomar empleos
relacionados con la industria, originando un
movimiento migratorio desde el campo a las
ciudades, así como un nuevo desarrollo en las
fábricas. La expansión colonial del siglo XVII
acompañada del desarrollo del comercio
internacional, la creación de mercados financieros y
la acumulación de capital son considerados factores
influyentes, como también lo fue la revolución
científica del siglo XVII. La presencia de un mayor
mercado doméstico debería también ser considerada
como un catalizador de la revolución industrial,
explicando particularmente porqué ocurrió en el
Reino Unido. En otras naciones como Francia, los
mercados estaban circunscritos a regiones locales, lo
que frecuentemente imponía altas tarifas en las
mercancías comercializadas entre ellas.
La invención de la maquina de vapor fue una de las
más importantes innovaciones de la revolución
industrial. En el siglo XVIII la industria textil
aprovechó el poder del vapor de agua para el
funcionamiento de algunas máquinas que utilizaba.
Estas textiles se convirtieron en el modelo de
organización del trabajo humano en las fábricas.
Además de la introducción de la maquinaria, la
cadena de montaje contribuyó mucho en la
eficiencia de las fábricas. Con una serie de
trabajadores realizando una misma tarea en la
elaboración de un producto a medio terminar a los
siguientes trabajadores para que estos a su vez
efectuaran otra tarea específica sobre éste, la
cantidad de mercancía producida se incrementó
significativamente.
Todo lo que la imprenta ha hecho por ti (y todo lo
que dejará de hacer)

La imprenta no solo redujo el número de analfabetos


del mundo (sin libros suficientes no había incentivo
para aprender a leer), sino que también conectó a la
gente e incrementó el círculo de empatía hacia
mujeres, negros, niños, esclavos y demás clases
desfavorecidas. La imprenta constituye, por sí sola,
la Primera Revolución Industrial. Y nada sería como
es si no hubiera llegado a automatizarse este
proceso dedicado a copiar y copiar libros, opúsculos,
octavillas, manuales de instrucciones y hasta biblias.
La imprenta probablemente sea el invento que más
ha cambiado el mundo, y más cosas buenas ha dado
a la humanidad, pero al que menos atención le
hemos dedicado. Sin ella no existiría nada de lo que
nos rodea. Ni siquiera habría sacado a la gente de las
tinieblas de la ignorancia. Tampoco pensaríamos
como lo hacemos, porque no es lo mismo aprender
leyendo que escuchando, ni tampoco es lo mismo
explicar un argumento que escribirlo
organizadamente en doscientas páginas. Ni siquiera
podíamos viajar porque los mapas eran algo escaso,
caro y subjetivo.
Incluso la idea de Autor, y la existencia del copyright,
son efectos secundarios de la imprenta. Efectos que
la imprenta 2.0 quizá esté a punto de suprimir o
modificar para siempre, como lo hizo la imprenta
1.0.
Mejor que internet
Cuando nació la imprenta gracias al alemán
Johannes Gutenberg en 1436, los cambios sociales
que se produjeron fueron tan espectaculares como
los que hoy en día está produciendo internet,
aunque a una velocidad menor. Por ejemplo, una
persona nacida en 1453, el año de la caída de
Constantinopla, podía atesorar ocho millones de
libros nacidos gracias a la imprenta, más que todos
los libros producidos por todos los amanuenses y
escribas de Europa desde que Constantino fundó su
capital en el año 330.
La primera imprenta italiana se fundó en 1464. París
ya tenía imprentas en 1470. Y Londres, en 1476.
Hacia el año 1500, la imprenta se había extendido ya
por todos los países europeos, excepto Rusia. El
número de libros producidos en los cincuenta años
siguientes a la invención de Gutenberg igualó la
producción de los escribas europeos durante los mil
años precedentes. Tal y como señala Nicholas Carr
en Superficiales:

A finales del siglo XV, cerca de 250 ciudades


europeas tenían imprenta, y unos 12 millones de
volúmenes ya habían salido de sus prensas. En el
siglo XVI la tecnología de Gutenberg saltó de Europa
a Asia por Oriente Próximo; y también a las
Américas, en 1539, cuando los españoles fundaron
una prensa en la Ciudad de México. (…) Aunque a la
mayoría de los impresores les movía el ánimo de
lucro fácil, su distribución de los textos más antiguos
ayudó a dar profundidad intelectual y continuidad
histórica a la nueva cultura centrada en el libro.

640px-Handtiegelpresse_von_1811
Aprendiendo a pensar
La escritura y la lectura ejercitan partes de nuestro
cerebro que nunca antes de la existencia de la
imprenta se habían desarrollado. En 2009, la revista
Psychological Science publicó un estudio al respecto,
llevado a cabo por Nicole Speer, en el Laboratorio de
Cognición Dinámica de la Universidad de
Washington. Los cerebros lectores entienden de otra
manera el lenguaje, procesan de manera diferente
las señales visuales; incluso razonan y forman los
recuerdos de otra manera. Según explica Nicholas
Carr en su Superficiales:

Los lectores simulan mentalmente cada nueva


situación que se encuentran en una narración. Los
detalles de las acciones y sensaciones registrados en
el texto se integran en el conocimiento personal de
las experiencias pasadas. Las regiones del cerebro
que se activan a menudo son similares a las que se
activan cuando la gente realiza, imagina u observa
actividades similares en el mundo real.

O como añade Jeremy Rifkin en su libro La sociedad


del coste marginal cero:
Mientras que la escritura medieval era muy
personal y variaba con la aportación subjetiva de
cada amanuense, la imprenta eliminó este elemento
subjetivo y lo sustituyó por un enfoque al
conocimiento más racional, calculador y analítico.
Además, a diferencia de la comunicación oral que
depende de la memoria y, en consecuencia, de
respuestas formularias, la impresión permitió
conservar recuerdos y sistematizar la recuperación
de información mediante índices, notas a pie de
página y bibliografías, y contribuyó a la expansión
del vocabulario y al desarrollo de un lenguaje mucho
más matizado que se podía adaptar a experiencias o
momentos concretos.

letters-418634_640
Más buenos que el pan
La imprenta desarrolló la industria del libro, y con
ello la multiplicidad de puntos de vista, y la
posibilidad de introducirnos en la cabeza de otras
personas con formas de vivir muy distintas a las
nuestras.
Ello nos demostró que los extranjeros, los negros, las
mujeres y los niños eran como nosotros, tenían
nuestros mismos miedos y deseos. La imprenta,
pues, fue la primera máquina de realidad virtual, y
también una poderosa herramienta para penetrar en
mentes y, en consecuencia, permitir que nos
pusiéramos en la piel de otros. Ello fue
probablemente un punto a favor del incremento de
empatía que se está produciendo en los últimos
siglos, tal y como explicamos en ¿Leer te hace mejor
persona?
Economía
La imprenta también cambió la forma de hacer
negocios con los demás. Facilitó los contratos
comerciales, dejando atrás la economía feudal
basada en la palabra (es decir, circunscrita a las
distancias cortas). La confianza comercial, pues, se
hizo universal. Además, gracias a la imprenta se
podían enviar listas de precios, facturas, pagarés o
cheques normalizados. Como señala Jeremy Rifkin:

introdujo gráficas, listas y tablas que ofrecían una


descripción del mundo más objetiva y precisa que
cualquier valoración personal. También contribuyó a
la expansión del comercio por tierra y por mar al
abaratar la reproducción de los mapas y popularizar
su uso (…) La nueva matriz de comunicación/energía
no solo acortó distancias y redujo tiempos uniendo a
personas diferentes en actividades económicas
conjuntas después de muchos siglos de aislamiento,
sino que, con ello, también fomentó una nueva
apertura a los demás y marcó el inicio de una
mentalidad más cosmopolita.

El provincianismo y la xenofobia, en consecuencia,


también empezaron a desvanecerse gracias a este
cambio de paradigma económico, como también
sostiene Matt Ridley El optimista racional. Porque el
intercambio genera confianza, y viceversa:

En el siglo XIX, cuando el capitalismo industrial


atrajo a tantas personas a ser dependientes del
mercado, la esclavitud, el trabajo infantil y los
pasatiempos como el lance de zorros o las peleas de
gallos se volvieron inaceptables. A finales del siglo
XX, cuando la vida se comercializó aún más, el
racismo, el sexismo y el abuso de menores se
volvieron inaceptables. Y en el camino, cuando el
capitalismo cedió el paso a variadas formas de
totalitarismo dirigido por el Estado y sus pálidos
imitadores, fue evidente el retroceso de dichas
virtudes, mientras la fe y el valor revivieron. (…) La
violencia azarosa tiene espacio en los noticiarios
precisamente porque es tan rara; la amabilidad
rutinaria no es noticia precisamente porque es tan
común. En décadas recientes, las obras de caridad
han crecido más rápido que la economía a nivel
global. Internet está repleto de personas que
comparten consejos gratuitamente.

(Shutterstock)
(Shutterstock)

Vapor y prensa
Pero la imprenta aún nos propulsaría mucho más
rápido hacia el futuro gracias al vapor. La imprenta
tradicional no dejaba de ser un mecanismo lento y
laborioso, pero en 1814 la imprenta a vapor de
Friedrich Koenig empezó a imprimir las páginas del
periódico The Times de Londres a una velocidad
inaudita hasta el momento: 1.000 ejemplares por
hora en comparación con los 250 de las antiguas
imprentas manuales. En 1832, las imprentas a vapor
ya imprimían 2.000 periódicos por hora. En 1846, la
rotativa de dos cilindros de Hoe imprimía 12.000
hojas por hora. En 1865, la rotativa con bobina de
papel imprimía 12.000 periódicos completos en el
mismo tiempo.
Hasta el momento, la velocidad de impresión de
libros era aceptable porque escribir un libro suponía
una gran cantidad de tiempo. Pero las noticias
diarias quedaban inéditas en un mundo que
precisaba de la escritura de «libros» diarios que
consignaran la realidad cambiante. El vapor permitió
no solo contar lo que ocurría en una semana, sino lo
que ocurría cada día, cada hora, cada minuto.
Ya no se trataba de leer libros sesudos para
intelectuales, sino la simple realidad cotidiana. Todo
el mundo quería estar informado, pero nadie sabía
hasta qué punto lo necesitaba hasta que se
materializó la posibilidad de leer periódicos de gran
tirada. Como el pez que se muerde la cola, a mayor
demanda, más periódicos, a más periódicos, mayor
demanda. Lo que, paralelamente, impulsó la
alfabetización generalizada en Europa y
Norteamérica, originándose sistemas de
escolarización pública.
newspaper-412452_640
La velocidad de los datos y los trenes
Los avances técnicos de la imprenta permitieron que
esta fuese más eficiente y produjera aún más textos
de manera asequible. A lo que se le sumaron
máquinas para fabricar papel, la estereotipia y las
rotativas. Todo ello se desarrollaba a la par que el
transporte por ferrocarril. Al disponer de más
noticias, mayores posibilidades de consignar
transacciones comerciales y mayores diligencias en
la duplicación de manuales, catálogos y anuncios,
ello supuso un gran incentivo para desarrollar el
ferrocarril con la misma tecnología a vapor que
desarrollaba la imprenta. En el fondo, ferrocarril
(transporte) e imprenta (información) eran la misma
cosa, el mismo objeto, pero con distinta finalidad. El
tren y la imprenta, unidos, eran como internet
(ordenador + módem). Uno se desarrollaba bajo el
paraguas del otro.
Muchos agoreros y luditas renegaban de que el
ferrocarril alcanzara velocidades tan elevadas. En
1830, por ejemplo, publicaciones como Quarterly
Review advertían: «¡Qué puede ser más absurdo y
ridículo que la perspectiva de que las locomotoras
viajen dos veces más rápido que las diligencias!» En
el mismo año, Dionysus Lardner, profesor de
Filosofía natural y Astronomía del Colegio
Universitario de Londres, escribió: «Viajar en
ferrocarril a velocidad elevada no es posible porque
los pasajeros, incapaces de respirar, morirían de
asfixia». A pesar de ello, la velocidad en la copia de
textos era el verdadero incentivo para desarrollar la
velocidad en el transporte. La gente no era la que
quería ir tan rápido de un sitio a otro, lo era la
información. Y si la información no hubiera
necesitado de semejante rapidez, las personas
tampoco habrían decidido llegar de un sitio a otro
más rápido de lo que lo hacía sus pies.
Más tarde, los datos dieron lugar a los objetos. Así
como ahora internet está desarrollando el comercio
electrónico, y todo el mundo puede abrir una tienda
virtual donde vender cualquier cosa a cualquier
persona del mundo, hacia el 1900 se produjo una
revolución equivalente a menor escala. Al existir la
posibilidad de imprimir catálogos de cosas a un
precio económico que se trasladaban a lugares
lejanos a un precio también económico,
eclosionaron las empresas de venta por correo,
como Montgomery Ward y Roebuck and Company.
Tal y como lo explica Jeremy Rifkin:

En el catálogo de 540 páginas de Montgomery


Ward se ofrecían más de 24.000 artículos que
incluían comestibles, fármacos, joyería, bolsos,
zapatos, ropa para hombres, estufas, mobiliario,
cochecitos de bebé, artículos deportivos e
instrumentos musicales. Sears incluso vendía por
correo casas prefabricadas cuyos componentes se
enviaban por tren y se montaban en destino.

(Foto: Shutterstock)
(Foto: Shutterstock)
Copyright
Hasta la llegada de la imprenta el concepto de
autoría individual, copyright o derechos de autor no
tenían sustento. Si bien existían autores individuales,
eran una excepción: la mayoría de manuscritos eran
obras de cientos de amanuenses anónimos que
podían introducir cambios o retoques. Incluso los
autores individuales no creían que sus ideas nacieran
en su interior, sino que procedían del exterior, como
una inspiración divina.
Como la imprenta era una industria cara y
prohibitiva, copiar textos y distribuirlos no estaba al
alcance de todo el mundo. Así que los inversores
requirieron de un incentivo económico para
continuar adelante. La protección del copyright,
pues, no nació tanto para proteger al autor de las
obras como para proteger al empresario que las
copiaba. Una tendencia que, con sus altibajos, ha
prosperado hasta el nacimiento de internet (los
autores nunca han dejado de ser pobres, pues solo
viven de sus obras un porcentaje mínimo, y las
industrias, las editoriales y otros intermediarios son
los que se han enriquecido).
La idea de Autor también se fortaleció porque la
información era unidireccional. En la cultura oral
había conversación, pero en la cultura escrita el
lector solo podía recibir la información, sin
posibilidad de réplica. De algún modo, lo que la
gente leía parecía más importante, más poderoso,
más elevado que lo que antaño recibía por boca de
otros. Si un libro estaba firmado por un autor
reputado, entonces este efecto se multiplicaba. La
falacia de autoridad se propagó como una
enfermedad venérea debido a la imprenta. También
el concepto de que las ideas tienen dueño y que
tales ideas las genera un solo autor, el que ha
firmado, rubricado y protegido su obra.
Irónicamente, internet ha destruido a la imprenta. La
imprenta ya no es necesaria, y con ello también ha
diluido no solo el concepto de copyright, sino el
concepto de autor. ¿Quién es el autor de Wikipedia?
¿Quién es el autor de un blog en el que la gente
puede comentar, añadir nuevos datos, corregir,
enmendar la plana? ¿Cómo sabemos quién alumbró
una idea en concreto y, por tanto, debemos permitir
que le rinda económicamente en un mundo donde
tantas ideas se cruzan y entrecruzan creando nuevos
mutantes? ¿Es buena idea evitar esta propagación y
mutación de ideas mediante protecciones de
copyright basadas en un modelo de negocio obsoleto
si, con ello, estamos frenando la evolución de un
nuevo tipo de imprenta para el siglo XXI? ¿Cómo es
posible que la colaboración por internet produzca
cosas de mejor calidad que las producidas por los
expertos? No son preguntas de fácil respuesta, pero
sin duda somos incapaces de enfrentarnos a ellas
con paradigmas culturales anclados en el siglo XX.
Prejuicios similares con los que otros tuvieron que
lidiar con el advenimiento de la imprenta.
Internet parece que convierte la autoría en un
proceso abierto y colaborativo, un proceso más
eficiente que el antiguo proceso cerrado y
autónomo. En 2001, el especialista en derecho
informático de la Universidad de Stanford y autor del
libro Cultura Libre Lawrence Lessig fundó el Creative
Commons para dar solución a la imprenta 2.0.
Richard Stallman por su parte desarrolló el
movimiento del software libre. En 2009, Wikipedia
se fundó bajo una licencia Creative Commons, y ha
tornado obsoletas todas las enciclopedias fundadas
bajo el paradigma de la imprenta, el de incentivar
económicamente a los impresores, distribuidores y
creadores. La democracia líquida ya no es una
quimera. Los ejemplos de cómo el código abierto
está revolucionando la creación de nuevas ideas son
interminables. Las sociedades más prósperas e
innovadoras no son las más inteligentes, sino las
mejor conectadas entre sí y las que permiten que las
ideas fluyan más fácilmente, tal y como explica el
fisiólogo Jared Diamond en su libro Armas, gérmenes
y acero.

Los innovadores de éxito no solo están sobre los


hombres de gigantes, sino que participan en un robo
masivo de propiedad intelectual, recogiendo ideas
de una inmensa cuenca de aguas tributarias que
fluyen hacia ellos. […] Las sociedades ubicadas en
islas o en tierras altas intransitables suelen estar
atrasadas desde el punto de vista tecnológico; pero
también desde el punto de vista moral.

Por el contrario, las patentes, los derechos de autor


y las autorías sólidas solo prosperan en un mundo de
escasez, donde producir y distribuir información era
caro, tal y como explica Chris Anderson en su libro
icónico sobre el tema: Gratis. Ahora todos nosotros,
miles de millones de personas, disponemos de
nuestra propia imprenta en casa, con un sistema de
distribución cuyo coste marginal es próximo a cero.
Debemos prepararnos para todos los cambios que
eso supondrá, tantos o más como los que supuso la
imprenta. Y para ello, naturalmente, deberemos
tener la mente lo más abierta posible, olvidándonos
de todo lo que creemos saber.
Pensad, en cualquier caso, que sin la revolución
Gutenberg y la actual revolución post-Gutenberg,
ahora mismo sería prácticamente imposible que
estuvierais leyendo este texto. Y mucho menos que
tuvierais la posibilidad de añadir lo que considerarais
oportuno un poco más abajo. Y pensad, también,
que si este desafío de gestión de ideas digitalizables
y fácilmente copiables resulta peliagudo, pronto
deberemos enfrentarnos a un problema todavía más
complejo.
El equivalente a los átomos, propiciado ya no por
imprentas 2.0, sino por una suerte de revolución
industrial 2.0 en nuestro propio hogar: las
impresoras 3D, capaces de fabricar toda clase de
objetos, comida, órganos humanos funcionales,
casas y, en general, cualquier configuración de
átomos bajo parámetros de colaboración y open
source.
Bienvenidos al futuro.

Medios de comunicación en Venezuela


Los medios de comunicación en Venezuela han
incursionado en Internet desde sus inicios, y no la
han abandonado. Decenas de medios venezolanos
impresos y audiovisuales cuentan con presencia en
la web, sin contar los numerosos medios que han
surgido en formato estrictamente digital.

La era virtual libro, radio, tv entre otros


La era virtual

1. La era virtual: libros, revistas en soporte digital,


radio y tv digital, páginas web y blogs REPÚBLICA
BOLIVARIANA DE VENEZUELA MINISTERIO DEL
PODER POPULAR PARA LA EDUCACIÓN SUPERIOR
UNIVERSIDAD BOLIVARIANA DE VENEZUELA
Integrantes: Arelys Gómez José Hernández William
Pérez Cristhian Hernández Carolina Salazar Alí
Acosta
2. Libros en soporte digital Un libro electrónico,
libro digital, ciberlibro, también conocido como e-
book, eBook, ecolibro, es una versión electrónica o
digital de un libro o un texto publicado en la World
Wide Web o en otros formatos electrónicos.
También suele denominarse así al dispositivo usado
para leer estos libros, que es conocido también como
e- reader.
3. Revistas en soporte digital Una revista en
soporte digital, en esta es posible publicar un
ejemplar en la red y dejarlo abierto no solo a la
consulta sino a la continua modificación y
actualización de la información que esta contiene,
existe la posibilidad de actualizar los sitios web con
noticias que surgen en el momento.
4. Radio digital La radio por Internet o
streamcasting de audio, consiste en la exhibición de
contenido auditivo dotado de las características
propias del medio radiofónico (tales como su guion y
su lenguaje) a través de Internet mediante
streaming.
5. Tv digital La televisión por Internet, también
llamada televisión IP y televisión on-line u online, es
la televisión distribuida vía Internet. Se trata de la
perspectiva inmediata de Internet, ya que es una
nueva forma de entender y reproducir material de
comunicación audiovisual en línea.
6. Página Web • Una página web es el nombre de
un documento o información electrónica adaptada
para la World Wide Web y que puede ser accedida
mediante un navegador . Esta información se
encuentra generalmente en formato HTML o XHTML,
y proporciona navegación a otras páginas web
mediante enlaces de hipertexto.
7. Redes Sociales virtuales En Internet son
comunidades virtuales donde sus usuarios
interactúan con personas de todo el mundo con
quienes encuentran gustos o intereses en común.
Funcionan como una plataforma de comunicaciones
que permite conectar gente que se conoce o que
desea conocerse, y que les permite centralizar
recursos, como fotos y vídeos.
8. Blogs Es un sitio web periódicamente
actualizado que recopila cronológicamente textos o
artículos de uno o varios autores, apareciendo
primero el más reciente, donde el autor conserva
siempre la libertad de dejar publicado lo que crea
pertinente.

Concepto de Era Virtual


En pleno siglo XXI, la tecnología forma parte de la
vida cotidiana de las personas, sin lugar a dudas. El
mundo tiene disponible un amplio abanico de
aparatos, para todo uso, que ayudan a hacer la vida
más agradable y más segura.

Era Virtual

Las formas de comunicación populares de hace


pocos años, estaban en declive, como el periódico o
la radio. Hoy en día, el internet es un gigante que
controla hasta el más mínimo detalle de todo
entorno. Se puede acceder a la información de
cualquier materia en cuestión de segundos, lo que
antes ameritaba largas horas de investigación y
lectura.

Por tal motivo, ahora, los medios de comunicación


se encuentran en la era virtual, todos los conforman
han entrado de lleno a esta era. Por ejemplo, los
periódicos, las revistas y otros medios impresos se
enfrentan en el dilema cuando se trata de internet.
Por un lado, estas necesitan contar con la presencia
en línea para ser competitivas, pero por otro lado, si
suben a la red gratis el contenido de sus versiones
impresas, se arriesgan a perder circulación.

Al principio estos medios de comunicación


esperaban que sus sitios web significarán nuevos
ingresos y que atrajeron a un nuevo grupo de
lectores en línea, que compensaran cualquier
pérdida que sufrieron en la circulación de las
versiones impresas.
Además, la revolución virtual continúa impactando
en la industria de los libros. Por tanto, el tema más
comentado en el cambio del siglo fue el libro
electrónico (e-book), un desarrollo que tuvo el
potencial de reformar la industria editorial.

Hasta la radio se va envolviendo en la era virtual.


Miles de estaciones de radios tienen sitios web y
muchas ofrecen archivos de audio. Casi todos estos
sitios se utilizan principalmente como suplemento
de la estación al aire y de su señal análoga
tradicional. Sin embargo, parece que las cosas se
están acelerando.

Asimismo, se encuentra la televisión, es decir, por


internet, también denominada televisión on-line u
online o televisión IP. Se trata de la perspectiva
contigua de internet, debido a que es una nueva
forma de pensar y reproducir material de
comunicación audiovisual en línea. Es cierto que, los
medios de comunicación tradicionales, como la
televisión se aproxima a las características que se
dan en los medios digitales, no obstante, nunca
llegará a la interactividad que supone conectarse a la
red y que se crea entre el emisor y el receptor-
internauta.

Otro fenómeno destacable de la era virtual, es el de


las redes sociales, por ejemplo, el Facebook y
Twitter, principalmente, que permiten contactar a
individuos de cualquier rincón del mundo, aunque
estén separadas por miles de kilómetros. Casi en
tiempo real, se puede dar a conocer a los "amigos"
agregados a la red todo lo que se hace.

Así que, la posibilidad de interactuar tal como la


constante actualización de noticias, sometidos a
segundos una vez se ha clicado la información,
convierte a los foros y los blogs en poderosos medios
de comunicación. Ciertamente, se puede decir que
se establece entre los medios y los receptores un
vínculo de complicidad aportando información que
sirve de carnada a los medios, mientras que otros
receptores se satisfacen con la información captada
de éstos medios de comunicación, evolucionando,
transformando y aportando día tras día información
rápida y continua.

El avance tecnológico, actualmente, es el punto de


conexión entre el aparato (ordenador), el sujeto
(receptor), el medio (internet) el mensaje y las
características interactivas

Medios digitales
Ir a la navegación
Ir a la búsqueda

Los medios digitales son cualquier medio codificado


en un formato legible para máquina. Los medios
digitales se pueden crear, visualizar, distribuir,
modificar y preservar en dispositivos electrónicos
digitales. Programas informáticos y software;
imágenes digitales, vídeo digital; videojuegos;
páginas web y sitios web, incluyendo los medios de
comunicación social; de datos y bases de datos; de
audio digital, como MP3; y los libros electrónicos son
ejemplos de medios digitales. Implican la interacción
y uso de formato de texto, imágenes, elementos
gráficos, animación y sonido, para crear productos
digitales que puedan ser usados con o sin conexión.
1

Los medios digitales contrastan frecuentemente con


los medios impresos, tales como libros impresos,
periódicos y revistas, y otros medios de
comunicación tradicionales o análogos, tales como
imágenes, películas o cintas de audio. En
combinación con Internet y la informática personal,
los medios digitales han causado una ruptura en la
publicación, el periodismo, el entretenimiento, la
educación, el comercio y la política.

Los medios digitales también ha planteado nuevos


desafíos a las leyes de derechos de autor y de
Propiedad intelectual, promoviendo un movimiento
de contenido abierto en el que los creadores de
contenidos voluntariamente renuncian a percibir un
pago por copyright como cuando se utilizan algunas
Licencias Creative Commons.

La universalidad de los medios digitales y sus efectos


en la sociedad sugiere que estamos en el comienzo
de una nueva era en la historia de la industria,
llamada la Era de la información, que tal vez
conduzca a una sociedad sin papel en la que se
producen y consumen medios de información en
ordenadores. Existen estudios que pretenden
determinar hasta qué punto influencian estos
medios digitales el aprendizaje de los adolescentes.2

Sin embargo, los desafíos a la transición digital


permanecen, incluyendo las leyes de derechos de
autor, la censura, la Brecha digital, y el espectro de
una edad oscura digital, en el que los medios más
antiguos permanecen inaccesibles para sistemas
nuevos o mejorados de información. Los medios
digitales tienen un significativamente amplio y
complejo impacto sobre la sociedad y la cultura.
Nuevo modelo comunicacional en Venezuela
Introducción

Venezuela en estos últimos tiempos ha estado


avanzando hacia un Estado Democrático, con mayor
participación activa y protagónica del Pueblo, y lo ha
ido demostrando a través de cada una de las
Innovaciones en todas las áreas, tanto en la salud,
educación, en cuanto a lo social, económico y
tecnológico.

La Política Comunicacional, es uno de los nuevos


aportes que el Gobierno está impulsando para el
pueblo venezolano, el cual está sustentado con
principios sólidos contenidos en nuestra constitución
bolivariana de Venezuela.

Mediante el análisis de este tema tan importante en


materia comunicacional, estaremos haciendo mayor
énfasis al estudio de algunos puntos interesantes
tales como; El estado venezolano y su política
comunicacional, la política comunicacional como
medio para impulsar la participación y el
protagonismo del pueblo, medios alternativos y
comunitarios, alianzas estratégicas para integración
del Telesur, entre otros.
Definición de política comunicacional

Definición: Es el conjunto de mensajes que circulan


en el interior de un sistema político y que
condicionan su actividad, tanto desde la formulación
de demandas como la articulación de respuestas y
que determinan, en consecuencia, la propia
dinámica del proceso político.

La política comunicacional (PC) son las acciones que


se emprenden para alcanzar los objetivos
propuestos. Son las iniciativas, las pautas, el
método. La (PC) es algo que se planifica y no se
puede dejar a la deriva.

Lo recomendable es que las organizaciones


gubernamentales o no gubernamentales –
organizaciones comunitarias- piensen, planifiquen,
su política comunicacional para evitar la
improvisación.

CARACTERÍSTICAS DE LA POLÍTICA
COMUNICACIONAL

Entre las características de la Política Comunicacional


tenemos:

Generar la democratización de los medios de


comunicación

Activar la participación ciudadana,

Establecer una contraloría social,

Proteger a los niños, niñas y adolescentes


Impulsar una educación consciente para la
recepción de mensajes de los medios de
comunicación.

El ciudadano podrá, en forma individual, promover y


defender sus derechos e intereses comunicacionales;
también podrá hacerlo de forma colectiva, para ello
es necesario promover la asociación en comités de
usuarios con el objetivo de dirigir solicitudes, quejas
o reclamos vinculados con la programación de los
prestadores de servicios de radio y televisión sean
públicos o privados.

Características de la Comunicación Política

1.- La comunicación política puede ser transmitida


por cualquier medio (oral, escrito, visual, audible,
audiovisual, etc.) y está implícita en todas las formas
de interacción humana.

2.- La comunicación política contribuye a identificar


los problemas nuevos.
3.- Abre canales de participación ciudadana para que
la jerarquía legitimidad de los temas de la agenda
política resulten de un juego de negociación.

4.- Marginar las cuestiones que han dejado de ser


objeto de conflictos o respecto de los cuales existe
un consenso temporal.

5.- Condiciona la construcción democrática y el


desarrollo de las sociedades, influyendo en los
niveles y recursos de la participación y la legitimidad
en la inserción de problemas en la agenda pública y
su resolución.

FINES DE LA POLÍTICA COMUNICACIONAL

Desde este planteamiento, nuestros países necesitan


expresarse en otros modos de significar, se necesitan
medios de comunicación que contribuyan a construir
espacios de diálogo entre los sujetos. Medios de
comunicación difusores de otras experiencias,
tradiciones y perspectivas explicativas de la vida que
brinden significado a nuevos modos de grupos
sociales, con mucho que decir al respecto, tales
como los jóvenes, las mujeres, los grupos étnicos a
través de la creación de políticas claras y coherentes
que regulen el comportamiento, los contenidos y la
propiedad de los medios de comunicación.

Minci (Ministerio Popular para la Comunicación y la


información) y Conatel (Comisión Nacional de
telecomunicaciones) son los organismos encargados
de dar coherencia y cumplimiento a la política de
comunicación.

Con la iniciativa del Estado en materia de


información y comunicaciones, se han sentado las
bases para nuevas formas de relaciones entre
política, poder y comunicación, nuevos modelos de
participación ciudadana y de democratización del
poder, que incluye el poder comunicacional
manifestado en dos ámbitos: en el espacio político y
en el espacio radioeléctrico. Se abren posibilidades
de creación de nuevos espacios públicos para la
ciudadanización de la política y el quebrantamiento
de la apropiación actual de esos espacios públicos
por el poder más mediático.
El Estado venezolano y su política comunicacional

La definición de una política comunicacional necesita


lineamientos claros procedentes de una concepción
de la política, del pensamiento de democracia que se
sustente. Los principios y valores que propugnan una
política pública en materia de información y
comunicación, serán los mismos fundamentos del
modelo de democracia y consecuencialmente de su
gobierno.

Su puesta en acción posibilita la pluralidad necesaria


en el ejercicio de los deberes y los derechos que
amparan al ciudadano frente a las continuas
violaciones a la libertad de recibir la información
veraz y oportuna por parte de medios privados de
comunicación y también de los medios orientados al
servicio público.
CONSTRUCCIÓN DEL ESTADO DEMOCRÁTICO Y
SOCIAL DE DERECHO Y JUSTICIA

Las funciones esenciales del Estado Social coinciden


el Estado de Derecho, los pactos, tratados y
convenios suscritos por Venezuela. Su finalidad
radica en crear, conservar y comprometerse a
materializar esos derechos para satisfacer las
demandas y necesidades de sus habitantes para
lograr el bienestar general. Por ello, la justicia, la
educación, la salud, la seguridad social, el propender
a un desarrollo integral de la sociedad y del
individuo, el establecimiento y la protección de los
derechos humanos, siendo funciones indelegables
del Estado.

Estado social de derecho en nuestros días, tiene


relación con el estado democrático, en efecto, el
estado social de derecho ha experimentado las
luchas ideológicas y políticas del siglo XIX. Sin
embargo, este concepto fue desarrollado en el siglo
XX.
El nacimiento del concepto de Estado de Derecho
según sus consecuencias es producto de las críticas a
la ideología liberal, tal como se había impuesto a
partir de la revolución burguesa, y a su expresión
jurídico-constitucional, con las primeras
Declaraciones de Derecho (Virginia de 1776 y la
Declaración Francesa de 1789), y las constituciones,
norteamericana de 1787 y revolucionaria francesas,
a partir de 1791; es fundamentalmente desde la
segunda mitad del siglo XIX que surge el
cuestionamiento de la concepción liberal originaria.

La transición desde la formalización o positivación


del Estado de derecho, articulado al positivismo
imperante desde el siglo XX hasta el presente, se
identifica con la lógica formal (legalidad) producto
de los actos parlamentarios en forma de ley,
descartando las concepciones iusnaturalistas que le
habían definido los paradigmas racionalista-
iluministas.

Al reinterpretar el concepto de Estado de Derecho,


en éste concurre una gama de corrientes ideológicas,
como el socialismo premarxista, la social democracia
clásica, el catolicismo social, entre otras.

Esta doctrina ha venido a sustituir al Estado Liberal


de derecho como estructura de la convivencia
occidental, con un nuevo contenido Estado Social de
Derecho, esta vez positivo de la libertad individual.
El bienestar social y la realización de la justicia, en su
más alto y cabal sentido, aparecen, junto a la
planificación, como funciones del Estado. Y esto no
es incompatible con el mantenimiento del principio
del imperio de la ley.

Es fácil entender que el Estado Social de Derecho, es


un concepto material, el cual demanda actos
concretos o hechos sociales con contenidos
valorativos en la praxis social, al asignarle
obligaciones de hecho en el ámbito legislativo y
administrativo. En la Constitución descansa la norma
jurídica, por lo tanto es el instrumento jurídico
preeminente al que se remite como principio de
base y razón de ser, en otras palabras es el complejo
normativo del Estado.
En este sentido, el fortalecimiento del Estado Social
de Derecho es fundamental para la plena inserción
de los países a la comunidad de naciones del mundo,
como para alcanzar la paz, proteger a la población,
reforzar la legitimidad del Estado, alcanzar un
desarrollo humano sostenible, y asegurar la eficacia
de las políticas públicas en general.

El Estado venezolano muestra fortalezas,


representadas en la Constitución Bolivariana de
Venezuela y la estabilidad democrática, en una
legitimidad institucional reforzada en estos tiempos
de dificultades, un aparato económico que ha
resistido el embate de la corrupción, el despilfarro y
lo más serio que antes de 1999 el Estado no había
cumplido con los derechos sociales fundamentales.

La construcción del Estado social de derecho y de


justicia, que sea garante de la plena participación del
pueblo venezolano en los espacios de decisión de lo
público, constituye el fin último de esta delegación
legislativa, que además contempla el fomento del
elemento ético como valor de máxima consideración
al normar el manejo de la cosa pública.
Política comunicacional como medio para impulsar la
participación y el protagonismo del pueblo

(CRBV Art. 2, 57, 58, y 62).

En el caso del gobierno del Presidente Chávez, estos


principios emanan de la Constitución de la República
Bolivariana de Venezuela, a través del articulado que
defiende y ofrece rango constitucional a la libertad
de expresión, a la libertad de información, a la
responsabilidad social de los medios de
comunicación y a la responsabilidad de los
periodistas frente a los ciudadanos, establecidos
claramente en los artículos 57 y 58.

La Constitución Bolivariana de Venezuela del año


1999, sirve de basamento legal, de soporte filosófico
y ético con una profunda concepción democrática de
la inclusión social plasmada en los programas
públicos de orden educativo y tecnológico (Robinson
I y Robinson II, en la Universidad Bolivariana de
Venezuela, en la Misión Sucre, Misión Rivas, Misión
Ciencias, Revolución energética). En las áreas de la
salud están la Misión Barrio Adentro I y II, para
contrarrestar la exclusión nació en 2003 la Misión
Milagro, Misión José Gregorio Hernández. En
inclusión de las mayorías excluidas y discriminadas
(Misión Mercal, Misión Guaicaipuro, Misión Negra
Matea, Misión Negra Hipólita, Madres del Barrio).

La presencia de las denominadas misiones en los


lugares más apartados y en los barrios más
empobrecidos de toda la geografía nacional, ha
contribuido no sólo en alcanzar el bienestar de las
personas atendidas que ya en sí mismo representa
un logro sino también se ha conquistado la cuestión
clave de la real participación del ciudadano, en la
organización de su comunidad para recibir el
beneficio del programa, no como una dádiva, más
bien como derecho propio. Sobre todo con la
creación de los Consejos Comunales.

Constitución de 1999, que en su artículo 2 dice:


"Venezuela propugna como valor superior la
responsabilidad social", y en el artículo 57 establece:
"Toda persona tiene derecho a expresar libremente
sus pensamientos, sus ideas u opiniones y hacer uso
para ello de cualquier medio de comunicación y
difusión".

El artículo 58 expresa: "Toda persona tiene derecho


a la información oportuna, veraz. Así como a la
rectificación cuando se vea afectada directamente
por informaciones inexactas o agravantes. Los niños
y adolescentes tienen derechos a recibir información
adecuada para su desarrollo integral".

El artículo 62 dice: "Todos los ciudadanos tienen el


derecho de participar libremente en asuntos
públicos, directamente o por medio de su
representante elegido y elegidas. La participación del
pueblo en la formación, la ejecución y el control de
la gestión pública."
En el actual ordenamiento jurídico se plantea
desarrollar un nuevo tipo de sociedad, humanista,
centrada en la libertad, igualdad y justicia social y
construir un país soberano, con el desarrollo de la
capacidad creadora de sus habitantes.

Tales postulados están expresamente consagrados


en la Constitución Bolivariana de Venezuela, cuando
en su preámbulo y otros artículos, plantea redundar
la República. Estos principios son desagregados en
aspectos complementarios que se refieren a tópicos
políticos, económicos y culturales. En el aspecto
político, el art 62 define el ámbito de los derechos
políticos:

todos los ciudadanos y ciudadanas tienen el derecho


de participar libremente en los asuntos públicos,
directamente o por medio de sus representantes
elegidos o elegidas. La participación del pueblo en la
formación, ejecución y control de la gestión pública
es el medio necesario para lograr el protagonismo
que garantice su completo desarrollo, tanto
individual como colectivo...
Medios alternativos y comunitarios

Con la llegada del Gobierno Revolucionario, el


movimiento social representado por los medios
alternativos y comunitarios experimentó un gran
impulso que hoy día se traduce en la proliferación de
centenares de televisoras, impresos, emisoras,
páginas Web y otras manifestaciones nacidas de las
entrañas del pueblo. Prácticamente no hay barriada,
población o caserío venezolano, por muy apartado
que se encuentre de las grandes ciudades, que no
haya sido testigo del nacimiento de un medio
destinado a facilitar la comunicación entre sus
habitantes con los fines de enfrentar sus propios
problemas, realidades, sueños y esperanzas.

En la construcción del poder popular aún queda


camino por recorrer. Sin embargo, cada vez son más
los proyectos exitosos que apuntan en esa dirección
y como ejemplo de la extraordinaria asociación entre
comunidad y medio de comunicación.
Alianzas estratégicas del estado para integración del
TELESUR
Entre Venezuela y Brasil, se tomaron en cuenta
diversas áreas de mutuo interés, promoviéndose de
esta manera una serie de documentos para la
colaboración entre ambas naciones. Por esta razón,
se firmó un Memorándum de Entendimiento para la
cooperación en las áreas de ciencia y tecnología.
Asimismo, se suscribirá un acuerdo bilateral para el
área de comunicación e información.

Específicamente lo contemplado en el documento


que hace referencia a la cooperación
comunicacional, Venezuela y Brasil se
comprometieron al intercambio de información,
análisis y pronósticos de los medios de comunicación
social de ambos países. También la difusión de
informaciones oficiales de ambos gobiernos, sus
logros, actividades culturales, bellezas turísticas y
aspectos históricos, así como también programas de
divulgación científica, académica y universitaria,
además del intercambio de contenidos que
fortalezcan y enaltezcan las relaciones bilaterales.
TeleSUR, canal de integración para los países
latinoamericanos

TeleSUR canal de comunicación informativa,


constituida como una sociedad multiestatal y
conformada por una red de colaboradores
provenientes de cada rincón del continente, nace de
una evidente necesidad latinoamericana de contar
con un medio que permita, a todos los habitantes de
esta vasta región, difundir sus propios valores,
divulgar su propia imagen, debatir sus propias ideas
y transmitir sus propios contenidos, libre y
equitativamente.

Frente al discurso único sostenido por las grandes


corporaciones, que deliberadamente niegan, coartan
o ignoran el derecho a la información, se hace
imprescindible una alternativa capaz de representar
los principios fundamentales de un auténtico medio
de comunicación: veracidad, justicia, respeto y
solidaridad.
Con base en Venezuela y con el propósito de
desarrollar una nueva estrategia comunicacional
para Latinoamérica, Telesur persigue como misión,
promover el derecho a la información y asumir la
veracidad como principio, estimulando así a las
regiones suramericanas en la producción, promoción
y difusión de contenidos propios de cada país,
fomentando el reconocimiento del imaginario
latinoamericano.

Una señal de vocación social, que se constituya a un


tiempo en memoria histórica y expresión cultural, es
la visión de este novedoso canal, siendo además un
lugar de encuentros y debates de ideas, compuesto
por una programación tan diversa y plural como
diversa es la población latinoamericana.

Telesur pone el talento y la más avanzada tecnología


al servicio de la integración de las naciones y pueblos
de Latinoamérica y el Caribe, en 24 horas de
programación, transmitida por enlace satelital desde
Caracas, Venezuela, apuntando así a la concreción
del ideal bolivariano.
"Vernos es conocernos", "reconocernos es
respetarnos", "respetarnos es aprender a
querernos", "querernos es el primer paso para
integrarnos y integrarnos es el futuro de nuestras
naciones", son los pilares que persigue Telesur en
cada una de sus programaciones, porque la
información es un derecho inalienable a la que todos
deben tener acceso.

Con corresponsales permanentes en Bogotá, Brasilia,


Buenos Aires, Caracas, Ciudad de México, La Habana,
Puerto Príncipe, La Paz, Washington y una red de
colaboradores en toda la región, Telesur garantiza
una cobertura amplia y responsable, en el marco de
una agenda propia.

En el marco de su programación, se persigue la


transmisión de contenidos que contribuyan a la
formación de sus usuarios, desde la ancestral
sabiduría de las culturas originarias de América hasta
los postulados del nuevo siglo, el conocimiento es un
componente esencial para nuestra programación y
para el desarrollo de nuestros pueblos, incorporando
el entretenimiento como patrimonio común de los
latinoamericanos. Siendo así una alternativa de
comunicación para las Américas, Telesur será el
canal informativo más amplio de los nuevos tiempos
con mucho contenido por presentar, demostrando el
gran potencial que poseen las naciones
suramericanas, que avanzan a las vías del desarrollo
global e integración de cada una de las naciones que
componen la gran América.
Conclusión

El estudio de este tema nos permite concluir lo


siguiente;

Política Comunicacional es el conjunto de mensajes


que circulan en el interior de un sistema político y
que condicionan su actividad, tanto desde la
formulación de demandas como la articulación de
respuestas y que determinan, en consecuencia, la
propia dinámica del proceso político.
La Política Comunicacional presenta algunas
características tales como: Generar la
democratización de los medios de comunicación,
Activar la participación ciudadana, Establecer una
contraloría social, Proteger a los niños, niñas y
adolescentes e Impulsar una educación consciente
para la recepción de mensajes de los medios de
comunicación.

Con la iniciativa del Estado en materia de


información y comunicaciones, se han sentado las
bases para nuevas formas de relaciones entre
política, poder y comunicación, nuevos modelos de
participación ciudadana y de democratización del
poder, que incluye el poder comunicacional
manifestado en dos ámbitos: en el espacio político y
en el espacio radioeléctrico.

En el caso del gobierno venezolano, estos principios


emanan de la Constitución de la República
Bolivariana de Venezuela, a través del articulado que
defiende y ofrece rango constitucional a la libertad
de expresión, a la libertad de información, a la
responsabilidad social de los medios de
comunicación y a la responsabilidad de los
periodistas frente a los ciudadanos, establecidos
claramente en los artículos 57 y 58.

MODELOS HISTÓRICOS HISTORIA DE LA


COMUNICACIÓN SOCIAL

Escrito por Amparo Guerra Gómez el 08 Noviembre


2014. Publicado en Historia de la Comunicación
Social

Valoración del Usuario: 5 / 5


estrella activaestrella activaestrella activaestrella
activaestrella activa
Por favor valore
MODELOS HISTÓRICOS DE LA COMUNICACIÓN
SOCIAL
Profesora Amparo Guerra Gómez

1. MUNDO ANTIGUO (Hasta siglo IV a. C). Modelos


TEOCRÁTICOS con predominio de la ORALIDAD
(Mitos, literatura épica: Gilgamesh) y del MENSAJE
ICÓNICO (Frisos, Paleta de Narmer, Calendario).
Sociedades evolucionadas con MONOPOLIO DE LA
ESCRITURA POR CASTA DOMINANTE (rey,
sacerdotes, ESCRIBAS) que elaboran NORMAS
(Código de Hammurabi, Tablas de la Ley) y
RECOPILACIONES (Biblia, Vedas, Popol Vuh) en
diversos SOPORTES (piedra, arcilla, metales, papiro,
tela, pergamino).

1.1 CIVILIZACIONES DEL CRECIENTE FÉRTIL


* Lejano Oriente * Egipto e imperios mesopotámicos
* América precolombina * Persia, Israel. Con la
invención del alfabeto (3.000) experimenta rupturas
hacia
2. CLASICISMO (siglos IV al V d. C)
Modelo propio de las civilizaciones del mundo
grecorromano con base en la DESACRALIZACIÓN,
RACIONALIZACIÓN, y el HUMANISMO y estructura
democrática (Polis, Agora, Foro) y CARÁCTER
ARISTOCRÁTICO DE LA COMUNICACIÓN (sociedades
esclavistas). Predominio de la palabra, comercio,
dinero y la educación secularizada ESCRITURA (útiles
scriptorio), junto a FORMAS ORALES y VISUALES;
CENSURA OFICIAL y manifestaciones de incipiente
opinión pública.

2.1 GRECIA-ASIA MENOR. Modelo madre con formas


de comunicación a imitar:

* Orales (Mitos, Oratoria, Retórica) * Escritas


(Literatura, Filosofía, Política)
* Visuales (Arte, numismática, graffitti) * Música-
danza * Teatro (Comedia, Tragedia)
* Comunicación pública (Sofistas)
Expansión y PANHELENISMO con Filipo y Alejandro
Magno

2.2 ROMA. Modelo universal (Macedonia-


metrópolis-colonias) de SOCIEDAD URBANA
asentada en el poder político-económico-militar y la
normativa común (Ius Civile, Ius Gentis)
CIUDADANÍA. Formas informativo-propagandísticas
complejas que evolucionan desde la República hacia
la centralización y el culto a la personalidad (César,
Augusto) ESCRITOS (Liber, copistas, Bibliotecas),
ORALIDAD (educación obligatoria), RELIGIÓN
ESTATAL (Panteismo vs CRISTIANISMO vs herejías),
VISUALIDAD (Arte, espectáculos de masas), entre las
que cabe distinguir las siguientes formas y
profesiones informativas:

a) Oficiales: Annali Maximi, Acta Senatus, Acta


Diurna, Forensia, Bellica, etc.
b) De negocio: Praeco, Strilloni, Nomenclator,
Subrostani
c) Alternativas: Espías, Augures, Hojas volanderas,
Carmen Famosum, etc.

Balance: Siglo IV freno a expansión y DECADENCIA


POLÍTICO- CULTURAL DEL IMPERIO ROMANO lleva a
INVASIONES BÁRBARAS y a ruralización de
Occidente Comienzo EDAD MEDIA

3. LA EDAD MEDIA (siglos V-XV)

Sistema informativo resultante de la lenta


disgregación del modelo clásico y del retroceso de
Europa frente a Islam alfabetizado. Caracterizado
por el teocratismo, la abstracción, y el simbolismo. el
sincretismo credo religioso-formas populares en un
medio laico inculto propicia un retorno a la
ORALIDAD, la VISUALIDAD y el MONOPOLIO
ECLESIAL DE LA PALABRA y del SABER ESCRITO
(CÓDICE) que ejercen COPISTAS ,Monasterios,
Gremios, y Escuelas Catedralicias. Los SOPORTES
ESCASOS hasta el siglo XV (pergamino, palimsesto,
vitela, papel).
3.1 Formas de comunicacionales del Medievo según
emisores y/o destinatarios:

3.1.1 Populares.
* Imagen (Arte, símbolos de Poder)
* Orales (Cantares de Gesta, Hagiografía)
* Formas volanderas (Carmina Burana)

3.1.2 Elite:
* Universitarias (Tratados políticos, apuntes)
* Literarias-humanísticas (Lenguas romance,
Academias)
* Económicas y de negocio (3.1.4)

3.1.3 De la Iglesia:
*Orales (PREDICACIÓN, rezo, confesión, ejercicios
espirituales)
* Visuales y mixtas (Románico, Liturgia, Misterios,
Milagros)
* Escritas (Ars Predicandi, Devocionarios, Libros de
Horas)

3.1.3.1 Otras.
*Organizaciones propagandísticas para
represión/contención de HEREJÍAS POPULARES:
Inquisición.
*Luchas Imperio-Papado INVESTIDURAS
*CRUZADAS. Origen de ÓRDENES MILITARES

3.1.4 NOTICIERISMO MANUSCRITO. Cuñas al


monopolio eclesial (s. XIII) Formas protoperiodísticas
producto del resurgimiento de las ciudades y los
intereses de la BURGUESÍA y FINANZAS (Függer)
impresos:

3.4.1 Foggli a mano, AVISSI (Gazetas) Menanti


3.4.2 CARTAS-DIARIO (Informes)
3.4.3 CRÓNICA CÍVICA (cronista oficial)
3.4.4 PRICE CURRENTS (Avissi)
3.4.5 ALMANAQUES (literatura de cordel)

Balance: Siglo XIV Recuperación de mentalidad


clásica: CULTURA URBANA, ESCRITA, SECULAR Y
MONETARIA con Renacimiento e Imprenta.

4. EDAD MODERNA Y ABSOLUTISMO (siglos XV-XVIII)

Predominio de FORMAS ESCRITAS e IMPRESAS


conviviendo con oralidad y visualidad.
ORGANIZACIÓN DE PRIMERAS ESTRUCTURAS
COMUNICACIONALES ESTATALES (CORREOS,
POSTAS). EXTENSIÓN Y UNIVOCIDAD DEL MENSAJE
Soportes: PAPEL IMPRENTA DE TIPOS MÓVILES a
partir de XILOGRAFÍA con COSTER y GUTENBERG en
Italia, España, Inglaterra, Suecia, Francia.

LIBRO (1450 en adelante)

Temas: a. Religioso: Speculum, Biblias, Libros de


Horas, Kempis, Ars Moriendi
b. Enseñanza: Donatos, Tratados
c. Científicos: Planetarios, Medicina, etc.

4. 1 MOVIMIENTOS Y FORMAS DE COMUNICACIÓN


S. XVI-XVII
4.1.1 REFORMA. Definitiva sanción del Cisma De
Occidente con Martín LUTERO (1517)
PROTESTANTISMO amplio MOVIMIENTO
PROPAGANDÍSTICO que rompe con monopolio de la
Predicación (religión del libro) y propugna a BIBLIA
COMO ÚNICA AUTORIDAD DEL SABER RELIGIOSO y a
la IMPRENTA DON DIVINO Calvino, Zwinglio.
Principales formas de comunicación (1517-1555):

a. Escritos
* Elite (A la nobleza cristiana)
* Burguesía (Tesis Wittemberg)
* Panfletos y pub. populares (grabados, salmos,
himnos, CATECISMO)
b. Palabra. SERMÓN y culto participativo.
predicadores como propagandistas

c. Música, canciones

4.1.2 CONTRARREFORMA. Reacción comunicacional


de Roma (1521) activando FUERZAS CULTURALES E
INSTITUCIONES ALTERNATIVAS A LA REFORMA:

a. Humanismo cristiano NEOTOMISMO INQUISICIÓN


b. Nuevas congregaciones religiosas (teatinos,
capuchinos, JESUITAS)
c. CONCILIO DE TRENTO. Culmen de la
Contrarreforma a través de sus directrices y de la
CONGREGATIO DE PROPAGANDA FIDE (1622)
Imprentas, Colegios, Información (Cartas de jesuitas)
Predicación, Dirección Espiritual.
d. Conversiones de herejes (Compañía Santísimo
Sacramento), elites cultas ( Neoescolasticismo),
masa popular (culteranismo-conceptismo, folletos
divulgativos antirreformistas)
e. Prohibición lectura Biblia y CENSURA DE
ESCRITOS INDICE TRIDENTINUS (1564)
f. Revalorización del ARTE EXPRESIONISMO
BARROCO (arquitectura, pintura, Imaginería)

4.1.3 PRIMERAS FORMAS PERIÓDICAS IMPRESAS


Dirección estatal y MONOPOLIO PRIVADO.
4.1.3.1 Oficiales. Difusión no regular
* Cartas-Diario
* CORREOS (von Taxis)

4.1.3.2 Mixtas. Periodicidad fija. Propaganda estatal


y culturización popular
* OCASIONALES Avissi 1 noticia (Cristobal Colón)
* RELACIONES Anual (von Aitzing Laotomus)
* ALMANAQUES. Temática múltiple (Calendarios,
astrológicos, Farmer's, científicos)
*GACETERISMO. PRIMEROS SEMANARIOS
EUROPEOS (Niewe Antwerschen Tydinghen, 1605).
Temas: científicos, económico-políticos o
propagandísticos: Aparición de las Hojas Holandesas
durante la Guerra Treinta Años

4.1.4 Siglos XVII y XVIII. MODELOS ABSOLUTISTAS DE


COMUNICACIÓN Y PROPAGANDA. Bases en estudios
políticos de Edad Media-Moderna (Egidio Romano,
De Regimine Principum; N. Macchiavelli, Il Principe)
Maurice Joly enuncia (Diálogo en el Infierno entre
Maquiavelo y Montesquieu, 1864) TEORÍA
INFORMATIVA DEL ESTADO
MODERNO a desarrollar en el frente defensivo
(licencia, censura, tribunales) y ofensivo (prensa
oficial, oficialista y de partidos); variedades de
aplicación:

4.1.4.1 Francia: ABSOLUTISMO LOGRADO. Modelo


piramidal con predominio de MEDIOS DE CONTROL
DIRECTO (privilegio real; censura previa) y
publicaciones oficiales:
* Gazette
* Journal des Savants
* Mercure más
Prensa alternativa (diarios, p. anuncios)

4.1.4.2 Inglaterra: ABSOLUTISMO IMPERFECTO.


Libertad teórica de expresión y restricción práctica
Guerra Civil. Abolición Licensing Act MODELO
BURGUÉS DE CONTROL INDIRECTO (Milton,
AREOPAGITICA ) 1712 junto a medios defensivos:
Stamp Act, secreto Sesiones Parlamentarias, Libel
Act, etc.

Formas dominantes:

a) Prensa "moral" (Defoe, Swift):


* The Tattler (Steel, 1709)
* The Spectator (Addison, 1711)
b) Política:
* Cave (Gentleman's Magazine)
* Wilkes ((North Briton)
* Junius
c) OTRAS
*Primeros diarios (Daily Courant, 1702)

d) Anuncios:
*City Mercury, Public Advertiser, Morning Chronicle
& London Advertiser

Balance: Siglo XVIII inglés Age of the Struggle for the


Freedom of the Press con prensa como motor de
cambio político y comunicacional desde bases
jurídico-económicas de REVOLUCIONES ATLÁNTICAS

5. REVOLUCIÓN BURGUESA Y COMUNICACIÓN


SOCIAL (1688-1815) Proceso RUPTURISTA y paso al
Nuevo Orden Informativo impuesto por la Ilustración
Revoluciones Atlánticas monopolio absolutista y
consagra LIBERTAD DE EXPRESIÓN (Declaración de
Derechos) como pilar de la sociedad. Soportes:
papel; procesos/formas de comunicación y
propaganda:
5.1 NORTEAMERICA (1770-1787). Imitación y gran
desarrollo de modelo antiabsolutista inglés en 13
colonias (oposición a Stamp Act) MODELO DEL
LIBERALISMO de oferta/demanda, con IMPRESOS Y
PRENSA POLÍTICA COMO MOTOR REVOLUCIONARIO
(1690), profesionales (Franklins, Paine, Jefferson,
Adams, Washington) y publicaciones adecuadas a
cada público y momento desde mediados de siglo:
a. Periódicos (Boston Newsletter; New England
Courant; Pennsylvania Gazette; New York Weekly
Journal; Boston Gazette and Country Journal)
b. Lecturas, Almanaques (The American Crisis; Poor
Richard, Father's Abraham)
c. Panfletos, Slogans, grabados, canciones (Common
Sense; On Civil Liberty, Rights of the Man; Join or
Die)

La puesta en marcha de los Correspondence


Committees llevan al motín del
BOSTON TEA PARTY, las Cohertion Acts por parte de
Gran Bretaña , y la Declaración-GUERRA
INDEPENDENCIA de los EE.UU. (1776), con el
nacimiento de un modelo de comunicación propio
de sociedades democráticas.

5.1 REVOLUCIÓN FRANCESA. Proceso culmen del


antiabsolutismo enciclopedista batalla de escritos
(Sieyes, Condorcet) PRENSA IDEOLÓGICA y labor de
adoctrinamiento de agitadores profesionales y
publicistas (Danton, Marat, Robespierre). Formas y
medios desde 1788:
a. Prensa revolucionaria
b. Panfletos (Cahiers de Doleances, Quést-ce que le
Tiers Etat)
c. Caricaturas, canciones, slogans (La Marsellesa, Ca
ira; Liberté, Egalité, Fraternité)
d. Id. Reglamentaciones (Ley Thouret, 1791)

El período de la Convención (1793-1795) supone una


bifurcación histórica en sendas variantes
revolucionarias de comunicación social y germen
modelos dictatoriales del siglo XX (TOTALITARISMOS
de entreguerras):
5.1.1 JACOBINO. POPULAR DE CORTE ASAMBLEARIO
y libertad total no aplicada (Constitución 1793) y
masas como agente activo y soporte del poder
TERROR ROJO (1795); formas y medios:
a. Escritos. Prensa extremista (Vid. Feuilles de Salut
Publique; L'Amie du People; Des Actes des Apôtres)
b. Visuales: Arte-cultura, himnos, símbolos, fiestas,
culto, espectáculos .

5.1.2 NAPOLEÓNICO. Sistema AUTORITARIO-


PERSONALISTA de libertad vigilada y control férreo
de medios (supresión, censura) con manipulación
opinión pública. Formas-medios-soportes desde
1799:
a. Prensa oficial (Le Moniteur; Le Journal de Paris; Le
Journal de l'Empire; La Gazette de France)
b. Infraestructura informativa-propagandística.
(Bureau de Presse, Bulletins)

Balance: Revoluciones Atlánticas experimento para


MODELO LIBERAL DECIMONÓNICO DE
COMUNICACIÓN Oleadas revolucionarias de 1820,
1830, 1848 hacia GRAN SIGLO DE LA PRENSA

1. ANTECEDENTES. Gran siglo de la prensa (1820 en


adelante)

Revolución política e Industrial Triunfo del MODELO


LIBERAL-BURGUÉS-DEMOCRÁTICO de LIBERTAD
TEÓRICA Y CENSURA INDIRECTA. Id publicaciones
diarias y semanales (Tiradas, financiación por
publicidad, nueva organización empresarial) PENNY
PRESS (Girardin); con nuevas técnicas de
reproducción (estereotipo, linotipia, fotografía).
1830-1860 con PRENSA DE MASAS (1º y 2ª
generación): Benjamin Day (The New York Sun),
James Gordon Bennet (New York Morning Herald),
Horace Greely (The New York Tribune). 3ª
generación): SENSACIONALISMO y AMARILLISMO
con Pulitzer (The World) y Hearst (New York Herald).
Id. PRENSA de ELITE con Ochs (The New York Times),
Mary Baker Eddy (Christian Science Monitor), The
Times, Le Figaro, Le Temps, Il Corriere de la Sera, El
Imparcial, Frankfurter Zeitung, etc. Tras 1ª crisis del
capitalismo industrial surgimiento de PRENSA
ESPECIALIZADA (Le Monde, Wall Street Journal,
Financial Times) AGENCIAS INFORMATIVAS (Havas,
Wolff, Reuter, AP).

2. SIGLO XX. COMUNICACIÓN-PROPAGANDA DE


MASAS a cargo de expertos (Lord Press e Institutos
Opinión Pública). Desarrollo medios audiovisuales:
CINE, RADIO, TV Audiencias. PUBLICIDAD y nuevos
géneros informativos: fotoperiodismo,
corresponsalía.

2.1 I G.M. INFORMACIÓN COMO ARMA DE GUERRA


y aplicación de PROPAGANDA CIENTÍFICA DE CORTE
MECANICISTA (Pavlov) blanca/negra y leyes E-R
sobre audiencias masivas . Tiradas CONCENTRACIÓN
EMPRESARIAL; nuevos medios y soportes (CINE,
CARTEL) Periodismo de trinchera de contenidos
impactantes (invenciones e historias escalofriantes)
y CENSURA RIGUROSA ausencia general de crítica
(periodistas laudatores temporis acti) CREDIBILIDAD
PRENSA ESCRITA. 1914-1917 1ºs organismos de
Información y Propaganda (INICIATIVA MIXTA o
PÚBLICA según etapas y modelos):

a) Democrático (Aliados):
*G.Bretaña (Crewe House) *EE.UU. (Creel
Committee) *Francia (Maison de la Presse)

b) Autoritario (Imperios Centrales): *Alemania


(nacionalización de Wolff)

Balance: Guerra total ayuda a consolidación de


técnicas de propaganda moderna años 20-30
Psicología Social aplicada a COMUNICACIÓN DE
MASAS (Laswell, Lazarsfeld, Escuela de Chicago)

2.2 ENTREGUERRAS. 1919 Surge la 4ª generación


medios de masas: competitividad agresiva y crisis de
confianza ruptura social y fanatismos de grupos
paramilitares (Camisas negras, SA, Ku-Klux-Klan)
mito del "NUEVO ORDEN" informativo Propaganda
TOTALITARISMOS. Medios, formas, soportes: RADIO
(BBC, RCA, NBC) y CINE; prensa formato pequeño y
lenguaje TABLOIDE (jazz journalism) con
CONTENIDOS DE INTERÉS HUMANO (folletín,
escándalos, crímenes); uso de FOTOGRAFÍA vía de
escape y promoción de nuevos valores:
individualismo, búsqueda del placer, entorno urbano
de héroes reales (aventureros, deportistas, actores
del celuloide)... (Daily Mirror, Illustrated News,
Evening Graphic, Esquire). Similitudes de estrategia
pero diferentes modelos de aplicación:

2.2.1 DEMOCRÁTICO-OCCIDENTAL. Libertad de


empresa y burocratización no monopolística (BBC) y
Redes e instituciones culturales; y utilización del
SONDEO (J. Gallup, 1932). Desde 1933 CRECIENTE
INTERVENCIONISMO ESTATAL (crisis 1929 y New
Deal) e infraestructura de comunicación exterior
política Ministerios de Información Propaganda
(Suecia, Gran Bretaña, Francia, EE.UU.)
2.2.2 TOTALITARIO. Base en modelo jacobino-
napoleónico de comunicación social de organigrama
piramidal con PROPAGANDA eje de conquista y
conservación del poder y medios al servicio del
Partido: CULTO A PERSONALIDAD, control de
pensamiento, LENGUAJE IDEOLÓGICO, CENSURA
FÉRREA (Partido único) ESTATALIZACIÓN MEDIOS DE
INFORMACIÓN/COMUNICACIÓN SOCIAL:

* URSS. Triunfo revolución bolchevique (1917) con


propaganda como instrumento de adoctrinamiento
de masas (Lenin, Plejanov) Estado soviético. Medios
instrumentos del Estado socialista (Constituciones
1918 y 1936) dependientes Comité Central
(AGITPROP) Iskra PRAVDA; IZVESTIA y agencia de
noticias (TASS, 1925). Radio trust estatal (Comité
Radiodifusión). Cine (Sergei Eisenstein: Octubre, El
Acorazado Potemkin)

* ITALIA FASCISTA. Desde asesinato Mateotti (1924)


CONTROL ESTATAL DE MEDIOS COMUNICACIÓN
desde Ministerio Cultura Popular: prensa monopolio
de Gran Consejo Fascista (agencia nacional
STEFANIS). Cine como Dirección General (Instituto
LUCE presidido por Mussolini) 1939 ENTE
NAZIONALE. Id. de Audiciones Radiofónicas.
* III REICH. Tras fracaso putsch de Munich Mein
Kampf (1925) prepara conquista poder por Hitler a
través de prensa NSDAP (Volkischer Beobachter, Der
Angriff) 1933: GOEBBELS máximo artífice en
Ministerio de Información y Propaganda (Cámaras
Prensa, Film y Radiodifusión). Medios de
información vehículo enaltecimiento RAZA ARIA:
prensa de Partido; radio-escucha como "deber
nacional". Palabra/retórica (discursos, slogans),
símbolos/grafismos (saludo, banderas, svástica),
ARTE (arquitectura/escultura/pintura), espectáculos
de masas (Congresos Nuremberg, deportes, música),
CINE (UFA adquirida por Hugenberg) documental e
histórico (Leni Riefenstahl: Der Triumph des Willens,
Olympiade)

2.3 SEGUNDA GUERRA MUNDIAL. Perfeccionamiento


e intensificación modelos anteriores. Estrategias
comunes y propaganda concepto peyorativo para
aliados (excesos de 1914-1918). Fórmulas soportes:
"BATALLA DE TÉRMINOS" en los nuevos medios:
RADIO (Guerra Civil Española), CINE en diversos
géneros , CARTELES. Aplicaciones según bandos:
2.3.1 ALIADOS. Hasta 1942 credibilidad y
contraataque a Eje (propaganda blanca). Temas:
patriotismo y moderada objetividad; después
sátira/burla (carteles) y utilización propaganda negra
. Desde 1938 funcionamiento de organismos de
Información y Propaganda. Estrategia y resultados:
Coordinación exterior y EFECTIVIDAD BÉLICO-
INFORMATIVA

2.3.1.1 G. Bretaña. Cerebro de la contienda. Régimen


informativo de libertad controlada (Press
Censorship). Departamento Paises Enemigos Political
Warfare Executive (1941); Cine, Radio: Boletines BBC
y campañas especializadas (Vid. "V").
2.3.1.2 Estados Unidos. Músculos del combate.
Idéntico modelo a partir de Oficina de Información
de Roosevelt: Office of Facts and Figures (coronel
Donovan, 1941). En 1942 se crea Cuartel General del
Pacífico y organismos propagandísticos de la
pshycological warfare: OWI (blancas) y OSS (negras).
Id radio Voice Of America (VOA).
2.3.1.3 Unión Soviética. Fuerza númérica (rodillo).
Ideologización propia de modelo totalitarista (Vid.
ep. 2.2). Utilización masiva información (labor de
Agitprop), explotación de moral (Ejército Rojo) y
mitos históricos (general invierno).
2.3.1.4 Francia. Creación en 1939 del Comisariat
Géneral d'Information. Tras invasión nazi, división de
modelos: democrático de Resistencia y Francia Libre
(De Gaulle): radios y prensa clandestina ;
nacionalista filo totalitario de Vichy (Petain).

2.3.2 EJE. Dirigismo de modelos totalitarios de


entreguerras (epígrafe 2.2.2). Prueba de fuego de
Ahbwer en guerra civil española (1936-1939).
Estrategias y resultados: dominio psicológico de
frente interno pero INEFICACIA EN PAISES
OCUPADOS

2.3.2.1 Alemania. "Nuevo Orden nazi" con CINE Y


RADIO como medios rey (Goebbels). Prensa
dependiente y publicaciones Partido-Ejército
(Volkischer Beobachter, Das Reich). Temas:
antisemitismo y antibolchevismo falsedades
históricas (Vid. Testamento de Pedro El Grande o
Protocolos de Sión)
2.3.2.2 Italia. Deficientes resultados del Ministerio
de Cultura y Propaganda.
2.3.2.3 Japón. Avance desde 1937 (China) pero
rechazo asiático al proyecto del Dai Nippon.

Balance: Tras Sicilia y Normandía 2ª VICTORIA


ALIADA Derrumbamiento Eje NUEVO ORDEN
MUNDIAL (Yalta, Postdam). Surge la 5ª GENERACIÓN
MEDIOS DE MASAS

2.4. GUERRA FRÍA (1945-1989). Reconstrucción


europea SISTEMA BIPOLAR DE SUPERPOTENCIAS
(Plan Marshall) Desde 1948 división-enfrentamiento
Este-Oeste en "guerra no-declarada" (Churchill,
Doctrina Truman) de alianzas militares (OTAN, Pacto
Varsovia) y batallas propagandísticas en foros
internacionales (ONU) y medios de comunicación
como TELEVISIÓN). Actuación en puntos calientes
(crisis y conflictos regionales): Berlín, Cuba, Sudeste
Asiático, Oriente Medio, Centroamérica, Cuerno
Africa, etc. DOS MODELOS ANTAGÓNICOS DE
COMUNICACIÓN SOCIAL:

2.4.1 BLOQUE OCCIDENTAL (EE.UU. y aliados).


Pervivencia modelo liberal-democrático de leyes de
mercado y control indirecto (apoyos, subsidios)
NEOCAPITALISMO INFORMATIVO: Gran desarrollo
tecnológico, pluralismo político, CULTO A
OBJETIVIDAD y pacto Estado-medios de
comunicación teoría de la "SOCIAL RESPONSIBILITY"
(Hutchins Commission, 1947). En G. Bretaña las
Royal Commission of the Press y la regulación por el
Press Council (1953-62) que estable un FREE FLOW
OF INFORMATION con amplio poder estatal
(monopolios) y/o competición en medios masivos
(NBC, ABC, CBS, NBC).

*Estrategias de propaganda: blanca, negra, de


simbiosis-contagio mediante instrumentalización de
consenso (Chomsky-Herman). Reorganización
Agencias (France Press, Reuter, AP, UPI, EFE). Tipos
de medios: elite, masas, global, alternativa. Formas
nuevas: libro de masas, magazine, comic...
* USA modelo representativo: Anticomunismo años
40-50 creación organismos de información-
propaganda gubernamental: (CIA, USIA) Caza de
brujas mcarthysta. Emisoras (VOA, Radio Liberty,
Radio Free Europa). Con coexistencia (1953 en
adelante) NEWS MANAGEMENT de dirección
institucional de noticias; aplicaciones históricas en
crisis y conflictos regionales (décadas)
-50s: despegue (Corea)
-60s: apogeo (Cuba; Vietnam)
-70s: decadencia ( Vietnam, Yom Kippur)
-80s-90: recuperación (Irán, Afganistán,
Centroamérica, Guerra Golfo)

2.4.2 BLOQUE ORIENTAL (URSS y "democracias


populares"). Modelo monolítico de dirigismo
gubernamental (PCUS partido único): estructura
piramidal de medios oficiales (Pravda, Tass)
controlados desde cúspide gubernamental
(Constitución 1976). Organismo de propaganda: KGB
que dirige el Departamento de Desinformatsia.
Balance: Agotamiento de modelo a finales de los 70
(fin descolonización, crisis de petróleo); Nuevas
tecnologías de la comunicación Tercer Mundo
(oposición de No-Alineados) CONFERENCIAS UNESCO
informe McBride (1980) con Programa Internacional
de Comunicación. A finales de siglo PERESTROIKA
telón acero mundo unipolar

paso a

3. SOCIEDAD INFORMATIVA. Era de la aldea global


(McLuhan, 1962) de regreso a la iconicidad con
NUEVAS TECNOLOGÍAS DE LA IMAGEN (laser,
vídeoclip, videodisco, ordenador, fax, bases datos,
TV satélite, teletexto). Crisis, restructuración sector
prensa y búsqueda de mercados. Medios estatales y
concentración emisores (Hipersector Información+
Comunicación) en IMPERIOS MULTIMEDIA (NYT Co,
Fox, Disney, Time-Warner, Hersant, Hachette,
Turner, Springer, Murdoch, Berlusconi...) "FUTURO A
LA CARTA" (Timoteo, 1988).
Paso a Realidad virtual y Ciberespacio.

4. SOCIEDAD DIGITAL.
Entre 1995 y 2003 concentración de medios,
convergencia negocio convencional-
entretenimiento, y reducción de las agencias de
publicidad facilita la globalización de la demanda en
audiencias en radio y TV, (privatización del medio y
magacinización de formatos). Con la generalización
de INTERNET (1990 en adelante) , bases de datos,
páginas y sitios diverso (webs, blogs, portales), se
instalan en espacios generalistas junto a
comunicación comercial, política y entretenimiento.
El formato B2B (business to business) se instala en
las habituales relaciones entre empresas y medios,
marcando organizaciones de encuentros, ruedas de
prensa, mailing lists, intervenciones de crisis y
programas de seguimiento (Timoteo).

La implantación de tecnologías on-line y la explosión


de las redes sociales (Facebook, Twitter, Youtube), y
del uso masivo de servicios de telefonía móvil y
derivados (Skype, I-Phone) por Wi-FI cambian
fisonomía de una opinión desde la plaza pública al
interfaz, convirtiendo su esfera (Habermas) en
pseudoentorno de comunicación objetiva por causa
de la mediación de la agenda setting. Desde la caída
de Muro de Berlin (1989) hasta 2009, nueva sociedad
producto de la crisis de confianza ante la democracia
directa y simbólica, sustituida por los nuevos valores
del trabajo, la bondad del sistema, la credibilidad
instantánea, la responsabilidad personal y la familia,
caracterizada por: -Dominio de pantallas y TV basura
(spin) -Mercado que no es de masas -Democracias
mediáticas, postparlamentarias y de la emoción -
Poder diluido (Soft Power, Nye) como nuevo estadio
del postcapitalismo -Nueva clasificación social.

Balance: En los últimos años, movimientos


ciudadanos anticrisis y anticorrupción, visibilizados y
fortalecidos gracias a las redes sociales como Occupy
Wall Street, Taksim Square o YoSoy132, han
ocupado el espacio público con un nuevo discurso y
pautas de acción, algunos hasta el punto de
constituirse en alternativa política al bipartidismo
tradicional como el caso de Podemos.

También podría gustarte