Está en la página 1de 8

Universidad Autónoma de Nuevo León

Facultad de Contaduría Pública y


Administración
Sistemas Operativos

Maestra: Cristina Abrego Rdz


Nombre: Ángel Alejandro Jasso Escalante
Matricula: 1662029

29/01/18
EVOLUCION HISTORICA
La historia del cómputo es un tema de gran riqueza e interés que debe revisarse su propio
mérito. Debido al rápido avance de la tecnología y el costo que implica modificar una
aplicación que funciona, es común, como muchos otros fenómenos históricos, que técnicas
o productos de diversas etapas de desarrollo, incluso durante largos periodos
COMPUTADORAS DE PROPOSITO PARTICULAR
Las primeras computadoras electromecánicas se realizaron con ciertos propósitos
específicos. En el caso de Mark II, este propósito fue el cálculo de tablas de tiro para la
Marina al final de la Segunda Guerra Mundial. Como la aplicación era específica, las
capacidades del equipo, la forma en que operaban, e incluso los lenguajes, se diseñaron
con las capacidades necesarias sin emplear recursos o esfuerzos significativos adicionales.
Los investigadores que desarrollaron el equipo dieron continuidad al diseño de la
aplicación y soporte a la operación.
Para todos los dispositivos de cómputo anteriores, no existían recursos disponibles ni
necesidad significativa para generar los elementos de un sistema operativo.
Hoy en día, las computadoras de propósito particular, basadas en procesadores o
microcontroladores que en ocasiones no requieren modos protegidos de operación,
pueden seguir modelos similares de desarrollo de sistemas de información para ser
aplicados con recursos específicos acordes a sus necesidades, con mínimos
requerimientos de compatibilidad y muy poca o nula conectividad.
COMPUTADORAS COMERCIALES MONOPROCESO
Con el éxito de las primeras computadoras electromecánicas, el uso de dispositivos
electrónicos, como los tubos de vacío y después los transistores, y con los avances en
materia de lenguaje de programación como el ensamblador, los compiladores y las
subrutinas, resulto rentable el desarrollo de computadoras comerciales como la UNIVAC o
los sistemas 360 de IBM. Estas computadoras se comercializaban unto con los servicios
necesarios para el desarrollo de las aplicaciones y los programas, bibliotecas para control
de dispositivos de entrada y salida y también programas orientados a cargar los
programas de los datos, usualmente de medios como las cintas y tarjetas perforadas , y
después cintas magnéticas, para presentar los resultados también en cintas y tarjetas
perforadas, hasta llegar a teletipos y discos magnéticos.
Las grandes inversiones en infraestructura para adquirir estos equipos traslado parten de
la atención al desarrollo de equipos de entrada y salida progresivamente mejores con
énfasis en las capacidades para almacenar la información a procesar mediante diversos
tipos de memoria, como la de tambor, núcleos de ferrita, discos duros y, finalmente, la
memoria basada en semiconductores. También se han desarrollado dispositivos dedicados
a almacenar la información a largo plazo con capacidad para procesarla y extraer los
resultados. Estos dispositivos pueden reemplazarse con mayor frecuencia y aprovechar las
características favorables de nuevos modelos con mucho menor impacto económico y que
además implican menos modificaciones a los sistemas de la información.
Es de gran importancia comercial dar soporte a los nuevos dispositivos, por lo que el
software dirigido las aplicaciones orientadas a modelos anteriores es prioritario; por ello,
se distribuye con el equipo y se hace llegar a todos los propietarios de servidores del
mismo proveedor a fin de facilitar la comercialización de los dispositivos.
A diferencia de las primeras computadoras, el equipo que las diseña y construye no está
relacionado de manera directa con el desarrollo de las aplicaciones; además, el tipo de
aplicaciones que se desarrollaron son más variadas y cercanas a las necesidades
productivas de las empresas que las adquieren. Las aplicaciones de corte administrativo y
las diseñadas para realizar cálculos matemáticos sobresalen, y ninguno de estos
problemas es fácilmente representado por el ensamblador o por lenguajes de código
ejecutable particulares de las unidades de procesamientos. Estos lenguajes son
elaborados y ofertados por los fabricantes de las computadoras como una ventaja
competitiva al facilitar el desarrollo de las aplicaciones pues representan los primeros
intentos de estandarización o certificación de las capacidades de las implementaciones de
diversos fabricantes con miras a evitar que las aplicaciones desarrolladas en una
plataforma requieran demasiado esfuerzo para ser migradas a otras.
También surgen los programas orientados a procesar los conjuntos de programas que
alimentan a la computadora mediante dispositivos de almacenamiento. A esto se le
denomina procesamientos por lotes, donde los conjuntos de trabajos son recabados por
los operadores con anterioridad y, una vez que se ha terminado el procesamiento, se
produce a recopilar los resultados y entregarlos a los usuarios.
Al paso de los años, y conforme se mejoraran los diseños de las computadoras, los
dispositivos para implementar la memoria y la propia construcción de las unidades de
procesamientos, se han llegado a obtener computadoras con capacidades muy superiores
a las anteriores y, además, tienen menos requerimientos en cuanto a la infraestructura
necesaria para sus operaciones.
MULTIPROCESO
Conforme crecen las capacidades de las computadoras, las aplicaciones que en modelos
anteriores hubieran ocupado la totalidad de recursos como la memoria, pasan a ocupar
solo una fracción de ellos. Nuevas técnicas de construcción de computadoras a basa de
circuitos grabados sobre placas de baquelita y el uso de semiconductores con mayores
escalas de integración llevan a capacidades de procesamiento cada vez mejores,
cumpliendo incluso con la ley de Moore, la cual describe que dicha capacidad
prácticamente se podía duplicar por la mitad del costo cada 18 meses gracias a las
técnicas empleadas en la fabricación de nuevos procesadores, esta tendencia se mantuvo
entre 1965 y 2008. Para evitar que la CPU se ocupe en la espera de las operaciones de
entrada y salida, se implementan esquemas de interrupciones que permitan el procesador
continuar la atención de los procesos durante la operación de entrada y salida y que
pueda ser notificado cuando estas operaciones terminen para suspender durante un
mínimo de tiempo la atención de los procesos.
Sin embargo, para continuar con el procesamiento se requieren más tareas, además de
aquellas que solicitaron la operación, y a menudo deben suspender su labor en espera de
que la operación solicitada termine.
Gracias a la reducción del costo y a la disminución de potencia, requerimientos térmicos y
espacio que cada procesador tiene, también se comienza, a desarrollar equipos que
emplean múltiples procesadores en los que se conoce como multiprocesamiento.
Con la relativa abundancia de recursos disponibles en las computadoras, es posible
albergar múltiples programas en la memoria y alternar la atención del procesador para
atenderlas con frecuencia que no solo aproveche los tiempos de bloqueo sino incluso
genere la ilusión de que todos se atienden de forma simultánea.
La implementación de un ambiente de ejecución de programas que soporte el
multiproceso es considerado más complejo que los procesadores por lotes preexistentes,
por lo que varias implementaciones, como Multics, prácticamente fracasan. Las primeras
iniciativas que lograron implementar esquemas de multiprocesamientos efectivos
cooperativas basadas en desarrollos modestos y graduales, como el de sistema operativo
UNIX y el lenguaje de programación C empleados mutuamente en el desarrollo del otro.
Con la acumulación de programas de utilería, controladores, lenguajes y bibliotecas, junto
con el soporte a aplicaciones desarrolladas con anterioridad, se tiene una cantidad de
software a la que no se le puede dar mantenimiento y aplicaciones muy complicadas, a fin
que las pruebas a las que son sometidos no puedan ser desarrolladas de manera intuitiva.
El número de errores en las aplicaciones también tiende a incrementarse en lo que se
conoce como la crisis del software. El principal enfoque para solucionar esta tendencia es
la generación de nuevas técnicas de análisis, diseño y pruebas de sistemas, con
propuestas hechas por investigadores, como Edsger Dijkstra, de modificar el paradigma de
programación para que los programas puedan asegurar, mediante técnicas formales, su
estabilidad y cumplimiento de requerimiento.
Se separa el desarrollo de las aplicaciones (incluso aquellas que implementan los
mecanismos para emplear las funciones básicas del sistemas operativo del desarrollo del
núcleo, que debe proporcionar el ambiente de ejecución a las aplicaciones) y se comienza
el desarrollo de núcleos con funcionalidades mínimas (conocidos como micro kernel) para
facilitar la verificación y optimización de este elemento fundamental al margen del cada
vez mayor conjunto de software que debe acompañarlo en el paquete del sistema
operativo. El desarrollo de los controladores de dispositivos de entrada y salida tratan de
ser de forma separada.
Para soportar la portabilidad de las aplicaciones entre diversos sistemas operativos, se
proponen estándares de funciones que el sistema operativo exponga mediante interfaces
de programación para el desarrollo de aplicaciones, entre lo que se cuenta POSIX.
COMPUTO PERSONAL
Una segunda consecuencia de la disponibilidad de procesadores fabricados en masa y de
bajo costo es la posibilidad de construir computadoras basadas en estos procesadores a
un bajo costo y con capacidades rudimentarias, pero con una potencia considerable.
Estos equipos tenían sistemas operativos destinados a proporcionar un lenguaje de
programación, además de dispositivos y aplicaciones orientados a fines específicos. De
esta manera, Basic surgió en esta etapa como un lenguaje que fuera sencillo de aprender.
El incremento en el número de computadoras en uso hace énfasis en la necesidad de
intercambiar información entre ellas, lo que ayuda a popularizar redes de bajo costo y
medios de transferencia compartidos como Ethernet mediante cable coaxial y después
con cableado sin blindar (UTP5).
Las terminales en sistemas mainframe, al no ser producidas en masa, mantuvieron costos
relativamente elevados ante la creciente presión de las computadoras personales. Una vez
que las redes de área local se esparcieron en casi todas las instituciones, la simulación de
la terminal mediante programas que se ejecutan en una computadora personal resulta
más económicas y además da al usuario final una computadora personal para obtener
beneficios adicionales. Los sistemas de mainframe reemplazan el modelo de comunicación
distribuida.
Surgió una gran variedad de equipos y fabricantes de computadoras. Algunos de ellos
lograron ser los proveedores más importantes en sus regiones, pero la falta de
compatibilidad y la limitada capacidad de producción de una pequeña compañía
restringieron su interés y capacidad de atacar mercados globales. IBM, uno de los
principales fabricantes de computadoras y el principal fabricante de software del mundo,
incursiono en el mercado diseñando y construyendo un tiraje limitado de computadoras
orientadas a ser extensibles, usar productos como los procesadores Intel que se pudieran
fabricar en masa y estándares para los puertos y algunos elementos de la arquitectura.
Esta compañía publico las especificaciones como la había hecho antes con los puertos de
comunicación con lo que favoreció el desarrollo independiente de fabricantes que
pudieran implementarlas con menores márgenes de ganancia a fin de abatir su costo para
los consumidores. Tampoco comprar a Intel, el fabricante de los procesadores en que se
basó en la arquitectura, ni a Microsoft, la naciente compañía que contrato para desarrollar
el sistema operativo rudimentario.
El posterior desarrollo de la plataforma y el reciente interés en computadoras personales
hizo que las IBM PC compatibles dominaran después el mercado de las computadoras
personales además de ofrecer control de dispositivos de entrada y salida, soporte en la
red y seguridad.
La diversidad de fabricantes de plataformas IBM PC compatibles y dispositivos de entrada
y salida crece muy rápido gracias a la respuesta favorable del mercado. Esto ayuda a que
los fabricantes de componentes, incluyendo los procesadores, puedan costear la inversión
a fin de lograr incrementar la producción para satisfacer ese mercado y abatir sus costos.
La variedad de fabricantes y dispositivos cuyas características buscan representar una
alternativa para ganar la preferencia de los usuarios genera problemas para la
administración de dispositivos de entrada y salida en el cómputo personal.
Ante el aumento de los controles para limitar el uso de los servidores en las instituciones
comerciales o académicas y la popularización de computadoras personales, se comenzó a
tratar de implementar los mismos programas y sistemas operativos en todas las
plataformas. El proyecto GNU contaba con una colección de programas de utilería para
sistemas operativos UNIX distribuidos como software libre. Linus Torvalds inicio un
proyecto de kernel simplificado, monolítico y dependiente de la arquitectura 80x86 de
Intel de su propia computadora y logro un producto funcional en relativamente poco
tiempo, con lo que se inició el desarrollo de Linux, computadores personales que sigue
desarrollándose y ha llegado a presentar una alternativa viable para aplicaciones
comerciales y personales de la que los sistemas operativos comerciales han tomado
muchos elementos.
Sistemas operativos como Windows y Mac OS se han enfocado a incorporar elementos
que hagan más sencillo el uso para los usuarios con poca capacitación en materia
informática.
MASIFICACION DE LA INTERNET
La popularidad de las redes de área local para intercomunicar las computadoras
personales y los servidores ayudo a las instituciones y a los individuos a aprovechar de
mejor manera la capacidad de sus equipos y el desarrollo de los sistemas distribuidos.
Iniciativas como la de ARPANET, del ejercito de los Estados Unidos de América, ponen a
punto los equipos y programas necesarios para dirigir los paquetes de las redes Ethernet a
lo largo de múltiples nodos para llevarlos al destino adecuado en otra red, el correo
electrónico y la transferencia de documentos de hipertexto por el protocolo HTTP que da
origen a la Word Wide Web se basan en ese tipo de redes para satisfacer las necesidades
de la comunidad de las instituciones que ayudan a desarrollar la tecnología.
Los medios de comunicación han disminuido su costo progresivamente y han llegado
incluso a reemplazar la computadora personal (debido al costo que implican las
instalaciones que estas requieren y el costo mismo del equipo) por las plataformas
móviles o Smartphone como el principal dispositivo empleado para acceder a Internet,
aprovechando la facilidad de estos dispositivos de acompañar a los usuarios y operar
prácticamente en cualquier lugar, incluso sin conexión a Internet, lo que se conoce como
computo ubicuo.
COMPUTO UBICUO
Este tipo de sistemas y aplicaciones requieren que los sistemas operativos se adapten a un
conjunto de requerimientos con diferencias importantes. Ubicuo es un término derivado
del latín que significa en todas partes, y se aplica a los sistemas que cuentan con nodos en
operación fuera del acceso sostenido a las instalaciones o servicios, como el acceso a la
red, a la potencia eléctrica y a instalaciones convencionales.
Estas nacientes propuestas deben lidiar con las necesidades de un gran número de
dispositivos y modelos de mercados poco claros, sin importar el rumbo que tome su
desarrollo y su popularidad, pues están ayudando a desarrollar tecnologías necesarias
para proseguir la tendencia a incrementar el número de dispositivos de computo
empleados por usuarios que requieren mantenerse en comunicación de manera
económica, oportuna y segura.
INTERNET DE COSAS
Las ventajas que se pueden lograr con un gran número de dispositivos con capacidades de
cómputo moderadas que interactúan en redes de área personal, es decir, en torno a una
persona, a una casa, un auto, etc., constituyen uno de los frentes de expansión de las
tecnologías de computación actuales. Comenzamos a ver beneficios en este tipo de
dispositivos en el control de edificios, orientados a disminuir los costos de operación y el
impacto de medio ambiente; en los autos, para que cuenten con servicios de navegación y
entretenimiento superiores, en los individuos, quienes pueden monitorear ciertos factores
que contribuyan a su salud.
Este tipo de dispositivos parten de las tecnologías de cómputo ubicuo pero atienden a las
necesidades de costo beneficio y seguridad.
TENDENCIAS
La profesionalización del cómputo como disciplina es el primer aspecto a considerar en la
formación de nuevos ingenieros o profesionales de carreras asociadas. La importancia del
software ha crecido de manera constante en las últimas décadas, y la tendencia para las
sociedades con acceso a tecnología avanzada.
El predominio de los dispositivos móviles como medio de acceso a internet está
cambiando la forma en la que se entiende el mercado de las aplicaciones, exige nuevos y
mejores mecanismos de distribución y está ampliando el alcance de la tecnología, que
aunque aún se encuentra lejos de poder accesible para todos, al menos está dejando de
ser exclusiva para las grandes empresas y las universidades. Pero hay que considerar la
seguridad informática como una parte integral de proceso de elaboración del software, el
cual está impulsado por la masificación de la internet, la alta interactividad de los sistemas
y la creciente importancia de los sistemas de información en las tareas fundamentales de
la sociedad y en los servicios básicos.
CLASIFICACION DE LOS SITEMAS OPERATIVOS
SITEMAS MONOLITICOS Y MICRO KERNEL
Los sistemas operativos que por su simplicidad tienden a integrar una buena parte de la
funcionalidad del sistema en el kernel o núcleo se conocen como monolíticos y resultan
convenientes para sistemas especializados y de limitada magnitud por ser más sencillos en
su estructura.
Los sistemas micro kernel son aquellos que procuran incluir solo el mínimo de
funcionalidad en el núcleo y desacoplar el resto de esta incluso a costa de usar mecánicas
más complejas.
PROPIETARIOS Y SOFTWARE LIBRE
La segunda gran distinción se refiere no tanto a la funcionalidad o estructura sino al
modelo de propiedad intelectual, comercialización y distribución que los sistemas siguen.
Aunque hay algunos que usan esquemas particulares, existen dos grandes alternativas:
1. El software propietario o comercial busca mantener en secreto los detalles de la
implementación del sistema, con miras a ganar una ventaja competitiva respecto a
otros fabricantes de sistemas operativos y así poder seguir un modelo de
distribución comercial. Este modelo que siguen la mayoría de las computadoras
con sistemas, como las de Apple o Microsoft.
2. Por otra parte, el software libre retoma las prácticas colaborativas de los sistemas
tempranos de cómputo y busca desarrollar de manera cooperativa el sistema
operativo.
Hoy en día, los dos modelos de negocio están teniendo a converger ya que empresas
como Red Hat, MySQL, Sun y otras de manera tradicional aprovechan el software libre.

 Por lotes (Batch): es aprovechado para una administración de procesos de


rudimentaria. Se emplea hoy en día en aquellos sistemas de propósitos particular
que solo utilizan una aplicación, o un numero reducido de ellas, e incluso pueden
prescindir del modelo de procesos
 Tiempo compartido o interactivo: es destinado a los sistemas que habitualmente
empleamos a los usuarios finales, orientados a mantener una interacción fluida
con las interfaces de usuario o para la atención a los procesos que ejecutan.
 Sistema de tiempo real: estos sistemas son responsables de establecer y cumplir
compromisos en el tiempo de atención de la CPU para los procesos que ejecutan
 Distribuido: estos sistemas dan mayor soporte al desarrollo de arquitectura de
sistemas distribuidos haciendo énfasis en la atención a las operaciones de red, a la
automatización de la instalación y a la administración de los sistemas, así como el
soporte a la funcionalidad empleada por los sistemas distribuidos, tales como la
invocación remota de métodos o el paso de mensajes
 Embebido: en sistema que tienen propósitos específicos con dispositivos
fabricados a la medida, originalmente se usaban versiones reducidas de otros tipos
de sistemas operativos que eran adaptadas a las necesidades particulares del
dispositivo y su aplicación.

También podría gustarte