Está en la página 1de 42

TEMA 1

Principios y generalidades de la informática

1._ Historia de la informática. Antecedentes antes de la formación del término informática

A lo largo de la historia el ser humano siempre ha buscado la forma de facilitar los


cálculos. Desde la antigüedad a través del uso de ábaco los chinos y los japoneses eran
capaces de realizar las operaciones básicas de suma y resta, multiplicación y división. Luego
con la invención de las máquinas de contar posteriormente de la computadora.

Informática es una compleja disciplina que puede considerarse como una de las grandes
culminaciones de la Humanidad y cuyas posibilidades aún no se han agotado. Sus aplicaciones
en el campo de la genética han culminado en la codificación del genoma humano y, en su
fusión con la Biología, la Bioinformática posee un potencial extraordinario que facilita el
descubrir las funciones de las proteínas y que permite la extracción de información de grandes
bases de datos para correlacionar secuencias de ADN a una velocidad inusitada.

‘Informática’ es un neologismo acuñado por el francés Philippe Dreyfus en 1962 (INFORmación


+ autoMÁTICA) que hunde sus raíces en lo más profundo de las abstracciones creadas por la
mente del hombre, y su evolución corre paralela a descubrimientos propios de otras muchas
disciplinas, como el Álgebra, el Cálculo, la Lógica, la Biología, la Física y la Metafísica. Incluso la
Religión también ha tenido su influencia.

El origen de la informática se sitúa en la segunda mitad del siglo XX, aunque la primera
generación de computadoras se desarrolló entre 1951 y 1958, las cuales funcionaban con
válvulas, cilindros magnéticos e instrucciones internas. Eran ordenadores que funcionaban
muy lentamente, eran muy grandes y generaban mucho calor. Pero con el paso de los años la
evolución de la informática no ha dejado de mejorar gracias a las nuevas tecnologías, sobre
todo teniendo en cuenta el circuito integrado, el móvil e Internet.

2._ 1941-1948: PRIMERA GENERACIÓN DE COMPUTADORAS. Las válvulas de vacío

Las Válvulas

Las computadoras construidas con válvulas de vacío son la primera generación de lo


que en la actualidad se conoce como computadoras. Las primeras computadoras de válvulas
de vacío se distinguían por dos aspectos fundamentales:

1) Su gran tamaño.

2) El gran consumo de energía que disipaba un fuerte calor.

Ambos efecto serán debidos al gran tamaño de las válvulas con las que estaban
construidos y a que éstas necesitaban consumir una gran cantidad de energía para
alimentarse, generando una enorme cantidad de calor. Las válvulas de vacío surgieron a
principios del siglo XX, cuando en 1907 Lee De Forest inventó la primera válvula electrónica
(triodo) al intentar perfeccionar los receptores telegráficos existentes en la época. La
posibilidad de la válvula electrónica de asumir dos estados posibles fue la base fundamental
sobre la que se implantó el código binario (0,1) y las modernas computadoras digitales.
En1941 comenzó a realizarse el diseño y construcción de ENIAC bajo la dirección de J.
Eckert y J.W. Mauchly, quienes pertenecían a la Escuela de Ingeniería Eléctrica de Moore en
Pennsylvania; ENIAC fuela primera computadora de válvulas electrónicas construida, entró en
funcionamiento en 1945 y fue dada de baja en 1955. En ese momento aún permanecía
operativa.

Hasta hace poco tiempo ha existido una polémica entre Mauchly y J. Atanasoff debido
a que el primero visitó a este cuando Atanasoff estaba trabajando en un prototipo de
computadora en su laboratorio de la Universidad de Iowa. Atanasoff manifestó que Mauchly
se basó en su computadora para construir posteriormente la ENIAC. En el verano de 1995
parece que, finalmente, se ha confirmado este hecho y el mérito del diseño de la primera
computadora moderna corresponde a Atanasoff.

Nombres de algunas máquinas de la primera generación:

1941 el Z3, creada por Konrad Zuse, fue la primera máquina programable y completamente
automática, características usadas para definir a un computador.

El Z3, de tecnología electromecánica, estaba construido con 2300 relés, tenía una frecuencia
de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos eran realizados con
aritmética en coma flotante puramente binaria. La máquina fue completada en 1941 (el 12 de
mayo de ese mismo año fue presentada a una audiencia de científicos en Berlín).

1944 ENIAC. Considerada hasta hace unos años como la primera computadora digital
electrónica en la historia.[3] No fue un modelo de producción, sino una máquina experimental.
Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba
todo un sótano en la universidad. Construida con 18.000 tubos de vacío, consumía varios kW
de potencia eléctrica y pesaba 30 toneladas. Era capaz de efectuar cinco mil sumas por
segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores
John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados Unidos.

1945 el Z4 fue completado, rediseñado completamente tras perderse los planos y piezas de las
anteriores Z durante los bombardeos aliados de Berlín. Fue la primera máquina en ser vendida
comercialmente en 1950, diseñada por el ingeniero alemán Konrad Zuse y construida por su
compañía Zuse KG entre 1941 y 1945, fue entregada a ETH Zürich en Suiza en septiembre de
1950.

3._1948 -1961 Segundas generación de computadoras. Los transistores, Memoria de ferrita

El invento del transistor hizo posible una nueva generación de computadoras, más rápidas,
más pequeñas y con menores necesidades de ventilación.

Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos


en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían
pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse
datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented
Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este
representa uno de los mas grandes avances en cuanto a portabilidad de programas entre
diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar
en diversos equipos de computo después de un sencillo procesamiento de compilación, los
programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo.

A partir del invento de los Transistores, fue en 1958 que Jack Kilby y Robert Noycea, de la
Texas Instrument, inventaron los circuitos integrados, que eran un conjunto de transistores
interconectados con resistencias, dentro de un solo chip. Fue a partir de este hecho que las
computadoras empezaron a fabricarse de menor tamaño, más veloces y a menor costo ya que
la cantidad de transistores colocados en un solo chip fue aumentando en forma exponencial.

En 1959, COBOL es definido en la Conferencia de Sistemas de Lenguajes de Datos (Codasyl),


basado en el Flow-Matic de Grace Hooper, IBM introduce el modelo 1401. IBM despacha su
primera computadora transistorizada o de segunda generación.

En 1960, Benjamin Curley construye la primera minicomputadora, la PDP-1, en Digital


Equipment Corporation, Para ese mismo año Control Data Corporation entrega su primer
producto, una enorme computadora científica llamada la CDC 1604.

1961, La multiprogramación corre en la computadora IBM Stretch (de estiración). Varios


conceptos pioneros se aplican, incluyendo un nuevo tipo de tarjeta de circuitos y transistores,
con un carácter de 8 bits, llamado byte. La IBM Strech es 75 veces más rápida que los modelos
de tubos al vacío, pero resulta en un fracaso comercial. Permaneció operativa hasta 1971.

A pesar de que podía ejecutar 100 billones de operaciones por día, no cumple con las
predicciones de los ingenieros de la IBM, lo cual obliga a Thomas Watson Jr. A reducir el precio
a casi la mitad. Sin embargo, muchas de sus innovaciones formarían parte de la exitosa serie
IBM 360.

1962, IBM presenta su modelo 1311 usando los primeros discos remobibles y que por
muchísimos años se convertirían en un estándar de la industria de la computación. La
portabilidad de la información empezó a ser posible gracias a esta nueva tecnología, la cual fue
empleada por los otros líderes del hardware, tales como Digital Equipment, Control Data y la
NEC de Japón, entre otros grandes fabricantes de computadoras.

Cada paquete de discos (disk pack) podía guardar mas de 2 millones de caracteres de
información, (2 Megabytes de ahora), lo cual promovió la generación de lenguajes de
programación y sus respectivas aplicaciones, ya que los usuarios podían intercambiar los
paquetes de discos con facilidad. Por primera vez en la historia la IBM reporta ganancias
anuales de 1 billón de dólares.

Máquinas de la segunda generación:

IBM 1401:

El IBM 1401 fue todo un bombazo, no era la panacea en términos de velocidad, pero era un
ordenador compacto. La sustitución de los tubos de vacío por transistores dio lugar a una
máquina más pequeña y más duradera que, además, las empresas podían comprar o alquilar
(un negocio que IBM ya había probado con éxito con modelos anteriores, desde el IBM 650).
El IBM 1401 salió al mercado en 1959. Funcionaba con un sistema de tarjetas perforadas a
través de las cuales se introducían los datos. Era fácil de programar en comparación con otros
ordenadores de la época. La empresa había avanzado notablemente en términos de usabilidad
y había lanzado un software más accesible.

Honeywell 800:

Anunciado en 1958, Honeywell lanzó al mercado su H-800 en 1960. Incluía 6.000 transistores
en un sistema básico que se podía complementar con periféricos adicionales y bancos de
memoria extra, además de una opción multiprograma que, básicamente, permitía el
funcionamiento simultáneo de varios programas distintos, cada uno con sus propios registros.

IBM 1620:

“Un equipo científico económico”. Así anunciaba IBM su 1620 allá por octubre del 59. En esta
serie también se sustituyeron las válvulas por transistores y, como el 1401, empleaba un
sistema de tarjetas perforadas (inicialmente, fueron cintas perforadas, pero, poco después de
su lanzamiento, se pasó a las tarjetas). Su memoria de núcleo magnético que abarcaba más de
60.000 dígitos decimales.

PDP-1

Digital Equipment Corporation (DEC) fue una empresa estadounidense que se especializó en
computadoras de tamaño reducido. Fundada en 1957, en los 80 fue una de las compañías
líderes en fabricación y venta de ordenadores a nivel mundial. Y se estrenó en la segunda
generación de computadoras, con su PDP-1 (Programmed Data Processor 1), un diseño de Ben
Gurley que se empezó a producir en 1960.

4._ 1962-1971. Tercera generación de computadoras. Los circuitos integrados. Memorias de


semiconductores

Las computadoras de tercera generación sustituyeron totalmente a los de segunda


generación de esta, introduciendo una nueva forma de programar que aún se mantiene en las
grandes computadoras actuales.

Presentando ventajas como:

1)Menor consumo de energía eléctrica

2) Apreciable reducción del espacio que ocupaba el aparato

3) Aumento de fiabilidad y flexibilidad

4) Teleproceso

5) Multiprogramación

6) Renovación de periféricos

7) Se calculó π (número Pi) con 500 mil decimales.

8) Se empezaron a utilizar los circuitos integrados.


La empresa IBM marcó el comienzo de esta generación el 7 de abril de 1964, con el
lanzamiento del IBM 360, con la tecnología SLT integrada. Causó tal impacto que se fabricaron
más de 30.000 unidades.

También en 1964 la empresa Control Data Corporation, presentó el CDC 6600, que se
consideró el computador más poderoso de la época, ya que podía ejecutar unos 3.000.000 de
instrucciones por segundo.

Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las


más populares fueron la PDP-8 y la PDP-11.

El PDP-8 (Programmed Data Processor – 8) es un miniordenador de 12 bits creada por Digital


Equipment Corporation (DEC) en abril de 1965, de la serie PDP. Fue la primera
minicomputadora comercialmente exitosa, con más de 50.000 unidades vendidas durante la
vida útil del modelo. Su diseño básico seguía la estela del pionero LINC pero tiene un conjunto
de instrucciones más pequeño.

PDP-11 fue una computadora fabricada por la empresa Digital Equipment Corp. En las décadas
de 1970 y 1980, perteneciente a la serie PDP. Fue la primera minicomputadora en
interconectar todos los elementos del sistema — procesador, memoria y periférico — a un
único bus de comunicación, bidireccional, asíncrono. Este dispositivo, llamado UNIBUS
permitía a los dispositivos enviar, recibir o intercambiar datos sin necesidad de dar un paso
intermedio por la memoria.

5._1971-1980 en adelante. Cuarta generación de computadoras. Los semiconductores, los


microprocesadores

El circuito integrado o chip fue un invento de Robert Noyce y Jack S. Kilby, dos científicos que,
en paralelo, consiguieron integrar todos los componentes de los circuitos integrados en una
única pieza. Ahí nació la microelectrónica, que, llevada a las computadoras, dio paso a la
tercera generación, a mediados de los años 60.

Ese chip inicial continuó su desarrollo. La carrera tecnológica se alargó durante la segunda
mitad de los 60, también en el campo de la microelectrónica, donde se consiguió integrar más
circuitos dentro de un mismo chip. En definitiva, se crearon circuitos integrados que podían
hacer más tareas. Entre otras cosas, pudieron reemplazar a la antigua memoria de anillos
magnéticos de las computadoras que había hasta entonces.

Es en esta fase cuando empezamos a hablar de LSI y VLSI (Large Scale Integration Circuit y Very
Large Scale Integration Circuit, respectivamente), es decir, de las tecnologías que hacen posible
que un solo chip almacene múltiples componentes.

También en un solo circuito integrado, Intel Corporation consiguió crear un dispositivo


programable con todas las funciones de una unidad central de procesamiento. Así nació el
microprocesador. Como consecuencia, se redujeron los gigantescos CPU de antaño a una
pequeña pieza.

Kenbak-1 Con las compañías sumidas en la carrera tecnológica, es difícil establecer cuál fue el
primer ordenador personal de la historia. El Computer History Museum asegura que el título lo
ostenta el Kenbak.1, de John V. Blankenbaker. Fue el primero pero no el más conocido, porque
tenía limitaciones importantes. El Apple Computer y el PC de IBM vinieron después.

El Kenbak-1 se creó en 1970 y se comenzó a vender a principios del año siguiente. Aunque era
un ordenador personal, se puede decir que estaba en el límite entre la tercera y la cuarta
generación, ya que no incluía microprocesador.

Apple I y II A mediados de los años 70, Steve Wozniak ‘Woz’ diseñó un ordenador que era,
literalmente, para uso personal. Y entonces un amigo suyo llamado Steve Jobs propuso que lo
comercializara. Y así se vendió el primer producto del que hoy es el gigante Apple, en el verano
de 1976.

En primavera de 1977, los amigos habían vendido en torno a 200 unidades del Apple I,
fabricadas a mano y a un precio de 666,66 dólares, el número no es casual, al menos no del
todo. A Woz le gustaban los números repetidos y además, vendieron el primero a 500 dólares,
así que decidieron aumentar un tercio su valor pensando en el margen de beneficios.

Gracias a los beneficios que obtuvieron con aquel modelo, Woz y Jobs pudieron trabajar en
una nueva versión, mucho más profesional, ambiciosa y completa.

En junio de 1977, la empresa sacó al mercado el Apple II, el ordenador con el que dieron el
verdadero golpe en la mesa de la industria tecnológica de la época. Su precio era de 1.298
dólares, tenía 4 KB de memoria RAM y con él se iniciaron en la venta masiva de computadoras.
Se vendió como “una computadora extraordinaria para gente ordinaria.

El Personal Electronic Transactor (PET) fue el primer ordenador personal de Commodore. Salió
al mercado en enero de 1977, solo unos meses antes que el TRS-80, en dos versiones, con
RAM de 4K y de 8K. Más tarde, saldría también la opción con 16K. Por un tema de
competencia, esta serie llegó a Europa con el nombre de Commodore Business Machines
(CBM).

La empresa fue adaptando sus productos al mercado, reduciendo costes para incrementar su
accesibilidad. En junio del 80 lanzó su VIC-20, un ordenador de uso doméstico de menos de
300 dólares, lo nunca visto hasta el momento. Su capacidad no era comparable a la de otras
máquinas coetáneas, pero había el papel en los hogares.

Ya al límite con la quinta generación, en agosto del 81, IBM convocó a la prensa en el Waldorf
Astoria de Nueva York con motivo del lanzamiento de su primer Personal Computer (PC), el
5150. Costaba algo más de 1.500 dólares (1.565, para ser exactos) y tenía una memoria de 16
KB que se podía ampliar hasta los 256 KB por medio de tarjetas.

La nueva máquina de IBM, la 5150, podía hacer cosas como conectarse a la televisión de casa,
soportar videojuegos o procesar texto. Entre otras cosas, incluía monitor con gráficos en color
y una impresora que imprimía 80 caracteres por segundo. Se hizo tan popular que la gente
empezó a llamar PC a los ordenadores domésticos a raíz de esta nueva línea de IBM. Algo así
como cuando pides un Kleenex en lugar de un pañuelo.

6._ 1981. Quinta generación. L a inteligencia artificial

La quinta generación de computadoras, también conocida por sus siglas en inglés,


FGCS (de Fifth Generation Computer Systems), fue un proyecto hecho por Japón que comenzó
en 1981. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían
técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del
software, usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de
resolver problemas complejos, como la traducción automática de una lengua natural a otra
(del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones
de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz
de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se
emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).

El computador más destacado de la quinta generación de computadoras fue el PC o el


computador portátil, a raíz del planteamiento de no sólo producir maquinaria a nivel industrial
sino también, una herramienta para el uso diario. Fue generado y producido por parte de la
International Business Machines Corporation (IBM), presentando una primera propuesta con la
cual se revoluciona todo lo que se conocía hasta los momentos en el sector de tecnología En
búsqueda de la simplificación de los formatos se avanza hasta los micropresadores Intel
Pentium, que lograban aportar una velocidad de 60 y 66 MHz. Además, éstos podían ser
capaces de realizar dos instrucciones, lo que incrementó a 64 bits y el aumento en la
frecuencia a casi el doble de lo que se había conseguido hasta los momentos, Microsoft
Windows (MS) en el año 1985, el cual compite a su vez con el lanzamiento de Apple, aunque
estos primeros sistemas carecían de efectividad a la hora de su funcionamiento y no eran más
que una propuesta, permitieron dar paso a que posteriormente, en el año 1987, Windows
lanzara el Windows versión 2.0 y 2.03 con mejoras en el sistema, tanto en la interfaz de
usuario como en las funciones multitareas.

PIM (Parallel Inference Machine). En 1987, se contó con el uso de estos microprocesadores y
una memoria la cual se expandió a través de los años en los que se trabajó en el proyecto,
desde el PIM/p: 512microprocesadores RISC con 256 MB de memoria hasta el PIM/k: 16
microprocesadores RISC con 1 GB de memoria.

7._1990 en adelante, sexta generación. Lo actual

Tiene su comienzo en las computadoras de 1990 y se extienden hasta el presente en


un proceso de rápida evolución. Los dispositivos generados tienen múltiples aplicaciones en
cualquier área en la que se empleen. Estos utilizan elementos semiconductores que
aprovechan eficazmente la energía y evitan el sobrecalentamiento.

Interacción constante con los servicios de internet, conexión inalámbrica con dispositivos y 5G:
el internet de las cosas y el aumento en el tráfico de red y operaciones realizadas en la web
hace necesario un dispositivo capacitado para el análisis y aprovechamiento de esta red.

Implementación de arquitecturas paralelas: son sistemas orientados aumentar la velocidad de


procesamiento por medio de la ejecución de múltiples tareas diferentes unidades de
procesamiento que a su vez complementan la información y generan una respuesta más
rápida por parte del sistema operativo.

Expansión en la capacidad de almacenamiento: el implemento de programas de interacción


directa, así como el continuo desarrollo de las imágenes y elementos multimedia de Ultra HD,
y por ende mayor peso, requiere de un sistema de almacenamiento y procesamiento capaz de
gestionar las múltiples funciones que el dispositivo debe ejecutar.
Reducción del tamaño de los componentes y aumento del rendimiento: una tendencia
constante en los sistemas de cómputo. Implica simplicidad, aumento de la velocidad y
disminución del costo.

Implemento de inteligencia artificial: A pesar de estar en una etapa temprana, se espera crear
ordenadores inteligentes basados en redes neuronales artificiales (o cerebro artificial).

Multifuncionalidad: Además del desarrollo de dispositivos para uso personal, la sexta


generación de computadoras también sería utilizado por las grandes industrias para apoyar sus
actividades tales como el diseño de aeronaves, previsión del tiempo, y la gestión
administrativa.

La sexta generación de computadoras, tiene como aspecto principal, que los ordenadores
serán capaces de interactuar física y psicológicamente con las personas, además de
implementar actividades cognitivas como ver, oír, hablar, pensar y ser capaces de llegar a
conclusiones para resolver problemas, como los humanos.

La incorporación del WiFi como método de conexión inalámbrica para que nuestros
ordenadores (y después otros aparatos) se pudiesen conectar a la red sin hacer uso de cables.
La tecnología se comienza a idear en el año 1999 y ve la luz en el 2000.

También se desarrollan otras formas de conectividad inalámbrica como son el WiMax y el


bluetooth, que permiten el envío y la recepción de datos por microondas y radiofrecuencia
respectivamente.

Así, aparecen también en el 2000, las tabletas para satisfacer las necesidades de los usuarios
que venían utilizando las PDAs en años anteriores y que buscaban aparatos más cómodos y
versátiles.

Tableta

Una tableta es un dispositivo móvil que incluye software y hardware suficiente para trabajar
como un computador pero cuyo tamaño es reducido y su forma consiste en un rectángulo de
mínimo grosor y entre 7 y 12 pulgadas de diagonal. Se trata de una pantalla táctil (funciona
con estilete o con los propios dedos) que nos permite interactuar con los elementos instalados
(juegos, suites de ofimática, navegadores, etc).

En 1972 A. Kay desarrollaba el concepto de las Dynabook, aunque no conseguía llevarlo a cabo
por la imposibilidad de desarrollar tecnologías adecuadas. En 1987 Apple presenta un vídeo de
un aparato similar, pero totalmente futurista.

Es el año 2001 el que nos deja ver la primera tableta como tal, venida de la mano de Microsoft.
En los meses siguientes, Nokia hacía lo propio. Nuevamente Microsoft lanza Mira, que pasa a
llamarse Tablet PC poco tiempo después y que era un conjunto de aparatos-pantalla sin
teclado.

Generalmente se señalan seis generaciones que abarcan grandes periodos de la segunda mitad
del siglo XX, no obstante, diversas fuentes señalan lapsos más específicos, llegando a
mencionar, incluso, una séptima generación. Sin embargo, para efectos de estandarización
hablaremos hasta la sexta generación de computadoras.
Tema 2

Arquitectura de las computadoras.

La arquitectura de computadoras es el diseño conceptual y la estructura operacional


fundamental de un sistema que conforma una computadora. Es decir, es un modelo y una
descripción funcional de los requerimientos y las implementaciones de diseño para varias
partes de una computadora, con especial interés en la forma en que la unidad central de
proceso (CPU) trabaja internamente y accede a las direcciones de memoria. Pueda realizar las
operaciones para las que se va a utilizar. La arquitectura básica de cualquier ordenador
completo está formado por solo 5 componentes básicos: procesador, memoria RAM, disco
duro, dispositivos de entrada/salida y software.

1._ Unidad central del sistema.

La unidad central de procesamiento o unidad de procesamiento central conocida por


las siglas CPU, es el hardware dentro de una computadora u otros dispositivos programables,
que interpreta las instrucciones de un programa informático mediante la realización de las
operaciones básicas, aritméticas, lógicas y de entrada/salida del sistema. El término, y su
acrónimo, han estado en uso en la industria de la Informática por lo menos desde el principio
de los años 1960. La forma, el diseño de CPU y la implementación de las CPU ha cambiado
drástica mente desde los primeros ejemplos, pero su operación fundamental sigue siendo la
misma.

Al abrir la unidad central del sistema se puede aprecia una serie de componentes:

-Placa principal.

- Microprocesador central o unidad central de proceso (CPU).

-Bus.

-Memoria principal.

-Otros componentes controladores.

- Fuente de alimentación eléctrica.

Unidad del control (UC)

La unidad de control es la parte de la CPU que realmente hace que las cosas ocurran.
Emite señales de control (ordenes) externas a la CPU para producir el intercambio de datos
con la memoria y los módulos de E/S. También emite señales de control internas para
transferir datos entre registros, hacer que la ALU ejecute una función concreta y regular otras
operaciones internas. Es la unidad que extrae y analiza las instrucciones de la memoria central.
Para ello necesita dos registros:
1. Contador de Programas (CP): Es un registro del procesador que indica la posición
donde está el procesador en su secuencia de instrucciones.

2. Registro de Instrucción (RI): Es registro de la unidad de control de la CPU en donde se


almacena la instrucción que se está ejecutando.

Unidad aritmética – lógica (ALU9

Es la parte de un procesador de computadora (CPU) que realiza operaciones


aritméticas y lógicas en los operandos en palabras de instrucción de computadora. En algunos
procesadores, la ALU se divide en dos unidades, una unidad aritmética (AU) y una unidad
lógica (LU). Algunos procesadores contienen más de una AU, por ejemplo, una para punto fijo
operaciones y otra para punto flotante operaciones. (En las computadoras personales, las
operaciones de coma flotante a veces se realizan mediante una unidad de coma flotante en un
chip separado llamado coprocesador numérico).

Normalmente, la ALU tiene acceso directo de entrada y salida al controlador del procesador, la
memoria principal (memoria de acceso aleatorio o RAM en una computadora personal) y
dispositivos de entrada salida. Las entradas y salidas fluyen a lo largo de una ruta electrónica
que se llama bus.

Registro.

Un registro es una memoria que está ubicada en el procesador y se encuentra en el


nivel más alto en la jerarquía de memoria, por lo tanto tiene una alta velocidad pero con poca
capacidad para almacenar datos que va desde los 4 bits hasta los 64 bits dependiendo del
procesador que se utilice. Los datos que almacena son los que se usan frecuentemente.

2._ Memoria principal

La memoria principal en una computadora se denomina memoria de acceso aleatorio.


También es conocida como RAM. Esta es la parte de la computadora que almacena software
del sistema operativo, aplicaciones de software y otra información para la unidad de
procesamiento central (CPU) y así tener acceso rápido y directo cuando sea necesario para
realizar las tareas. Se llama "acceso aleatorio" porque la CPU puede acceder directamente a
una sección de la memoria principal, y no debe emprender el proceso en un orden secuencial.

Tener suficiente memoria principal en un equipo se inicia con el cumplimiento de la cantidad


recomendada de memoria para el sistema operativo. Windows Vista Basic requiere un mínimo
de 512 MB de RAM, mientras que muchos expertos en informática sugieren al menos 1 GB. El
requisito mínimo para Windows Home Premium, Business y Ultimate es de 1GB. MAC OS 10.5
tiene un requisito mínimo de 1 GB de memoria principal.

Memoria de acceso aleatorio (RAM)

La memoria RAM, también denominada "memoria de acceso aleatorio", se utiliza


como memoria de trabajo para los programas, el sistema operativo y el software.
Se denomina "de acceso aleatorio" porque se puede leer y escribir sin necesidad de seguir un
orden para acceder a la información lo más rápidamente posible.

Tipos de RAM: DRAM, FPM, EDO, SDRAM, PC100, VRAM, ECC, BEDO, PC133, DIMMS, SIMMS,
SGRAM, WRAN.

Existen dos clases de errores en los sistemas de memoria:

Fallas "Hard fails": son daños en el hardware, por tanto, son fáciles de detectar.

Errores "Soft errors": provocados fortuitamente, debido a esto, son más difíciles de encontrar.

Memoria de caché

Es uno de los recursos con los que cuenta una CPU (Unidad Central de Procesamiento)
para almacenar temporalmente datos recientemente procesados en una memoria auxiliar. Se
trata de lo que se conoce como una memoria estática de acceso aleatorio (SRAM) muy rápida y
colocada cerca de la CPU. Así, pese a su pequeño tamaño, la memoria caché opera con mayor
velocidad, dotando al microprocesador de un tiempo extra para acceder a los datos que se
usan con más frecuencia.

La principal función de la memoria caché es almacenar datos o instrucciones que la CPU va a


necesitar en un futuro inmediato, de manera que se gana velocidad en la ejecución de
procesos, evitando que la CPU tenga que esperar y aumentando así el rendimiento del equipo.

Se pueden hacer diferentes clasificaciones de tipos de memoria caché.

•Caché de disco: Se trata de utilizar una porción de memoria RAM asociada a un disco
particular.

•Caché de pista: Es un tipo de memoria caché sólida (similar a la RAM), que se emplea en
supercomputadores.

•Caché de web: Es la memoria caché que se ocupa de guardar los datos de las páginas web
que hemos visitado de manera reciente.

Buses

Por cada una de las cuales se transporta un bit de información. El número de líneas
que forman los buses (ancho del bus) es fundamental: Si un bus está compuesto por 16 líneas,
podrá enviar 16 bits al mismo tiempo.Los buses interconexionan toda la circuitería interna. Es
decir, los distintos subsistemas del ordenador intercambian datos gracias a ellos. Son casi
todos esos caminos que se ven en la tarjeta madre.

Por cada línea se pueden trasmitir señales que representan unos y ceros, en secuencia, de a
una señal por unidad de tiempo. Si se desea por ejemplo transmitir 1 byte, se deberán mandar
8 señales, una detrás de otra, en consecuencia se tardaría 8 unidades de tiempo. Para poder
transmitir 1 byte en 1 sola unidad de tiempo tendríamos que usar 8 líneas al mismo tiempo.
Existen varios tipos de buses que realizan la tarea de interconexión entre las distintas partes
del computador, al bus que comunica al procesador, memoria y E/S se lo denomina bus del
sistema.

Bus de direcciones

Se utiliza para direccionar la memoria principal del sistema. En muchos controladores


integrados y algunas computadoras más antiguas, el bus de dirección del procesador está
conectado directamente a los chips de memoria. La mayoría de las placas base de escritorio y
servidor incluyen el bus de direcciones en el bus de memoria entre el chip controlador de
memoria y la memoria del sistema. El bus de direcciones es utilizado por un procesador para
indicar la ubicación de la memoria desde la que está a punto de leer o escribir datos. Algunos
procesadores también pueden usarlo para indicar un puerto de entrada / salida que está a
punto de leerse o escribirse.

Algunas computadoras tienen conexiones directas desde el bus de direcciones del procesador
y otros dispositivos del sistema a la memoria principal.

Bus de datos

Es una autopista o canal de transmisión de información dentro de la computadora que


comunica a los componentes de dicho sistema con el microprocesador. El bus funciona
ordenando la información que es transmitida desde distintas unidades y periféricos a la unidad
central, haciendo las veces de semáforo o regulador de prioridades y operaciones a
ejecutar.un bus de datos es un conjunto de cables o conductores eléctricos en pistas metálicas
sobre la tarjeta madre o "mother" del ordenador. Sobre este conjunto de conductores circulan
las señales que conduce los datos.

Existen distintos tipos de buses. El bus de direcciones, por ejemplo, vincula el bloque de
control de la CPU para colocar datos durante procesos de cómputo. El bus de control, por otro
lado, transporta datos respecto de las operaciones que se encuentra realizando el CPU. El bus
de datos propiamente dicho, transporta información entre dispositivos de hardware como
teclado, mouse, impresora, monitor y también de almacenamiento como el disco duro o
memorias móviles.

Bus de control

Es un bus de computadora que es utilizado por la CPU para comunicarse con


dispositivos contenidos dentro de la computadora. Esto ocurre a través de conexiones físicas
como cables o circuitos impresos.

La CPU transmite una variedad de señales de control a componentes y dispositivos para


transmitir señales de control a la CPU utilizando el bus de control. Uno de los objetivos
principales de un autobús es minimizar las líneas que se necesitan para la comunicación. Un
bus individual permite la comunicación entre dispositivos utilizando un canal de datos. El bus
de control es bidireccional y ayuda a la CPU a sincronizar las señales de control con dispositivos
internos y componentes externos. Se compone de líneas de interrupción, líneas de habilitación
de bytes, señales de lectura / escritura y líneas de estado.
4._Reloj

Se obtiene multiplicando la frecuencia del reloj del bus del punto norte del chips (FSB)
por un multiplicador interno dado por el modelo del microprocesador esta frecuencia ayuda a
determinar el número de instrucciones que puede ejecutar el microprocesador en un segundo
entre mayor es la frecuencia mayor es el número de instrucciones por segundo que puede
ejecutar. Identifique dos funciones principales del reloj del sistema  Para sincronizar las
diversas operaciones que realiza los diferentes subcomponentes del sistema informático Para
saber la hora.

Un ciclo de CPU es un pulso electromagnético que genera el oscilador de cuarzo presente en


todo procesador o microprocesador del computador  La velocidad del funcionamiento del
microprocesador viene determinada por el ritmo de los impulsos de su reloj.

5._ Tarjetas de expansión interna.

Es una tarjeta, normalmente conectada a un puerto PCI, que nos permite dotar a
nuestro PC de algún elemento de que carece.

La tarjeta de expansión es un tipo de dispositivo con diversos circuitos integrados (chips) y


controladores, que insertada en su correspondiente ranura de expansión sirve para expandir
las capacidades de la computadora a la que se inserta.

Las tarjetas de expansión más comunes sirven para añadir memoria, controladoras de
unidad de disco, controladoras de vídeo, puertos serie o paralelo y dispositivo de módem
interno.

La tarjeta de expansión permite dotar a la computadora de algún elemento adicional.

Las tarjetas suelen ser de tipo Peripheral Component Interconnect (PCI), PCI-Express o
Accelerated Graphics Port (AGP). No se fabrican las placas de tipo Industry Standard
Architecture (ISA), ni Video Electronics Standards Association VESA.

Gracias los avances en la tecnología Universal Serial Bus (USB) y a la integración de audio,
video o red en la placa base, las placas de expansión ahora son menos imprescindibles para
tener una computadora completamente funcional.

son componentes que tienen como función principal expandir las funciones o servicios de una
computadora. En la Actualidad se clasifican por el tipo de sócalo o slot en donde se insertan,
esto quiere decir, que existen tarjetas de expansión tipo ISA, PCI PCI Express, CNR y AGP.

Tarjetas controladoras de periférico.

Todos los dispositivos periféricos, tanto internos como externos necesitan valerse de
algún medio para comunicarse entre ellos y las computadoras. Algunas veces les llaman
controladores, interfaces, puertos o adaptadores.
Básicamente un controlador es un traductor entre la CPU y el dispositivo periférico como
discos duros, disquete, teclado o monitor. Los controladores ejecutan las siguientes funciones.

Aíslan el equipo de los programas.

Adecuan las velocidades entre los dispositivos que operan a diferentes velocidades.

Convierten datos de un formato a otro.

Tarjetas de expansión controladoras del modo de vídeo.

Este tipo de tarjetas de expansión son también llamadas Tarjetas Gráficas. Las tarjetas
gráficas van a proporcionar diferentes clases de calidad en la información que el sistema
informático va a poder mostrar en su pantalla.

La información que la computadora va a representar en su pantalla se encuentra en una zona


de la memoria RAM que alimenta periódicamente al cañón de electrones, a través de la tarjeta
controladora del modo gráfico, de los datos necesarios para representar la información
almacenada en la pantalla del sistema informático.

Cuando la tarjeta de vídeo envía la información almacenada en la memoria hacia la pantalla de


la computadora, estos datos pasan por un convertidor digital/analógico para convertirse en
una señal eléctrica compatible con la necesaria para que el componente de generación de
imágenes de la pantalla del sistema informático (cañón de rayos, LCD, etc.) forme la imagen en
la pantalla de la computadora.

Tarjetas controladoras de entrada y salida de datos.

La tarjeta de expansión, es una placa de circuito impreso que se puede insertar en un


conector eléctrico o ranura de expansión en una placa base de computadora, placa posterior o
riser card para agregar funcionalidad a un sistema informático a través del bus de expansión.

Un sistema de adquisición de datos multicanal de alta velocidad no sería de utilidad para una
computadora personal utilizada para la contabilidad, pero podría ser una parte clave de un
sistema utilizado para el control de procesos industriales. Las tarjetas de expansión a menudo
se pueden instalar o quitar en el campo, lo que permite un grado de personalización del
usuario para fines particulares. Algunas tarjetas de expansión adoptan la forma de "placas
secundarias" que se conectan a conectores en una placa del sistema de soporte.

Tarjeta controladora de comunicaciones.

Una comprensión completa del plazo requiere un poco de conocimiento de hardware


del equipo. Los equipos utilizan diferentes tipos de hardware para los diferentes puestos de
trabajo. buses del sistema son componentes que enlazan las diferentes partes de su equipo en
conjunto. Por ejemplo, la tarjeta de sonido se comunica con el procesador por medio de un
bus I / O (entrada / salida).

Los conductores permiten que el sistema operativo de su computadora para interactuar con
diferentes dispositivos. Donde los autobuses del sistema proporcionan una conexión de
hardware entre los componentes, los conductores actúan como intermediarios en el nivel de
software. Por ejemplo, si se conecta una cámara USB en su ordenador, el sistema operativo
controla la cámara a través de un controlador que "sabe" cómo operar esa cámara en
particular.

Tema 3

Tipos de computadoras

Sistemas informáticos analógicos:

Es cualquier sistema cuyas señales se representan con valores continuos, es decir, que
admite números o valores infinitos.

La principal diferencia entre sistema digital y sistema analógico radica en que el primero es
mucho más preciso y la información se puede almacenar de manera más eficiente y en mayor
cantidad que en un sistema analógico.

*Ventajas

Instantaneidad.

Economía.

Fidelidad.

*Desventajas

Menor tolerancia al ruido.

Degradación de la señal.

Dificultades técnicas.

Sistema informático digital

Sistema digital es cualquier sistema que pueda generar, procesar, transmitir o


almacenar señales mediante dígitos y que solo admite valores discretos, es decir, que solo
admite un conjunto limitado de números o valores.

*Ventajas

Menor tamaño.

Eficiencia.

Precisión.

Diseño.
Estabilidad

Desventajas

Conversión.

Ancho de banda.

Alteración

Súpercomputadoras

Son equipos muy utilizados dentro del campo de la ciencia, sobre todo para realizar
simulaciones e investigaciones científicas que requieren grandes volúmenes de cálculo.
Aunque en la actualidad este término esté quedando rezagado por el de ordenadores de alto
desempeño o computadoras de alto desempeño, siempre es bueno conocer los conceptos
básicos del campo de la computación.

Las supercomputadoras son utilizadas ampliamente en el campo de la investigación científica,


ya que se requiere manipular una enorme cantidad de datos en muy poco tiempo, por lo que
el poder de procesamiento de datos incluso llega a quedarse corto en varios campos. Entre las
principales áreas de investigación en las cuales se utilizan supercomputadoras, tenemos:

La predicción del clima, ya que se utiliza información que llega en tiempo real de diferentes
centrales de información y detección de clima alrededor del mundo, en búsqueda de patrones
que ayuden a predecir los cambios climáticos y evitar tragedias.

El estudio del universo, ya que al ser tan extenso y utilizar tantas variables a la vez se hace
imposible para equipos convencionales.

Simular efectos destructivos y peligrosos, como pruebas nucleares o situaciones de alto riesgo
que requieren alta potencia de trabajo.

mainframes

Los mainframes son servidores de datos diseñados para procesar hasta 1 billón de
transacciones web al día con los más altos niveles de seguridad y confiabilidad, en su esencia,
mainframes son computadoras de alto rendimiento con grandes cantidades de memoria y
procesadores que procesan miles de millones de cálculos y transacciones simples en tiempo
real. El mainframe es fundamental para las bases de datos comerciales, los servidores de
transacciones y las aplicaciones que requieren resiliencia, seguridad y agilidad.

Cómo funcionan los mainframes

Los mainframes de IBM® están diseñados exclusivamente para:

Ejecutar sistemas operativos comunes como Linux®, así como sistemas operativos
especializados como z/OS®, junto con software que aprovecha las funcionalidades únicas del
hardware.

Admitir transacciones y rendimiento (E/S) simultáneos masivos con capacidad integrada bajo
demanda y memoria compartida integrada para la comunicación directa de aplicaciones.
Entregue los niveles más altos de seguridad con tarjetas criptográficas integradas y software
innovador. Los últimos sistemas IBM Z® pueden ejecutar hasta 1 billón de transacciones web
seguras por día y gestionar la privacidad por política.

Ofrecer resiliencia mediante múltiples capas de redundancia para cada componente (fuentes
de alimentación, enfriamiento, baterías de respaldo, CPU, componentes de E/S, módulos de
criptografía) y pruebas para condiciones climáticas extremas

¿Qué aspecto tiene un mainframe?

Los mainframes actuales son mucho más pequeños que las primeras máquinas "Big Iron". Con
un bastidor estándar de 19", el mainframe más reciente coexiste a la perfección con otras
plataformas en el centro de datos. Un sistema de un servidor de IBM z15™ requiere un 75 por
ciento menos de espacio físico que los servidores x86 2U, que ejecutan las mismas cargas de
trabajo y rendimiento, y reduce el consumo de energía en un 40 por ciento.

Qué hace un mainframer?

Torrie McLaughlin

Torrie explica su ruta de veterana y bibliotecaria a programadora COBOL.

Alex Stuart

Alex describe cómo está "explorando el mainframe".

Meghan McGrath

Meghan comparte cómo ayudó a llevar el 100 % de cifrado al mainframe.

Explore las habilidades Z

Microcomputadoras

Las microcomputadoras, también denominadas microcomputadores o


microordenadores, son computadoras que poseen un microprocesador como unidad central
de proceso, y que están configuradas para cumplir con funciones específicas. Del
microprocesador dependen aspectos como: la complejidad del sistema, la potencia, el sistema
operativo, la normalización, la versatilidad y el precio del equipo, entre otros.

Básicamente, las microcomputadoras constituyen un sistema completo para uso personal, que
contiene además del microprocesador, una memoria y una serie de componentes de entrada y
salida de información.Finalmente, es importante aclarar que aunque las microcomputadoras
suelen confundirse con las computadoras personales, no son lo mismo. Podría más bien
decirse que las segundas forman parte de la clasificación general de las primeras.

Si quieres conocer más detalles al respecto, te invito a leer el artículo sobre los tipos de
computadoras que existen en la actualidad.

*Evolución

Desde la aparición de Alto, la cual contenía una pantalla de barrido de 875 líneas, un disco de
2,5 MB y una interfaz con una red Ethernet de 3 Mbits/s, la tecnología ha ido evolucionando,
tomando siempre en consideración los mejores aspectos de cada uno de los modelos que le
anteceden. Desde este punto de vista, se puede decir que el auge de las microcomputadoras
se debe principalmente al hecho de que su tecnología es más avanzada, en comparación con la
de las minicomputadoras y las supercomputadoras. Su diseño y construcción, lo que incluye
microprocesadores más potentes, chips de memoria y de almacenamiento más veloces y
capaces, se logra en ciclos más cortos. De esta forma le ganan tiempo a las generaciones de
otros tipos de computadoras.

Finalmente, se debe aclarar que como consecuencia de los avances tecnológicos, el término
microcomputador se encuentra en desuso, pues hoy en día la mayoría de las empresas
fabricantes incluyen microprocesadores en casi cualquier tipo de computadoras.

*Características

Las microcomputadoras son un tipo de computadoras que poseen las siguientes


características:

Su componente central es el microprocesador, lo cual no es más sino un circuito integrado.

Su arquitectura es clásica, construida sobre un flujo de control de operaciones y un lenguaje de


procedimientos.

Presenta tecnología incorporada, que permite la intercomunicación de sus componentes.

Debido a su diseño compacto, es de fácil empaquetado y traslado

Cómo funcionan las microcomputadoras

Las microcomputadoras son capaces de ejecutar operaciones de entrada, salida, cálculo y


lógica, a través del siguiente procedimiento básico:

Recibimiento de los datos que van a ser procesados.

Ejecución de comandos programados para el procesamiento de la información.

Almacenamiento de la información, antes y después de su transformación.

Presentación de los resultados del procesamiento de los datos.

Dicho de otra manera, las microcomputadoras emplean un formato de instrucciones que le


permiten, mediante la decodificación de las mismas, realizar las microoperaciones necesarias
para dar respuesta a las solicitudes de los usuarios.

Así pues, el formato de instrucciones incluye un código de operación, a través del cual indica el
direccionamiento de cada operando, es decir, define a un bit de una instrucción, de los
diferentes elementos que la conforman.

Por su parte, las microoperaciones son las operaciones funcionales del microprocesador,
responsables del reordenamiento de las instrucciones y de la ejecución secuencial de un
programa.

Mientras que a través de la temporización, la microcomputadora logra coordinar los eventos


de la red de líneas de comunicación que conectan los elementos del sistema.

Por último, es importante aclarar lo que significa la decodificación. Decodificar es el proceso


mediante el cual se interpretan las instrucciones, a fines de identificar cuál es la operación que
hay que realizar y la manera de obtener los operandos sobre los cuales se deben ejecutar
dichas órdenes.

Macrocomputadoras

Un ordenador de grandes dimensiones capaz de gestionar un elevado número de


tareas simultáneamente. Este cuenta con varias unidades de almacenamiento destinadas a
grandes cantidades de información que luego serán procesadas. Otra de sus principales
características es que permite el acceso a varios usuarios simultáneamente por medio de
terminales.

A pesar de un uso intensivo del potente procesador que forma parte de su arquitectura, una
macrocomputadora se diferencia de un supercomputador en su función principal: un
supercomputador realiza complejos cálculos matemáticos, mientras que una
macrocomputadora se limita a gestión de datos y administración de tareas. Esto implica que
una macrocomputadora no está diseñada para realizar cómputos exhaustivos.

principales características de una macrocomputadora (o mainframe) son:

Capacidad de alojar y ejecutar varios sistemas operativos: puede mantener abiertas varias
computadoras virtuales y correr distintos sistemas operativos a la vez.

Capacidad de añadir o cambiar de clientes (usuarios que acceden desde una terminal) sin
interrupciones.

Manejo de alto volumen de datos de entrada/salida: Una macrocomputadora está


constantemente recibiendo y enviando millones datos por segundo.

Pueda reemplazar varios ordenadores convencionales: Si bien existen funcionalidades de un


computador convencional que no pueden ser llevados a cabo con una macrocomputadora,
como el procesamientos de gráficos de alta definición, un grupo de decenas de computadores
no podrán alcanzar el rendimiento y eficiencia de una macrocomputadora en términos de
procesamiento de datos.

Gran tamaño: Toman el espacio de un armario o más

Alta potencia y velocidad de procesamiento: Su diseño está orientado a la gestión de tareas de


gran escala. Manejan grandes cantidades de datos, que saturaría a los computadores
convencionales de alto rendimiento.

Diseño orientado al fácil mantenimiento y reparación: La utilización de una


macrocomputadora implica una necesidad de inmediatez en el acceso a la información, por lo
que su mantenimiento y reparación debe de ser ágil y pragmático.

Precio elevado: Son computadores de un costo excesivo, y solo el ámbito empresarial o


gubernamental tiene acceso a estos. De hecho, la idea de una macrocomputadora “doméstica”
no tiene sentido.

Pocos fabricantes: Debido a su elevado coste, solo unas pocas empresas se permiten
desarrollar este tipo de tecnología. Los principales desarrolladores son IBM, Hewlett-Packard
(HP), Fujitsu, Hitachi y NEC.
Son controlados a través de terminales: A diferencia de un ordenador convencional, no se
tiene acceso directo a una macrocomputadora, sino que se acceden a estos por medio de
terminales, es decir: a una macrocomputadora se accede de forma remota desde un
ordenador convencional, y se aprovecha desde allí su poder de procesamiento.

Minicomputadora

¿Qué son las minicomputadoras?

Como mencionamos, una minicomputadora no es como su nombre puede indicar, una


computadora muy pequeña. Debe su nombre a cuando las computadoras eran enormes, y
cualquier desarrollo computacional menor a los tamaños acostumbrados en esos días, debía
ser llamado “mini”.

Podría decirse que las minicomputadoras son un tipo específico de computadora multiusuario,
ubicadas, en términos de proceso computacional, entre los grandes sistemas multiusuario del
tipo mainframe y las computadoras, estaciones de trabajo y sistemas de datos monousuario,
como nuestra propia PC.

Sin embargo, a pesar de estar emparentadas con los mainframes por capacidad, lo cierto es
que no ofrecen el mismo nivel de procesamiento. Nacen en la década de 1960 de la necesidad
de contar con un sistema de cómputo de bajo costo, comparándolo con un mainframe, y de
bajo mantenimiento, tanto de especialistas para operarlo como de técnico para repararlo.
Más adelante en este mismo post encontraremos información acerca de la historia de las
minicomputadoras

tecnología + informática

Minicomputadoras: qué son?

Seguramente cuando nos hablan de minicomputadoras lo primero en que pensamos es en


desarrollos como la Raspberry Pi, Asus Tinker Board S o Nvidia Jetson Nano. Sin embargo nada
más lejos de la realidad. Todos los mencionados son dispositivos modernos, que no tienen en
el mercado más de diez años. Las minicomputadoras tienen como mínimo más de 50 años de
existencia, y todavía se utilizan para tareas muy específicas y complejas.

Las minicomputadoras, lejos de la imagen de pequeñez, son dispositivos mucho más grandes
que una computadora de escritorio, más cercanas en tamaño a pequeños mainframes, y son
utilizados para el manejo de grandes volúmenes de información, al igual que estos. Si quieres
saber todo acerca de las minicomputadoras, en este post encontraras toda la información que
necesitas.
todo-sobre-minicomputadoras- (1)

Índice de Contenidos

¿Qué son las minicomputadoras?

Características de las minicomputadoras

Historia de las minicomputadoras

Ejemplos de minicomputadoras

Para que sirven las minicomputadoras

Ejemplos de usos de minicomputadoras

Diferencias entre minicomputadora y microcomputadora

Las primeras microcomputadoras

Las minicomputadoras en la actualidad

¿Qué son las minicomputadoras?

Como mencionamos, una minicomputadora no es como su nombre puede indicar, una


computadora muy pequeña. Debe su nombre a cuando las computadoras eran enormes, y
cualquier desarrollo computacional menor a los tamaños acostumbrados en esos días, debía
ser llamado “mini”.

Podría decirse que las minicomputadoras son un tipo específico de computadora multiusuario,
ubicadas, en términos de proceso computacional, entre los grandes sistemas multiusuario del
tipo mainframe y las computadoras, estaciones de trabajo y sistemas de datos monousuario,
como nuestra propia PC.

Sin embargo, a pesar de estar emparentadas con los mainframes por capacidad, lo cierto es
que no ofrecen el mismo nivel de procesamiento. Nacen en la década de 1960 de la necesidad
de contar con un sistema de cómputo de bajo costo, comparándolo con un mainframe, y de
bajo mantenimiento, tanto de especialistas para operarlo como de personal técnico para
repararlo. Más adelante en este mismo post encontraremos información acerca de la historia
de las minicomputadoras.

✅Características de las minicomputadoras:

En líneas generales una minicomputadora es un sistema multiproceso, es decir que puede


realizar múltiples procesos en paralelo, y capaz de resolver las peticiones de más de 200
usuarios en forma simultánea. En comparación con los varios miles de usuarios que puede
gestionar un mainframe, 200 parece una cifra bastante pobre, pero no debemos olvidarnos
que fue diseñada con el propósito de abaratar costos y personal para que el poder de proceso
de una mainframe fuera accesible a empresas que no tenían los recursos necesarios para tener
instalado uno de estos gigantes en planta.
Con respecto específicamente a sus características, una de las primeras cosas que tenemos
que destacar es que en su época las minicomputadoras fueron diseñadas, además de ofrecer
equipos de alta potencia a costos más reducidos que los de un mainframe, para ofrecer una
forma sencilla de conectar instrumentos y herramientas científicas, así como otros dispositivos
de E/S a través de una arquitectura simple.

En esto ayudaba mucho que el sistema se programara en lenguaje ensamblador, además se


diseñaron con transistores, lo que permitía muchas ventajas con respecto a las válvulas, las
que además añadirían el problema del tamaño y el consumo eléctrico. Todo ello permitía que
el equipo fuera muy accesible aun hasta para técnicos no capacitados para ello, lo que podían,
gracias a la simpleza de diseño de las minicomputadoras, modificarlas en el mismo laboratorio
para utilizarlas en otras tareas para las cuales no había sido diseñada, pero que sin embargo
podían llevare a cabo.

*Historia de las minicomputadoras:

Las primeras minicomputadoras fueron desarrolladas por IBM en la década de 1960, con el
objetivo de poder ofrecer al usuario una computadora orientada a las aplicaciones y servicios
comerciales que requerían del gran poder de procesamiento y eficiencia de los mainframe,
pero a un costo mucho menor, al alcance de muchas compañías medianas que no contaban
con el presupuesto para poder adquirir y mantener una de aquellas bestias de cómputo que
ocupaban habitaciones enteras.

Un ejemplo claro del éxito de las minicomputadoras en el ámbito del comercio y la industria es
el de la minicomputadora PDP-8 (Programmed Data Processor – 8), desarrollada por DEC en
1965, la cual se extendió en más de 50.000 instalaciones.

Las minicomputadoras con el paso del tiempo y la tecnología se hicieron cada vez más
pequeñas y poderosas, hechos en los que la aparición en el mercado de circuitos integrados de
la Serie 7400 y las mejoras en el desarrollo de las memorias RAM tiene mucho que ver, lo que
permitió que las minicomputadoras comenzaran a utilizarse en campos como el diseño
industrial y otros ámbitos, por su costo y performance. El costo de una minicomputadora con
respecto a un mainframe era aproximadamente 10 veces menor, lo que también permitió que
organizaciones más pequeñas pudieran comprar, instalar y mantener sus propias
computadoras y no depender de terceros para ello.

*Para que sirven las minicomputadoras

En líneas generales, el uso de una minicomputadora en una empresa es el mismo que el de un


mainframe, es decir que ambos son utilizados para la gestión y proceso de grandes volúmenes
de datos y la ejecución de cálculos complejos. La diferencia fundamental entre ambos tipos de
computadoras es el tamaño, relacionado estrechamente con la performance, y el tipo de
actividad a la cual la empresa se dedica. Esto significa que si una empresa requiere de potencia
de proceso pero un mainframe estaría sobredimensionado por costo y tamaño, una buena
opción es una minicomputadora. O por lo menos lo era hace unos cuantos años.

La potencia de las minicomputadoras es mucho menor a la de un mainframe, de modo que se


utilizan para tareas en donde la necesidad de potencia de cálculo o la especialización en una
labor específica no sean motivos excluyentes. Una minicomputadora es un equipo que puede
ser usado en multitud de propósitos, ya que es capaz de procesar con rapidez y eficiencia
datos de todo tipo, y además brinda la posibilidad de que se conecten a ella múltiples usuarios
a la vez, que procesan y almacenan datos.

Esta flexibilidad permite que las minicomputadoras sean utilizadas para investigación científica
y de ingeniería, el proceso de transacciones en el comercio y en la banca, la gestión de grandes
cantidades de archivos y administración de bases de datos.

✅Periféricos de entrada: Captan y digitalizan los datos introducidos por el usuario o por otro
dispositivo y los envían al ordenador para ser procesados. Los más conocidos son el teclado, el
ratón (mouse), escáner, cámara web, cámara digital, etc.

✅Raton: El ratón hace parte de los periféricos de tu equipo y es la parte del computador que
te permite interactuar con los objetos que aparecen en la pantalla, por medio de un cursor o
puntero que verás en el monitor.

Por lo general, el mouse o ratón tiene dos botones: el izquierdo te sirve para abrir, arrastrar,
seleccionar y ejecutar funciones. El derecho te permite acceder a funciones adicionales de los
comandos.

✅escaner:

Se le llama scanner al dispositivo de entrada que permite digitalizar imágenes, datos, señales y
otro tipo de información con el propósito de leerla y hacer uso de ella para diversos fines.

Uno de los más conocidos es el escáner de ordenador o computadora, el cual se emplea para
digitalizar imágenes y datos a partir de papeles, libros, fotografías, diapositivas y todo tipo de
objetos. Con un funcionamiento similar al de una fotocopiadora, el escáner se ocupa de "leer"
aquella información visible en el objeto con el fin de introducirla a un sistema informático para
su posterior uso. Por ejemplo, digitalizar fotografías tomadas con dispositivos analógicos para
modificarlas con programas de edición de imágenes.

También existen escáners 3D que se utilizan para obtener imágenes de objetos


tridimensionales

✅Qué es el teclado:

El teclado es una de las principales herramientas que usamos para interactuar e introducir
datos en el computador. Sus teclas están clasificadas en 6 áreas. Veamos cuáles son:
*Teclas de función:

Es la primera línea de teclas y las encuentras en la parte superior del teclado. Se representan
como F1, F2, F3... y te sirven para realizar una función específica o para acceder a atajos de los
programas.

Teclas de control:

Se utilizan por sí solas o en combinación con números para acceder a funciones o realizar
determinadas acciones. Las más usadas son Ctrl, Alt, Esc y la tecla con el ícono de Windows (En
el caso de los computadores que cuentan con este sistema operativo). En los computadores
con sistema operativo macOS X un de las teclas más usadas es Command.

Teclas para escribir o alfanuméricas:

Aquí están todas las letras, números, símbolos y signos de puntuación. Estas teclas se
encuentran normalmente en una máquina de escribir.

Teclado numérico:

Sirve para ingresar datos numéricos de forma rápida. Las teclas y símbolos están agrupadas de
la misma forma como aparecen en las calculadoras.

Teclas especiales y de desplazamiento:

Estas teclas son las que te sirven para desplazarte por documentos o páginas web y editar
algunos textos. Entre ellas están: Supr, Inicio, Fin, RePág, AvPág, ImpPt y las teclas de
dirección.

Con la tecla ImpPT, ubicada en el área de las teclas especiales, puedes hacer capturas de
pantalla y así mostrar o enviar a otros imágenes de lo que estás viendo en el monitor o
pantalla de tu computador

✅código de barras: El Código de Barras es una imagen que identifica a un producto de manera
estandarizada y única en todo el mundo; es un elemento imprescindible para que los
productos puedan estar en las tiendas y supermercados.

El Código está compuesto por unas barras claras y obscuras y ocasionalmente tiene dígitos
numéricos en la parte inferior.

Existe una gran variedad de Códigos de Barras. El más común es el EAN/UCC (EAN International
– Uniform Code Council), que se utiliza en los empaques de los productos que generalmente
están en los anaqueles de venta.

Imagen
✅tableta digitalizadora Una Tableta Gráfica o también llamada Tableta Digitalizadora, es un
dispositivo externo, que se conecta a una computadora mediante un cable USD o de forma
inalámbrica por medio de la tecnología del bluetooth y que permite mediante un bolígrafo o
lápiz dibujar directamente sobre la tableta viendo los resultados en el ordenador.

estos dispositivos, gracias a sus niveles de de sensibilidad permiten detectar la presión y el


ángulo del trazo, logrando efectos muy realistas, como si fuesen hechos en un papel con un
lápiz tradicional

la tableta gráfica sirve para dibujar, pintar, tomar apuntes, efectuar modelados 3D y ser usada
para desplazarse en la pantalla como el ratón (mouse).

Su uso estaba enfocado a ilustradores, diseñadores o arquitectos, pero hoy en día sus precios
más bajos debido al avance de las tecnologías, han permitido que estos dispositivos estén al
alcance de todos, pudiendo encontrar en tiendas online modelos de tabletas graficas muy
económicas y con características bastante profesionales.
Tema 4

HARDWARE (periféricos).

Los dispositivos periféricos son en la actualidad muy variados, tan simples como un par
de audífonos o tan complejos como un disco duro de estado sólido; sin embargo, ¿qué son y
cómo se clasifican? Pfaffenberger (1990) ofrece una definición precisa al señalar que los
periféricos son aquellos dispositivos controlados por la computadora, pero externos a la
unidad central de procesamiento (CPU). Por su parte, Long (1999) asegura que un periférico es
un dispositivo de hardware que no sea el procesador central. Los dispositivos periféricos o
simplemente periféricos son herramientas de hardware que sirven como interface entre el
usuario y la computadora, y tienen la finalidad básica de satisfacer algún requerimiento, ya sea
introducir, obtener o almacenar información.

Los periféricos se dividen fundamentalmente en tres grandes grupos.

∙∙ Dispositivos de entrada: una de las definiciones más simples es la de Stanley (2010), quien
sostiene que un dispositivo de entrada es aquel que transmite información del mundo exterior
a la memoria de la computadora. Su característica más importante es que únicamente permite
introducir datos hacia la computadora. Por ejemplo, un teclado o un ratón son los dispositivos
de entrada más comunes para el usuario, pues a través de ellos es factible introducir
información a la computadora, ya sea al capturar texto, escribir instrucciones o seleccionar
objetos, presionar clics sobre los botones en pantalla, arrastrar imágenes, dibujar trazos, etc.
Otros ejemplos son el micrófono, el lector de código de barras (de uso común y extensivo en
los supermercados y tiendas departamentales), el lector de huella digital, el lector de
geometría de mano (ambos para control de acceso), el lápiz óptico, el lector de banda
magnética (para tarjetas de crédito, débito o de servicios), etc.

∙∙ Dispositivos de salida: tomando nuevamente la referencia de Stanley, los dispositivos de


salida son aquellos que transmiten información de la memoria de la computadora hacia el
mundo exterior, es decir, son dispositivos empleados exclusivamente para obtener datos
desde la computadora. Normalmente, cuando se introduce información a un equipo de
cómputo a través de un teclado, se espera que el resultado de esta captura se vea reflejado en
algún lugar; el más común de ellos es el monitor o pantalla. Existen otros dispositivos de salida,
como la impresora (de matriz, de inyección, láser, térmica o magnética), los discos compactos
pregrabados (películas o software) también llamados CD-ROM, las bocinas o altavoces y los
auriculares.

∙∙ Dispositivos de entrada/salida: aunque no se encontró una definición explícita de estos


dispositivos, pues los autores remarcan solo dos clasificaciones (de entrada y de salida),
Stanley deja entrever este concepto al mencionar que los discos duros o memorias USB sirven
para ambos propósitos: entrada y salida; sin embargo, esta clasificación es importante
incluirla, ya que son un grupo especial de dispositivos, pues tienen doble función: por un lado,
permiten introducir información, que no necesariamente es a través de un teclado o ratón; y
por el otro, pueden obtenerse datos de ellos, en ocasiones, sin la intervención explícita del
usuario. Los dispositivos como el disco duro, las memorias USB (flash RAM), las pantallas
táctiles (muy comunes en ciertos teléfonos celulares, tabletas y algunas computadoras), los
discos compactos o DVD de lectura/escritura (también llamados regrabables) y las cámaras
digitales son algunos ejemplos de dispositivos de entrada/salida.
Así pues, los dispositivos periféricos, sean de entrada, salida o entrada/salida serán en todo
momento aliados cercanos del usuario de computadoras.

4._ Dispositivo de almacenamiento.

Espacios de almacenamiento ayuda a proteger los datos contra errores de unidad y


ampliar el almacenamiento a lo largo del tiempo a medida que agrega unidades a su EQUIPO.
Puedes usar Espacios de almacenamiento para agrupar dos o más unidades en un grupo de
almacenamiento y después usar la capacidad de ese grupo para crear unidades virtuales
denominadas espacios de almacenamiento. Estos espacios de almacenamiento suelen
almacenar dos copias de los datos para que si se produce un error en una de las unidades, aún
tengas una copia intacta de los datos. Si te queda poca capacidad, agrega más unidades al
grupo de almacenamiento.

Discos flexibles.

El disquete o disco flexible (en inglés: diskette o flipa disk) es un soporte de


almacenamiento de datos de tipo magnético, formado por una fina lámina circular (disco) de
material magnetizable y flexible (de ahí su denominación), encerrada en una cubierta de
plástico, cuadrada o rectangular, que se utilizaba en la computadora, por ejemplo: para disco
de arranque, para trasladar datos e información de un ordenador a otro, o simplemente para
almacenar y resguardar archivos.

La disquetera, unidad de disquete o unidad de disco flexible (FDD, del inglés Floppy Disk Drive)
es el dispositivo o unidad de almacenamiento que lee y escribe los disquetes, es decir, es la
unidad lectora/grabadora de disquetes.

Este tipo de soporte de almacenamiento es vulnerable a la suciedad y los campos magnéticos


externos, por lo que deja de funcionar con el tiempo o por el desgaste.

Disco duro.

En informática, la unidad de disco duro o unidad de disco rígido (en inglés: hard disk
drive, HDD) es un dispositivo de almacenamiento de datos que emplea un sistema de
grabación magnética para almacenar y recuperar archivos digitales. Se compone de uno o más
platos o discos rígidos, recubiertos con material magnético y unidos por un mismo eje que gira
a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus
caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire
generada por la rotación de los discos.Permite el acceso aleatorio a los datos, lo que significa
que los bloques de datos se pueden almacenar o recuperar en cualquier orden y no solo de
forma secuencial. Las unidades de disco duro son un tipo de memoria no volátil, que retienen
los datos almacenados incluso cuando están apagados.

El primer disco duro fue inventado por IBM, en 1956.A lo largo de los años, han disminuido los
precios de los discos duros, al mismo tiempo que han multiplicado su capacidad, siendo la
principal opción de almacenamiento secundario para computadoras personales, desde su
aparición en los años 1960.Los discos duros han mantenido su posición dominante gracias a los
constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las
necesidades de almacenamiento secundario.
Discos ópticos.

Un disco óptico es un medio de almacenamiento de datos de tipo óptico, que consiste


en un disco circular en el cual la información se codifica, guarda y almacena haciendo unos
surcos microscópicos con un láser sobre una de las caras planas que lo componen.

Como todas las formas de los medios de almacenamiento, los discos ópticos se basan en la
tecnología digital. Cualquier tipo o morfología de la información (texto, imagen, audio, vídeo,
etc.) puede ser codificada en formato digital y almacenada en este tipo de soportes.

Una unidad de disco óptico usa rayos láser en lugar de imanes para leer y escribir la
información en la superficie del disco. Aunque no son tan rápidos como los discos duros, los
discos ópticos tienen mucho espacio para almacenar datos, son menos sensibles a las
fluctuaciones ambientales y proporcionan mayor almacenamiento a un costo menor. Su
primera aplicación comercial masiva fue el CD de música, que data de comienzos de la década
de 1980. Los discos ópticos varían su capacidad de almacenamiento, aunque hay de muchos
tipos, los más habituales son: CD de 700 MB, DVD de 4,7 GB y Blu-ray de 25 GB en una sola
capa. Tanto los discos ópticos como las unidades de discos ópticos, pueden ser de solo lectura
o de lectura y escritura.

El disco óptico admite datos tanto de tipo analógico como digital. Los estándares de
almacenamiento ópticos son regulados por la Optical Storage Technology Association.

Cintas magnéticas.

Las cintas magnéticas son un tipo de medio o soporte de almacenamiento de datos


que se graba en pistas sobre una banda plástica con un material magnetizado, generalmente
óxido de hierro o algún cromato. El tipo de información que se puede almacenar en las cintas
magnéticas es variado, como vídeo, audio y datos.

Hay diferentes tipos de cintas, tanto en sus medidas físicas como en su constitución química,
así como diferentes formatos de grabación, especializados en el tipo de información que se
quiere grabar.

Los dispositivos informáticos de almacenamiento masivo de datos de cinta magnética son


utilizados principalmente para respaldo de archivos y para el proceso de información de tipo
secuencial, como en la elaboración de nóminas de las grandes organizaciones públicas y
privadas. Al almacén donde se guardan estos dispositivos se lo denomina cintoteca.

Su uso también se ha extendido para el almacenamiento analógico de música (como el casete


de audio) y para vídeo, como las cintas de VHS (véase cinta de video).

La cinta magnética de audio dependiendo del equipo que la reproduce/graba recibe distintos
nombres:

Se llama cinta de bobina abierta si es de magnetófono.

Casete cuando es de formato compacto utilizada en pletina o walkman, aunque existen una
amplia gama de casetes destinados a audio, video y archivo de información.

Cartucho cuando es utilizada en cartucheras.


Hoy en día se siguen usando cintas en casetes para resguardo de información, aunque no se
trate de un medio masivo, Sony recientemente ha creado una tecnología en la cual se puede
almacenar 185 TB de información en cinta magnética.

Pen drivers, flash Memory.

La memoria USB (Universal Serial Bus), conocida también con los nombres locales:
lápiz de memoria, dedo, pincho, lápiz USB, memoria externa, pendrive, memocápsula,
memorín o llave maya,[1] es un tipo de dispositivo de almacenamiento de datos que utiliza
circuitos de estado sólido para guardar datos e información.

Visión general

Los primeros modelos requerían una batería, pero los actuales usan la energía eléctrica
procedentes del puerto USB. Estas memorias USB son resistentes a los rasguños (externos), al
polvo, y algunos hasta al agua, factores que afectaban a las formas previas de almacenamiento
portátil, como los disquetes, discos compactos y los DVD.

Su gran éxito y difusión les han supuesto diversas denominaciones populares relacionadas con
su pequeño tamaño y las diversas formas de presentación, sin que ninguna haya podido
destacar entre todas ellas. El calificativo «USB» o el propio contexto permite identificar
fácilmente el dispositivo informático al que se refiere; aunque siendo un poco estrictos en
cuanto al concepto, USB únicamente se refiere al puerto de conexión pertinente.

Características.

Estas memorias USB se han convertido en el sistema de almacenamiento y transporte personal


de datos más utilizado, desplazando en este uso a los tradicionales disquetes y a los CD. Se
pueden encontrar en el mercado fácilmente memorias USB de 1, 2, 4, 8, 16, 32, 64, 128, 256,
512 GB, y hasta 1 TB (1024 GB).[5] Las memorias USB con capacidades más altas pueden aún
estar, por su precio, fuera del rango del «consumidor doméstico». Esto supone, como mínimo,
el equivalente a 180 CD de 700 MB o 91 000 disquetes de 1440 KiB aproximadamente. .

Soporte.

Los sistemas operativos actuales pueden leer y escribir en las memorias USB sin más que
enchufarlas a un clavijero USB del equipo encendido, recibiendo la tensión de alimentación a
través del propio conector, de 5 voltios y un consumo de 2,5 W como máximo. En equipos
previos (como por ejemplo: los equipos con el Windows 98) se necesita instalar un controlador
proporcionado por el fabricante. Las diversas distribuciones GNU/Linux también tienen
soporte para estos dispositivos de almacenamiento desde la versión 2.4 del núcleo.

4. Impresoras.

La impresora es un objeto auxiliar, que está conectado a una unidad central de procesamiento
de una computadora, su función es hacer una copia de aquellos documentos que han sido
almacenados en un formato electrónico. Estos documentos pueden ser textos o imágenes que
están impresos en una hoja o transparencia utilizando cartuchos de tintas o tecnología láser.
La mayoría de las impresoras, están unidas a un ordenador por medio de un cable, aunque
también existen las de red, las cuales poseen una interfaz de red interna, que le permite a
cualquier usuario de la red imprimir documentos.

Impresoras con cinta entintada.


Las impresoras matriciales suelen utilizar una cinta entintada con la que, mediante
impacto, se imprime en el papel. Esta cinta entintada es el consumible principal de todas las
impresoras matriciales, y se debe sustituir en cuanto se termine.

El mantenimiento de las impresoras matriciales puede ser un poco más complejo que el de
otras impresoras de tinta o láser. Se debe limpiar la zona del carro, que es la más utilizada para
este tipo de impresión. Este tipo de impresoras tienen un rodillo muy parecido al de las
máquinas de escribir, donde se acumulan los restos de tinta, que hay que retirar.

Impresoras de margarita.

Una impresora de margarita es un tipo de impresora que produce texto de alta calidad,
a veces conocida como impresora de calidad de carta (letter-quality printer) – en contraste con
las impresoras matriciales de alta calidad, que imprimen con “casi calidad de carta” (near letter
quality, NLQ). Había también, y aún existen, máquinas de escribir basadas en el mismo
principio.

Esta impresora recibe su nombre debido a que el dispositivo que contiene los caracteres se
asemeja a una flor de margarita. Los caracteres se encuentran en la orilla de cada uno de los
“pétalos”, que son sacados de posición a través del martinete que lo golpea sobre la cinta
entintada, para que quede plasmado en la hoja. Estas impresoras están en desuso ya que solo
imprimen textos y únicamente se puede cambiar la fuente si se cambia el disco. Su velocidad
va de 50 hasta 200 caracteres por segundo. En general no son capaces de producir gráficos; sin
embargo, con la configuración adecuada, es posible generar una imagen imprimiendo de a un
punto por vez; algunos modelos podían lograr una resolución de 120 ppp. Horizontal por 48
ppp. Vertical.

Impresoras de bola.

Los caracteres están ubicados en una esfera, de tal manera que para la impresión de
cada carácter se sigue un proceso muy similar al de la impresora de margarita.

Contiene todos los caracteres en una esfera que gira sobre un soporte móvil hasta colocar el
carácter frente a la cinta y golpearla para imprimir el carácter en el papel.

Impresoras de aguja.

Estas impresoras, también denominadas de matriz de puntos, son las más utilizadas
con microordenadores y pequeños sistemas informáticos. Los caracteres se forman por medio
de una matriz de agujas. Las agujas golpean la cinta entintada, trasfiriéndose al papel los
puntos correspondientes a las agujas disparadas.

Los caracteres, por tanto, son punteados, siendo su calidad muy inferior a los caracteres
continuos producidos por una impresora de margarita. No obstante, algunos modelos de
impresoras matriciales, presentan la posibilidad de realizar escritos en semicalidad de
impresión. Para ello, los caracteres se reescriben con los puntos ligeramente desplazados,
solapándose los de la segunda impresión con los de la primera, dando una mayor apariencia de
continuidad.

Impresoras sin cinta entintada.


Impresoras de margarita:

Son impresoras de calidad de impresión, sin embargo son relativamente lentas. Los caracteres
se encuentran modelados en la parte más ancha (más externa) de los sectores (pétalos) de una
rueda metálica o de plástico en forma de margarita.

La margarita forma parte del cabezal de impresión. Un motor posiciona la hoja de margarita
del carácter a imprimir frente a la cinta entintada, golpeando un martillo al pétalo contra la
cinta, escribiéndose el carácter sobre el papel. El juego de caracteres se puede cambiar
fácilmente sin más que sustituir la margarita.

Son análogas a las máquinas de escribir. Actualmente están fuera de uso.

Impresoras térmicas.

Una impresora térmica es un equipo que utiliza calor como medio para producir la
imagen o el texto en papel, por lo que no se necesita tinta o tóner. Sin embargo, sí requiere de
un papel térmico que permita la impresión. Debido a la calidad de su impresión y su velocidad,
se ha vuelto cada vez más popular y se utiliza, principalmente, en supermercados, aerolíneas,
entretenimiento, servicios de inspección técnica o atención médica.

Impresoras de inyección de tinta.

Las impresoras de inyección de tinta funcionan expulsando gotas de tinta de diferentes


tamaños sobre el papel. Son las impresoras más populares hoy en día para el gran público por
su capacidad de impresión de calidad a bajo costo. Su baja velocidad de impresión o el alto
costo del mantenimiento por desgaste son factores poco importantes, ya que el número de
copias realizadas en estos entornos es bajo. Su resolución media se encuentra en los 600 PPP
(puntos por pulgada).

Impresoras láser.

Una impresora láser es una máquina que utiliza la tecnología láser para imprimir
imágenes en el papel, en lugar de la impresión tradicional de tinta sobre papel.

Son las más utilizadas en las oficinas, empresas o incluso en los centros de educación gracias a
su rapidez y eficacia para imprimir grandes volúmenes de documentos y páginas, además de su
excelente calidad.

Este tipo de impresora es originaria del año 1977, desarrollada e inventada por Gary
Starkwather en Xerox durante la década de los 70. El inventor de la imprenta láser fue todo un
visionario, años más tarde trabajó para Apple, donde inventó la tecnología de gestión de color.
Incluso asesoró al equipo de efectos digitales en la popular película de Star Wars.

Impresoras láser de color.

Los equipos láser a color tienen un cilindro fotoreceptor que puede imprimir mediante un haz
lumínico. Cuando enviamos una orden, este tambor se carga de corriente eléctrica con ayuda
de un filamento y una rejilla. Elementos que se conocen como corona de carga.

El cilindro comienza a girar y mediante una serie de descargas negativas genera la imagen que
vamos a imprimir. A continuación, los pigmentos del tóner se adhieren a la superficie para
formar una imagen en negativo. Y finalmente, se traspasa al papel con ayuda de dos rodillos y
la aplicación de calor.
Una vez realizada la impresión, el tóner se limpia mediante una lámina plástica y el cilindro con
un haz de luz. De esta forma, nuestro equipo estará listo para llevar a cabo el siguiente trabajo.

Trazadores gráficos ( Plotters ).

Los trazadores de gráficos (en inglés: «plotters») son dispositivos de salida que realizan
dibujos sobre papel. Estos periféricos tienen gran importancia ya que con ellos se obtienen
directamente del ordenador salidas en forma de planos, mapas, dibujos, gráficos, esquemas e
imágenes en general.

El funcionamiento de un plotter se controla desde programa. El usuario puede incluir en su


programa instrucciones para realizar las representaciones que desee con sus datos.

Los registradores gráficos se fundamentan en el desplazamiento relativo de un cabezal con el


elemento de escritura, con respecto al papel. Dependiendo del tipo de gráfico se moverá sólo
la cabeza, o la cabeza y el papel.

5._ Comunicaciones.

En las redes informáticas, el origen de un mensaje es un host que necesita enviar un


mensaje. El receptor es otro host que recibe el mensaje y lo interpreta. El canal de
comunicación proporciona la ruta por donde el mensaje viaja desde el origen hasta el destino.

Conexiones de entrada / salida de datos de la computadora.

En informática, los dispositivos de entrada y salida son también llamados periféricos,


ya que, no son una parte integral del sistema informático en sí, sino elementos periféricos que
se conectan al sistema mediante sus ranuras de entrada (inputs) o ranuras de salida (outputs).

Los periféricos de entrada y salida se conectan a los sistemas de procesamiento de


información a través de ranuras de expansión o conectores de entrada y salida que se
encuentran integrados en su tarjeta madre como, por ejemplo, las ranuras o puertos USB,
conector LAN, conector VGA o conector de audio.

Los dispositivos de entrada son aquellos elementos que se conectan para introducir dentro del
sistema general la función o información deseada. Algunos ejemplos de dispositivos de
entrada son: el teclado, el ratón, el escáner.

Los dispositivos de salida son aquellos elementos que se conectan para que el sistema de
procesamiento exponga la función o información deseada. Algunos ejemplos de dispositivos
de salida son: el monitor, las memorias portátiles, las impresoras.

Interfaz serie RS-232.


La norma RS232 describe la conexión en serie entre un aparato terminal de datos (DTE)
y una instalación de transmisión de datos (DCE) con sus propiedades eléctricas y mecánicas.
Aunque la norma sólo define este tipo de conexión, la interfaz RS232 se ha establecido como
estándar general para transmisiones de datos en serie a través de cortas distancias.

En descripciones de Interfaz de muchos aparatos se usa a menudo en lugar de RS232 la


denominación V.24. Aunque se trata aquí de normas diferentes, discrepantes entre sí en
puntos de detalle, los conceptos se usan generalmente en la práctica sinónimamente.

Las señales RS232 pueden ser convertidas con numeroas interfaces en (casi) todos los demás
tipos de interfaces como Ethernet, USB, RS422, RS485, 20mA, fibra óptica de vidrio o plástico,
etc.

Ranuras de expansión.

Una ranura de expansión es un tipo de puerto o enchufe en una tarjeta madre de la


computadora que permite a los dispositivos adicionales o “tarjetas de expansión” conectarse a
la misma y añadir nuevos tipos de funcionalidades al equipo.

El propósito de las ranuras de expansión es dar flexibilidad a las computadoras y permitir


actualizaciones de hardware; las ranuras de expansión, por ejemplo, te permiten instalar en la
computadora un nuevo módem, tarjetas de sonido y de video en una computadora.

Interfaz paralelo Centronics.

En cuanto a los puertos paralelos, son un tipo de interfaz que permite conectar
diferentes tipos de periféricos a un ordenador o equipo informático o electrónico. Estos
puertos suelen estar presentes en tu ordenador, normalmente directamente en la placa base,
lo que hace que sea uno de los que queda en la parte trasera de tu torre.

El paralelo es un tipo de puerto, y existen diferentes modelos de interfaz o puerto que son
paralelos, dependiendo de los periféricos para los que han sido diseñados. Dependiendo de
este tipo de puerto destinado a tipos concretos de periféricos, estos puertos pueden tener una
cantidad determinada y concreta de contactos o cables.

En definitiva, son puertos paralelos esos que permiten el intercambio simultaneo de paquetes
de datos a través de los diferentes hilos o cables, y en ambos sentidos. El nombre de puerto
paralelo es debido a la forma en la que funciona todo a nivel físico, ya que hay un cable por
cada bit que se envía. De esta manera, si una impresora requiere el envío de determinado
número de bits, necesitarías un bus con ese mismo número de cables, que enviarán la
información de forma paralela.

5.2. Módems.

Es un dispositivo que permite conectar un sistema a otro a través de líneas telefónicas


convencionales. El sistema telefónico actual no es capaz de transportar los cambios de voltaje
necesarios para una conexión digital directa.

Módems interno.

El modem interno como cualquier otro dispositivo que sea interno del ordenador, se
alimenta de la propia fuente de alimentación del PC. No requieren cableado, basta con
disponer del cable telefónico que conecta el modem a la línea telefónica. En la mayoría de los
modem actuales, se ven 2 entradas RJ113 que son de entrada de la central telefónica y la otra
para conectar un teléfono para que funcione normalmente, cuando no se esté conectado.

Respecto a la configuración, es un poco dificultosa cuando no se logran detectar puertos


seriales (otros dispositivos lo usan). Cuando ocurre esto hay que ``meterle mano’’ a las
interrupciones que maneja el sistema, pero esto ya corresponde a un conocimiento más
avanzado de hardware.

Módems externo.

En este caso tendremos un dispositivo que se conecta al ordenador mediante puerto


serie, por ejemplo, USB. Generalmente se utilizan para realizar las funciones de contestador
automático o fax.

5,3._Tarjetas de comunicaciones de red LAN.

Es un componente de hardware que conecta una computadora a una red informática y


que posibilita compartir recursos (como archivos, discos duros enteros, impresoras e internet)
entre dos o más computadoras, es decir, en una red de computadoras.

Tema 5

software

1._Definición de un software:

Son programas, datos o métodos de funcionamiento a modo de instrucciones a través


de las que los equipos informáticos realizan tareas. El software se utiliza no solo en
ordenadores, sino que se trata del tipo de herramienta que también se aplica en el caso de
dispositivos móviles, consolas y todo tipo de maquinaria. logicial o soporte lógico al sistema
formal de un sistema informático, que comprende el conjunto de los componentes lógicos
necesarios que hace posible la realización de tareas específicas, en contraposición a los
componentes físicos que son llamados hardware. La interacción entre el software y el
hardware hace operativo un ordenador (u otro dispositivo), es decir, el software envía
instrucciones que el hardware ejecuta, haciendo posible su funcionamiento.

2._Historia del software:

El primero se refiere al desarrollo de un algoritmo pensado para una máquina en


específico, como era en su época la ‘máquina analítica’ a mediados del siglo XIX. Esta máquina
al final no se llegó a realizar y el algoritmo no se puso en práctica. La programadora de la
primera ‘protopieza’ de software fue Ada Lovelace, la primera mujer programadora de la
historia.

El segundo suceso que se dio fue un trabajo de Alan Turing que se basaba en números
computables, por lo que estaríamos ante la primera teoría del software de todos los tiempos.
Esto ocurrió poco antes de mediados del siglo XX.

Sintetizando, se puede afirmar que el software es un término que lleva relativamente pocos
años en uso, por lo que es una ciencia que todavía tiene mucho camino por recorrer.
Etapa anterior a 1950: Son décadas en las que se sientan las primeras bases y pinceladas del
software. Como se ha mencionado en el epígrafe anterior, Ada Lovelace y Alan Turing son los
precursores del concepto ‘software’.

Década de los 50’ 60’ y 70’: En estos años el software pasó de ser un concepto teórico y
abstracto a ser reconocido como un factor indispensable para la invención y desarrollo de
dispositivos o máquinas. Se acuña por primera vez en una conferencia de la OTAN el término
‘ingeniería de software’. Esto es la primera muestra de una de las ciencias y profesiones más
estudiadas y demandadas correspondientemente. En aquella época los lenguajes que más se
utilizaban eran COBOL y FORTRAN.

Década de los 80’ y 90’: En estas dos décadas se identifica un problema, y es que la gran
demanda superaba la oferta de profesionales en la industria. Además, los profesionales no
podían abarcar tantas áreas de conocimiento sin especialización previa. Surgieron los primeros
colapsos en proyectos y trabajos de complejidad avanzada. Sin ir más lejos, en esta época se
lanzan Windows en 1985 y Linux en 1992. Además la aparición del lenguaje HTML es gracias al
auge del Word Wide Web (WWW), uno de los principales hitos de la era digital.

Siglo XXI: Desde principios del siglo XXI se han dado grandes avances en todos los campos que
abarca el software. Desde la aparición de los revolucionarios Smartphone, con un software
integrado que hace que un único dispositivo pueda realizar tareas en las que antes se
necesitaba un ordenador. Por otra parte, también se han llegado a niveles de desarrollo en
tecnologías aún por investigar y desarrollar como lo son la IA o las ya tan conocidas
criptomonedas. Ejemplos de estos avances son los asistentes de voz de grandes compañías
como Apple, Microsoft o Amazon, los cuales pueden imitar el comportamiento humano. A
estos efectos, se dan multitud de lenguajes de programación en los que el objetivo del
proyecto determina qué lenguaje se debe utilizar y por ende, qué tipo profesional en
específico se necesita. Algunos lenguajes que podemos mencionar son SWIFT (para
aplicaciones en entornos iOS), JavaScript (para entornos web) o PHP (destinado a tareas y
programación de servidores o máquinas físicas).

2.1 ._Lenguaje de programación:

Un lenguaje de programación es un lenguaje formal (o artificial, es decir, un lenguaje


con reglas gramaticales bien definidas) que le proporciona a una persona, en este caso el
programador, la capacidad de escribir (o programar) una serie de instrucciones o secuencias
de órdenes en forma de algoritmos con el fin de controlar el comportamiento físico o lógico de
un sistema informático, de manera que se puedan obtener diversas clases de datos o ejecutar
determinadas tareas.

2.2._Evolución de lenguaje de programación:

Los primeros lenguajes de programación preceden a la computadora moderna. En un


inicio los lenguajes eran códigos.

La máquina del telar de Jacquard, creada en 1801, utilizaba los orificios en tarjetas perforadas
para representar los movimientos de un brazo de la máquina de tejer, con el objetivo de
generar patrones decorativos automáticamente.

Durante un período de nueve meses entre 1842 y 1843, Ada Lovelace tradujo las memorias del
matemático italiano Luigi Menabrea acerca de la nueva máquina propuesta por Charles
Babbage, la Máquina Analítica. Con estos escritos, ella añadió unas notas en las cuales
especificaba en detalle un método para calcular los números de Bernoulli con esta máquina.

Herman Hollerith se percató de que podía codificar la información en tarjetas perforadas


cuando observó a los conductores de trenes que identificaban a los pasajeros según el orificio
que hacían en su respectivo ticket. En 1890 Hollerith codificó los datos del censo en tarjetas
perforadas.

Los primeros códigos de computadora estaban especializados según sus aplicaciones. En las
primeras décadas del siglo XX, los cálculos numéricos estaban basados en los números
decimales. Con el paso del tiempo, se dieron cuenta de que la lógica podía ser representada
con números, no sólo con palabras. Por ejemplo, Alonzo Church fue capaz de expresar el
cálculo lambda a través de fórmulas. La máquina de Turing estableció las bases para almacenar
programas como datos en la arquitectura de von Neuman de una computadora. Sin embargo,
a diferencia del cálculo lambda, el código de Turing no serviría satisfactoriamente como base
para lenguajes de más alto nivel- su principal uso es en el análisis riguroso en la complejidad
algorítmica.

Como muchos “primeros” en la historia, el primer lenguaje de programación moderno es difícil


de identificar. Desde un inicio, las restricciones de hardware definían el lenguaje. Las tarjetas
perforadas permitían 80 columnas, pero algunas de estas serían utilizadas para una
clasificación de cada tarjeta. FORTRAN incluía algunas palabras reservadas provenientes del
Inglés, como “IF”, “GOTO” (go to) y “CONTINUE”. El uso del tambor magnético para la memoria
implicaba que los programas informáticos tuvieran que estar intercalados con las rotaciones
del tambor. Por lo tanto los programas eran muy dependientes del hardware.

Para algunas personas, lo que sería el primer lenguaje de programación moderno depende de
cuánto poder y legibilidad humana se requería antes de que se concediera el estado de
"lenguaje de programación". Tanto el telar de Jacquard como la Máquina Diferencial de
Babbage, tenían lenguajes muy simples y extremadamente limitados para describir las
acciones que estas máquinas realizaran. Se puede incluso considerar los agujeros perforados
en los rollos de pianola como un limitado lenguaje de dominio específico, a pesar de no estar
diseñado para el consumo humano.

En la década de 1940 fueron creadas las primeras computadoras modernas, con alimentación
eléctrica. La velocidad y capacidad de memoria limitadas forzaron a los programadores a
escribir programas, en lenguaje ensamblador muy afinados. Finalmente se dieron cuenta de
que la programación en lenguaje ensamblador requería de un gran esfuerzo intelectual y era
muy propensa a errores.

En 1948, Konrad Zuse publicó un artículo acerca de su lenguaje de programación Plankalkül.


Sin embargo, no fue implementado en su vida y sus contribuciones fueron aisladas de otros
desarrollos.

Entre algunos lenguajes importantes que fueron desarrollados en este período se encuentran:

1943 - Plankalkül (Respetad a Konrad), diseñado, pero sin implementar durante medio siglo

1943 - se crea el sistema de codificación ENIAC.


1949 - 1954 -- una serie de conjuntos de instrucciones nemotécnicas, como la de ENIAC,
comenzando en 1949 con C-10 para BINAC (que luego evolucionaría en UNIVAC). Cada
conjunto de instrucciones estaba destinado a un fabricante específico

2.3._Sistemas operativos:

Un sistema operativo es el conjunto de programas de un sistema informático que


gestiona los recursos de hardware y provee servicios a los programas de aplicación de
software. Estos programas se ejecutan en modo privilegiado respecto de los restantes.

2.3.1 Evolución de los sistemas operativos:

Un sistema operativo es uno o varios programas que se usan para poder trabajar con
los componentes de un equipo de computador.

2.3.1.1 Primera generación (1945-1955):

Posteriormente al trabajo de Babbage, el desarrollo de máquinas programables quedó


relegado al ámbito de la investigación científica, sin grandes aplicaciones prácticas. Como ha
ocurrido con tantos otros inventos, fue el periodo de la Segunda Guerra Mundial el que vino a
reimpulsar el interés en este tipo de máquinas.

Se empezaron a desarrollar las primeras máquinas electrónicas, como el Z3 de Konrad Zuse


(1941), y la máquina de Atanasoff-Berry (1942). El flujo de cómputo de estas máquinas era
controlado por switch electrónicos (relay), construidos mediante tubos de vacío (vacuum
tube). Al estar compuestas por cientos o miles de estos tubos, no era extraño que uno o varios
fallaran durante la operación. Algunas de estas máquinas eran programables, si bien no todas
eran de "propósito general" ó Turing-complete.

En 1944, un grupo de científicos en Bletchley Park, Inglaterra, entre los que se encontraba Alan
Turing, construyó el computador Colossus, cuyo modelo más conocido, el Colossus Mark 2,
utilizaba 2400 tubos de vacío. Este computador, si bien, tampoco era Turing-complete (lo que
demuestra que no basta tener a Alan Turing para ser Turing-complete) ya que fue diseñado
para una tarea criptográfica particular, sí era programable mediante cintas de papel. Fue
importante en el proceso de decriptación del criptosistema alemán Lorenz.

En 1946, William Mauchley y J. Presper Eckert construyeron, en la Universidad de Pennsylvania


uno de los primeros computadores programables de propósito general: el ENIAC (Electronic
Numerical Integrator and Computer). Poseía 20000 tubos de vacío, pesaba 27 toneladas,
ocupaba 167m2 y consumía 150kW de electricidad. Su dispositivo de entrada era un lector de
tarjetas perforadas y su salida era un perforador de tarjetas (IBM 405). Poseía un clock de
100kHz, y utilizaba 20 registros de 10 dígitos binarios. No existía un lenguaje de programación,
ni siquiera asamblea, de manera que toda la computación era descrita en las tarjetas
perforadas mediante código de máquina.

2.3.1.2 Segunda generación (1955-1965):

La creación de los transistores en los años 1950 revolucionó la construcción de los


dispositivos electrónicos reduciendo drásticamente las tasas de falla respecto al hardware
construido con tubos de vacío y aumentando la velocidad de respuesta. Se empezaron a
construir grandes computadores basados en transistores, conocidas como mainframes. Debido
a su costo de construcción, un computador de este tipo era solamente accesible para grandes
corporaciones, gobiernos y universidades.
La operación de un mainframe requería la colaboración de varios actores. Un mainframe
ejecuta jobs (trabajos), que consisten en el código de un programa, o una secuencia de
programas. Los programas se ingresan mediante tarjetas perforadas y se escriben en lenguaje
assembler. En 1953, John W. Backus, de IBM, propone una alternativa para hacer más práctica
la descripción de programas en lugar de assembler y desarrolla el Fórmula TRANslating system,
conocido como lenguaje FORTRAN, junto con una herramienta para hacer la traducción hacia
assembler llamada compilador. Este trabajo le otorgaría el Turing Award en 1977.

Un programa escrito en FORTRAN sobre tarjetas perforadas es entregado como input a un


lector de tarjetas. El lector de tarjetas escribe sobre una cinta que se entrega a la máquina
principal, la cual ejecuta las instrucciones, proceso que podía tardar horas dependiendo de la
complejidad del cómputo, y escribe el resultado sobre otra cinta de salida. La cinta de salida es
leída por otro dispositivo capaz de imprimir el contenido de la cinta a un papel. En ese
momento termina la ejecución del job.

Notemos que durante el tiempo que un dispositivo está leyendo las tarjetas perforadas, tanto
el dispositivo procesador como el dispositivo de salida no están haciendo ningún trabajo útil.
Dado el costo del equipamiento era poco conveniente tener estas unidades en espera
mientras se traduce una tarjeta perforada a una cinta magnética. Es por esto que se
desarrollaron soluciones como el sistema de procesamiento batch, o procesamiento por lotes.
En este modelo, un programador entrega sus tarjetas perforadas a un operador (otra persona)
que se dedica a ingresar las tarjetas a una unidad lectora de tarjetas (IBM 1402). Cuando hay
una cantidad suficiente de trabajos, el operador toma la cinta de salida y la traslada
(físicamente) a un dispositivo procesador como el IBM 1401 (3 registros, word de 6-bit con
codificación BCD) o el más poderoso IBM 7094 (7 registros, word de 36-bit, y espacio de
direcciones de 15-bit: 32768 words). El operador carga un primer programa (algo similar a un
sistema operativo) que prepara al computador para leer una serie de jobs desde la cinta.
Mientras el dispositivo procesador realiza las labores de cómputo, el IBM 1402 podía seguir
leyendo el siguiente conjunto de tarjetas. La salida del dispositivo procesador iba a una cinta
magnética de salida. El operador nuevamente debe tomar esta cinta, llevarla a un dispositivo
impresor (IBM 1403) que transfiera el contenido de la cinta magnética a papel de manera
offline. Esto es, no conectado al dispositivo procesador.

Este tipo de computadores se usó principalmente para cómputo científico y de ingeniería. Los
programas que permitían a estos computadores procesar secuencialmente una cantidad de
Jobs fueron algunos de los primeros en cumplir la tarea de un sistema operativo, como FMS
(FORTRAN Monitor System, básicamente un compilador de FORTRAN), y el sistema del IBM
7094, IBSYS.

Tercera generación (1965-1980):

En los años 1960s, los mainframes de IBM (International Business Machines


Corporación), la compañía constructora de equipamiento computacional más importante de la
época, requerían cada uno un software y periféricos distintos para funcionar, ya que las
instrucciones no eran compatibles. Un programa hecho para un modelo debía ser reescrito
ante la introducción de un nuevo modelo de hardware. La compañía decide unificar el
hardware bajo una familia llamada System/360. Ésta fue la primera línea importante basada en
la nueva tecnología de circuitos integrados capaz de integrar grandes cantidades de pequeños
transistores, lo que proporcionaba una enorme ventaja precio/rendimiento respecto a los
transistores tradicionales.

OS/360, y la multiprogramación

La idea de tener una línea de hardware mutuamente compatible y de propósito general


requería un sistema capaz de funcionar en todos los modelos. Este sistema fue el OS/360. El
software resultante resultó enormemente grande (millones de líneas de asamblea) y complejo
de desarrollar, con numerosos bugs, en tiempos en que la ingeniería de software no se
desarrollaba como disciplina aún. El director del proyecto Fred Brooks describió sus
experiencias en el libro "The Mythical Man-Month", un clásico de la ingeniería de software. Sus
contribuciones a esta nueva disciplina le valieron el otorgamiento del Turing Award en 1999.

A pesar de todos sus defectos, OS/360 fue ampliamente usado, e introdujo algunas ideas clave
en los sistemas computacionales. Sistemas como el IBM 7094 eran máquinas que procesaban
un trabajo simultáneamente. Si alguna instrucción de ese trabajo requería una lectura de cinta,
o alguna operación de I/O, la CPU debía esperar sin hacer nada (idle) hasta que la operación
terminase. Los trabajos científicos suelen ser intensivos en cómputo (CPU-bound), por lo que
esto no era un problema. Sin embargo las aplicaciones comerciales requerían operaciones de
I/O el 80% a 90% de las veces (I/O-bound) por lo que gran parte del tiempo la CPU se
encontraba idle.

La solución fue dividir el espacio de memoria en regiones, y asignar un espacio distinto a cada
job. Se introdujo un mecanismo que permitiera que, cada vez que un job estuviese esperando
una operación de I/O, el sistema permitiera que otro job pudiese ocupar la CPU. De esta
manera, si hay suficiente jobs en la memoria, sería posible mantener a la CPU trabajando casi
el 100% del tiempo. Este mecanismo fue un enorme avance que ocupamos hasta el día de hoy,
y se llama multiprogramación.

Cuarta generación (1980-1995):

El desarrollo tecnológico de los circuitos integrados llegó al nivel conocido como VLSI
(Very Large Scale Integration), capaz de integrar hasta 1 millón de transistores en un chip de
1cm2, lo que permitía hasta 100000 celdas lógicas. Surgieron sistemas computacionales de uso
personal denominados microcomputadores, que en principio no eran tecnológicamente muy
superiores al PDP-11, pero a un precio notablemente inferior.

Intel 8080, CP/M y el despegue de los microcomputadores

En 1974, Intel presenta el chip Intel 8080, una CPU de propósito general de 8-bit con un clock
de 2MHz, sucesora del 4004 y el 8008, los primeros microprocesadores del mercado. Fue parte
del popular MITS Altair 8800, que dió inicio a la era de los microcomputadores.

Intel deseaba un sistema operativo propio para el Intel 8080, por lo cual Gary Kildall construyó
un sistema operativo basado en disco (contenido en un floppy disk de 8") conectado al 8080, y
llamado CP/M (Control Programa for Microcomputers). CP/M era un sistema single-task de 8-
bit y capaz de utilizar hasta 64 KB de memoria. Si bien el sistema fue adoptado por Intel, no le
veían mucho futuro a un sistema operativo residente en disco, y los derechos quedaron en
manos de Gary Kildall quien formó la compañía Digital Research Inc. para desarrollar y vender
CP/M. Digital Research adaptó CP/M para diversos microcomputadores usando el Intel 8080,
pero también para otros microprocesadores de la época como el Zilog Z80, dominando el
mercado durante unos 5 años. En este periodo se desarrollaron versiones multitasking y de 16-
bit. Aplicaciones que surgieron bajo CP/M fueron WordStar (procesador de texto), dBase (base
de datos), Multiplan (planilla de cálculo), y Turbo Pascal (IDE y compilador para Pascal).

Sistemas operativos más conocidos

El sistema operativo es el conjunto de programas con los que funciona una


computadora. Si no se cuenta con este conjunto de programas, no funcionará, quedando como
un montón de material inservible.

Un equipo de cómputo, una laptop, una tableta o un teléfono tiene sin lugar a dudas un
sistema operativo.

MS-DOS:

(siglas de Microsoft Disk Operating System, Sistema operativo de disco de Microsoft o


Microsoft DOS) fue el miembro más popularmente conocido de la familia de sistemas
operativos DOS de Microsoft, y el principal sistema operativo para computadoras personales
compatible con IBM PC en la década de 1980 y mediados de años 1990, hasta que fue
sustituida gradualmente en la versión 8.0 del año 2000 por sistemas operativos que ofrecían
una interfaz gráfica de usuario, en particular por varias generaciones de Microsoft Windows.
Desde Windows XP, ya no se volvió a incluir una versión de MS-DOS y fue reemplazado por
CMD

Unix:

Es un sistema operativo portable, multitarea y multiusuario; desarrollado en 1969 por


un grupo de empleados de los laboratorios Bell de AT&T.El sistema, junto con todos los
derechos fueron vendidos por AT&T a Novell, Inc.

WINDOWS ES EL MÁS COMÚN EN EL MUNDO

Muchos critican a esta familia de sistemas operativos por ser avariciosos con los recursos del
ordenador, por su escasa estabilidad de funcionamiento y por las tediosas descargas de
actualizaciones. Sin embargo, es el sistema operativo elegido por más del 90% de los usuarios
de ordenadores. Hay una buena razón para ello.

Linux:

Es la denominación técnica y generalizada que reciben una serie de sistemas


operativos de tipo Unix, que también suelen ser de código abierto, multiplataforma,
multiusuario y multitarea.

Lenguaje de bajo nivel (ensambladores):

Es un lenguaje de programación de bajo nivel. Consiste en un conjunto de mnemónicos


que representan instrucciones básicas para los computadores, microprocesadores,
microcontroladores y otros circuitos integrados programables.
Compiladores:

Es un programa informático que traduce todo el código fuente de un proyecto de


software a código máquina antes de ejecutarlo. Solo entonces el procesador ejecuta el
software, obteniendo todas las instrucciones en código máquina antes de comenzar.

Intérpretes

Es un programa informático que procesa el código fuente de un proyecto de software


durante su tiempo de ejecución, es decir, mientras el software se está ejecutando, y actúa
como una interfaz entre ese proyecto y el procesador.

Lenguaje de máquinas (código fuente):

El código fuente de un programa está escrito por un programador en algún lenguaje de


programación. Hay diferentes lenguajes de programación, que su uso depende del contexto y
del campo de aplicación. Los más conocido son, por ejemplo, JavaScript, Python, entre otros.
Sin embargo, el programa escrito en algún lenguaje de estos no es directamente ejecutable
por la computadora en su primer estado, sino que debe ser traducido a otro lenguaje o código
binario; así será más fácil para la máquina interpretarlo (lenguaje máquina o código objeto que
sí pueda ser ejecutado por el hardware de la computadora). Para esta traducción se usan los
llamados compiladores, ensambladores, intérpretes y otros sistemas de traducción.

El término código fuente también se usa para hacer referencia al código fuente de otros
elementos del software, como, por ejemplo, el código fuente de una página web, que está
escrito en lenguaje de marcado HTML o en Javascript, u otros lenguajes de programación web,
y que es posteriormente ejecutado por el navegador web para visualizar dicha página cuando
es visitada.

El área de la informática que se dedica a la creación de programas, y por tanto a la creación de


su código fuente, es la ingeniería de software.

Lenguaje de programación:

Es una forma de comunicarnos con una computadora, tablet o celular e indicarle qué
queremos hacer. Existen distintos tipos de lenguaje: principalmente de bajo nivel y de alto
nivel. La diferencia se encuentra en lo cerca o lejos que estemos del hardware de nuestro
equipo.

Basic:

Es una familia de lenguajes de programación de alto nivel. El BASIC original, el


Dartmouth BASIC, fue diseñado en 1964 por John George Kemeny y Thomas Eugene Kurtz en
el Dartmouth College en New Hampshire, Estados Unidos, como un medio para facilitar la
programación en ordenadores a estudiantes (y profesores) que no fueran de ciencias. En
aquella época, casi todo el uso de los computadores requería codificar software hecho a
medida, con lo cual quedaba restringido a personas con formación como científicos y
matemáticos. BASIC originalmente fue desarrollado como una herramienta de enseñanza. El
lenguaje y sus variantes llegaron a estar ampliamente disponibles en las microcomputadoras a
finales de los años 1970 y en los años 1980. BASIC sigue siendo popular a día de hoy en un
puñado de dialectos altamente modificados, y en nuevos lenguajes, influenciados por BASIC
tales como Microsoft Visual Basic o Gambas en GNU/Linux. En el año 2006, el 59 % de los
desarrolladores para la plataforma .NET usaban Visual Basic .NET como su único lenguaje.

Cobol:

Las siglas COBOL responden a Common Business-Oriented Language, un lenguaje de


programación basado en el idioma inglés que lleva más de medio siglo sustentando todo tipo
de operaciones, sobre todo en Estados Unidos. Es utilizado por sistemas financieros,
compañías de seguros y un gran número de instituciones.

Pascal:

Es un lenguaje de programación creado por el profesor suizo Niklaus Wirth entre los
años 1968 y 1969, y publicado en 1970. Su objetivo era crear un lenguaje que facilitara el
aprendizaje de programación a sus alumnos, utilizando la programación estructurada y
estructuración de datos.

Fortran:

Es un lenguaje de programación de alto nivel de propósito general, procedimental e


imperativo, que está especialmente adaptado al cálculo numérico y a la computación
científica.

Lenguaje c:

Es un lenguaje de programación de propósito general originalmente desarrollado por


Dennis Ritchie entre 1969 y 1972 en los Laboratorios Bell, como evolución del anterior
lenguaje B, a su vez basado en BCPL.Al igual que B, es un lenguaje orientado a la
implementación de sistemas operativos, concretamente Unix.

También podría gustarte