Está en la página 1de 35

Módulo 1

FUN DAMEN TOS E H ISTOR IA DE LAS IT

Introducción

1. FUN DAMEN TOS DE IT - EVOLUCIÓN DE LAS IT

1.1 Fundamentos de IT

1.2 Evolución de las IT

CIER R E DEL MÓDULO

Descarga del contenido


14

Introducción

MÓDULO 1 - Ejercicio Profesional de IT


EaD Kennedy

02:06

Abordaremos los conceptos básicos de las Tecnologías de la Información que resultan necesarios
conocer para generar un piso de conocimiento común acerca de las IT. Para ello haremos con un
recorrido genérico del desarrollo de las tecnologías informáticas y los alcances de éstas, incluyendo su
historia y los aspectos básicos.
MAPA COMPLETO

Objetivos del módulo

Explicar los elementos básicos constitutivos de las IT.


Describir la evolución de las tecnologías de la información desde sus orígenes hasta la actualidad.

UNIDAD 1
1.1 Fundamentos de IT.
Fundamentos de IT -
1.2 Evolución de las IT.
Evolución de las IT.

Una breve historia de la tecnología de la información

Aquí podrán ver un recorrido histórico breve y parcial sobre los cambios sucedidos en las IT.
03:56

gbmy2010 (2010). Una breve historia de la tecnología de la información. Recuperado el 2 de septiembre de 2021de

YouTube.

C O NT I NU A R
24

1.1 Fundamentos de IT
La tecnología es reconocida como aquella actividad social del saber hacer que intenta brindar respuestas a
las demandas sociales en cuanto a la distribución, producción y uso de procesos, bienes y servicios. Para
ello, se hace un uso organizado, creativo y planificado de la información y los recursos de un grupo social.

El nombre INFORMÁTICA tiene su origen en la contracción de INFORmación y de autoMÁTICA.


En la siguiente unidad haremos un recorrido breve por algunos fundamentos básicos de las Tecnologías de
la Información (IT) que nos coloque en un piso de conocimiento común acerca de éstas.

Para ello las describiremos y clasificaremos, explicando sus elementos constitutivos, los trabajos y las
disciplinas relacionadas con estas tecnologías.

Podremos ver, a través de la historia de su desarrollo, como han evolucionado en los aspectos básicos de
transformaciones en el hardware y en el software. Si bien la historia de lo que hoy llamamos informática

arrancó muy lentamente, luego se disparó con la llegada de las conexiones de red, los buscadores y, ahora,
con los dispositivos ultraportátiles.

Fundamentos
Las Tecnologías de la Información (TI), como concepto, hacen referencia a todas aquellas tecnologías que
permiten y dan soporte a la construcción y operación de los sistemas de información, las cuales pueden ser
tecnologías de hardware, software, tecnologías de almacenamiento y tecnologías de comunicaciones (Asín,

2005).

Las TI incluyen los productos que almacenan, procesan, transmiten, convierten, copian o reciben
información electrónica.

Descripción y clasificación de las IT

Como es una disciplina tecnológica, la Informática, incluye las actividades (desarrollo, investigación,
ejecución, etc.), el producto que resulta de éstas (bienes, conocimientos, servicios, etc.) que darían

respuestas temporales a necesidades e inquietudes de una sociedad determinada. Es una ciencia y una
ingeniería a la vez. Necesita del desarrollo de estudios experimentales y teóricos.

Por lo dicho antes, los problemas estarían relacionados generalmente con la transferencia, adquisición,
almacenamiento y procesamiento de datos (e información) para encontrar sus soluciones asociando las

técnicas (capacidad inventiva, herramientas, conocimientos) con las ciencias, con las estructuras
económicas y socio-culturales del ámbito social.

El abordaje de las IT abarca tanto el estudio, como el diseño, el desarrollo, la innovación, la implementación
y el gerenciamiento de los sistemas informáticos computarizados. En general se hace referencia al uso del
software y el hardware, con el objeto de almacenar, de convertir, proteger, procesar, recuperar y transmitir

la información entre otras cosas más.

Por si acaso no lo tuvieran presente, cuando se habla de HARDWARE se hace referencia a las partes
tangibles, físicas de un sistema informático o sea todos los componentes eléctricos y electrónicos.
Comúnmente se dice que cualquier elemento del sistema que se pueda tocar y ver forma parte del hardware:
una placa de video, una placa madre, un teclado, un mouse, etc.
Y cuando se habla de SOFTWARE se hace referencia a los datos almacenados, a la información y también a
todos los programas que garantizan el funcionamiento correcto del sistema y la realización de tareas
específicas. Es la parte lógica del ordenador. Usualmente se dice que cualquier elemento del sistema que

NO se pueda tocar (ni ver físicamente) está incluido en lo que se considera software.

Un sistema informático (computadora u otro dispositivo) es operativo si el software y el hardware


interactúan sin conflictos.

La tecnología informática en la actualidad (2021) se ocupa de procesos y actividades que influyen

directamente en nuestra cotidianidad. No obstante, como se puede ver en los últimos años, el avance
exponencial de las tecnologías ha permitido extender sus plataformas más allá de "la computadora".

Detrás de cada nuevo equipamiento, de cada tarea que sea desarrollada por/con software, se encuentran
las T.I. apuntando a un mejor uso y manejo de sus herramientas. Algunos ejemplos pueden ser:

Programas para aplicaciones específicas.

Sistemas operativos.

Sistemas y aplicaciones basadas en redes de datos y otros medios de telecomunicación.

Dispositivos y sistemas de procesamiento de video, productos de multimedia.

Técnicas y equipamiento de oficina (ofimática).

Programas de instrucción y enseñanza a distancia.

Trabajos vinculados a estas tecnologías


Algunos de los posibles trabajos de los profesionales - Ingenieros y/o Técnicos en Informática - incluyen:

Gerencia de datos.

Diseño de los sistemas de base de datos.

Establecimiento de redes informáticas.

Especialistas en Hardware.

Diseño del software.

Diseño y análisis de sistemas de información.

Gerenciamiento de sistemas.

Seguridad Informática (ciberSeguridad).

Soporte Técnico.

Investigación económica y de ciencia de datos.

Gobierno electrónico o egoverment.

Salud electrónica, cibermedicina o ehealth-

Telemedicina.

Teletrabajo o teleworking.

Educación no presencial o e education.


Comercio electrónico o e bussiness.

Inteligencia de negocios o bussiness intelligence.

Arquitectura Tecnológica/ Arquitectura Empresarial de IT (AEIT).

A esto añadimos las tecnologías emergentes, por ejemplo: IoT (Internet de las Cosas), IA (Inteligencia
Artificial), BigData y Cloud Computing, entre otras. Éstas ya forman parte del día a día de la gestión de los

negocios y son especialmente atractivas para los profesionales que hayan alcanzado cierto grado de
conocimiento en tecnología Informática.

Aunque muchísimas organizaciones dependen mucho de las IT, esta lista (muy resumida ya que se amplía
constantemente) muestra aquellas empresas que son directamente dependientes:

Sistemas de Computación.

Desarollo de Software.

Desarrollo de Hardware.

Consultoría de la tecnología informática.

La tecnología informática con servicios.

Outsourcing de procesos de negocios.

Disciplinas relacionadas
Considerándola como una disciplina científica y tecnológica, la Informática, está conformada por elementos
disciplinares que están interrelacionados. Aplica a fenómenos relacionados con objetos de su dominio
(información, sistemas, entre otros) y utiliza tanto conjuntos de métodos y procedimientos (abstracción,

modelización) para abordar y conocer los fenómenos asociados al tratamiento sistémico de la información,
como también teorías (Teoría de las organizaciones, por ejemplo) que conceptualizan sus objetivos. Igual
que en otras disciplinas, sus aplicaciones tecnológicas y/o prácticas están sustentadas y cuentan con
procedimientos y métodos propios.

Las herramientas tecnológicas de las IT se originan en la necesidad de resolver situaciones propias de la


aplicación de los conocimientos científicos de diferentes disciplinas.

La informática aparece como resultado de la interacción de múltiples disciplinas científicas: computación,


electrónica, cibernética, telecomunicaciones, matemática, lógica, lingüística, ingeniería, inteligencia
artificial, robótica, biología, psicología y estudios sobre las organizaciones, entre muchas otras. Al estudiar y
desarrollar productos y servicios, sistemas e infraestructuras de la sociedad de la información, las artes y
ciencias en dimensión humana se hacen evidentes dentro de estas tecnologías.

Cuando se trabaja en la comprensión de problemas aplicando las IT, según sea necesario, por ejemplo, para

crear simulaciones de procesos sociales y naturales la Informática resulta enriquecida por esas disciplinas
y a su vez las enriquece.

La información cuenta con una estructura, circula en diferentes niveles y los niveles superiores se soportan
en los niveles inferiores. Para entender esta estructura puede resultar útil emplear el concepto de capas; por
ejemplo, una capa física (hardware) y una capa lógica (software). Éste último también posee varias
subcapas (software de uso general, sistemas operativos, aplicaciones, etc.).

El esquema podría aplicarse tanto en los sistemas naturales como en los artificiales, pudiéndose afirmar
que para la organización de cualquiera de los sistemas conocidos, es fundamental la información. La
informática pretende desarrollar -y aplicar- consistentemente los principios matemáticos y teóricos a los
sistemas en todos los niveles.

Veremos ahora algunos ejemplos de asociaciones. Las IT pueden encontrarse con:

La matemática

Cualquier sistema informático se sustenta en las matemáticas. Sabemos que éstos están constituidos por
calculadoras complejas con las que se realizan cientos de miles de operaciones en menos de un segundo,
según instrucciones generadas y de forma automatizada. A su vez los gráficos en las pantallas se generan
por interacciones de datos con algoritmos matemáticos, y tienen mayor realismo a medida que los
sistemas ejecutan procesos complejos en tiempos menores. Los modelos matemáticos estadísticos,
probabilísticos, algebraicos, algorítmicos (entre muchos otros) son la base para el procesamiento y el
análisis de los datos.

La lógica

Hace posible el funcionamiento de un ordenador. Gracias a ella el microprocesador es capaz de “decidir”
entre diferentes alternativas bajo un sistema predefinido de BYTES.

La electrónica

Ligada a la informática muy estrechamente a medida que la electrónica evoluciona reduciendo tamaños,
velocidades y costos, se logran sistemas más rápidos, económicos y eficaces.
La física

La informática cuántica apareció en 1980 y se sustenta en uno de los principios de la física cuántica, el de
la superposición. Los procesadores que conocemos basados en BITS son muy limitados comparados con
los denominados “cuánticos”, basados en QUBITS. Para ilustrar esto es interesante considerar que en 2020
un equipo de Google informa haber creado un procesador, llamado Sycamore, capaz de realizar en 200
segundos un cálculo que una supercalculadora "clásica" hubiera resuelto en unos 10.000 años. Si esto no
asombra científicos chinos dan cuenta de un computador fotónico, llamado Jiuzhang, que realizó en 200
segundos un cálculo que tardaría 2500 millones de años en un superordenador común.

Podemos añadir que las IT están al servicio de muchas otras áreas que las utilizan para simplificar tareas
comunes, y no tan comunes, como por ejemplo en medicina, en química, etc.

La informática puede también concebirse al mismo tiempo como ciencia teórica y como una disciplina con
carácter empírico sobre los fenómenos vinculados con la computación y la información. La estructura de la
Informática está formada por una variada red de teorías y disciplinas: la Cibernética, la Teoría de la

Información y la Comunicación, la Teoría General de los Sistemas, las teorías matemáticas y lógicas, la
Teoría de Lenguajes Formales y Autómatas, entre otras.

Su eje es la Teoría de la Computabilidad, muy vinculada con la matemática, y su concepto clave es el


concepto de algoritmo. Esta es la causa por la cual, algunos autores identifican esta teoría como la teoría de

algoritmos. Esta teoría se elaboró a partir de los trabajos de Church, Gödel, Kleene, Markov y otros, a partir de
los años 30.

Las cuestiones metodológicas de la Informática se asocian a su teoría central y al conjunto de sus teorías
junto a los procederes técnicos que la vinculan a las situaciones concretas.
La ciencia cognitiva es interdisciplinaria y la componen muchas áreas disciplinares como la filosofía, la
lingüística, la psicología y la informática. La psicología cognitiva se desarrolló, debido al impulso dado por
investigaciones en IA (Inteligencia Artificial). Por lo antes planteado la informática se constituye como una

de las columnas de las ciencias cognitivas, junto con la Biología y la Psicología. La computación cognitiva,
por lo dicho, se centra en el estudio del cómo se da el procesamiento de la información y cómo suceden
estos procesos en el cerebro.

Visualizar al ser humano como un “procesador de información” originó la Psicología Cognitiva. Cabe aclarar

que, si bien existe cierta analogía entre el funcionamiento de la mente humana y el computador, son más las
diferencias que las similitudes. Las computadoras no podrían pensar en abstracto y una computadora
manipula datos /información, no significados. Un significado es cualitativo y no tiene representación sin la
mente que lo interprete. Los símbolos con que trabaja un sistema informático, desde un punto de vista
semántico, son nada más que señales que generan acciones, no son vehículos de comprensión ni de
conocimiento, como los símbolos verdaderos.

La Bioinformática es una disciplina científica novedosa que se ocupa de estudiar los aspectos relacionados
con la distribución, adquisición, procesamiento, almacenamiento, análisis e interpretación de información
del campo de la biología; aplicando técnicas y utilizando herramientas de la biología, la matemática y,
obviamente, de la informática. Sus problemáticas están relacionadas no solo con problemas de tipo
técnicos (la gestión de volúmenes importantes de datos, por ejemplo), sino con las formas para construir
nuevo conocimiento con ellos (Joyanes Aguilar, 2003).

La informática social forma parte del estudio interdisciplinario del diseño, de los usos de las tecnologías de
la comunicación y de la información y su interacción con los contextos culturales e institucionales. Este
término surge durante la década de los 90 al sistematizarse unos estudios sobre aspectos sociales de la
computarización. Con Informática social nos referimos, entonces, al corpus de conocimientos con los que
se estudian las influencias en los distintos contextos organizacionales del uso de IT o cómo es la

interacción entre la sociedad y las IT.


La informática cultural consiste en una práctica de desarrollo técnico incluyendo la investigación de las
relaciones entre la cultura y la informática, o sea, a partir de la fusión de dos especializaciones informáticas:
la informática social y la de herencia cultural, relacionadas una con la gestión de archivos históricos,
museos y bibliotecas y la otra con el trabajo con las artes y humanidades en general. Entre los usuarios hay
decisores políticos, estudiantes de humanidades, archiveros, especialistas de información, publicadores
electrónicos, curadores de museo, gerentes de colecciones y educadores. El propósito está vinculado a la
investigación de los cambios en actitudes y valores culturales en el pasado y en tiempo real convirtiéndose
en una tarea compleja, ya que se necesitan sistemas que puedan manejar diversos grupos culturales con
centenares - y hasta miles- de idiomas.

La geoinformática, o GeoMática es una disciplina surgida de la interacción de la informática y las ciencias


de la tierra. Puede ser concebida como una rama del conocimiento que se enfoca en estudiar la naturaleza
en cuanto a estructura de los datos e información geográfica o espacial, al desarrollo y uso de técnicas,
procedimientos, métodos para registro gráfico y para la comunicación de información espacial diversa.

La ingeniería informática es rama de la ingeniería que utiliza la aplicación de los fundamentos de ciencia de
la información y las ingenierías de las computadoras, de los sistemas de información, de software y de

redes y comunicaciones, con el fin de desarrollar soluciones integrales de cómputo y comunicaciones para
ser capaces de procesar información automáticamente. Son profesionales como ingenieros de IA, expertos
en teoría de la información y comunicación, entre otros muchos.

Maquina Enigma

Reconstrucción de una Máquina de encriptación Enigma utilizada en la Guerra Civil Española. Breve
explicación de cómo funciona ENIGMA el dispositivo que dio origen a las IT.
06:42

3D UBU (2018). Maquina Enigma. Recuperado en septiembre 2021 de YouTube.

C O NT I NU A R
34

1.2 Evolución de las IT

Si registramos que la mayoría de las actividades trascendentes como el


transporte aéreo comercial, los análisis para las decisiones
macroeconómicas, la administración e investigación médica, las operaciones
aeroespaciales y muchísimas otras más, no existirían (o serían muy
diferentes) sin el sustento de las tecnologías informáticas, podemos tomar
conciencia de que el efecto de éstas en el desarrollo de nuestras formas de
vivir en sociedad ha sido casi revolucionario.

Sólo al comparar un smartphone con la capacidad de cálculo y


procesamiento de las máquinas primigenias y la cantidad de datos que
podían almacenar y recuperar de su memoria, se evidencia un ritmo de
modificaciones que ninguna tecnología había alcanzado. Al ver una escena
del cotidiano de hace 50 años y compararla con una del 2020 asombra la
cantidad de aparatos digitales que hay instalados en nuestros lugares y
revela un ritmo de crecimiento que no da muestras de ralentizarse.
Veamos, en un recorrido por la historia del desarrollo tecnológico, como
sucedieron los cambios para llegar a lo que en las primeras décadas del siglo
XXI hemos naturalizado.

Historia de las tecnologías informáticas

El recorrido podría comenzar desde los primeros aparatos de cálculo que


datan de la era pre cristiana. Sistemas basados en tablas de arcilla, nudos y
cuentas en sogas (el quipu de los pueblos originarios), tableros con fichas,
etc. Luego por el 1600 la máquina de sumar de Pascal y después la máquina
de Gottfried y Leibniz (que además de sumar multiplicaba) cuyo principio de
funcionamiento perduró hasta la década del setenta.

Babbage en 1830 presentó el proyecto de una máquina que funcionaría con


motor de vapor y tendría los componentes básicos de un ordenador actual:
llamó MILL a la unidad aritmética (la ALU actual) y STORE al dispositivo de
memoria que iba a usar tarjetas perforadas. En 1871, año de su muerte, se
habían construido unas partes solamente. Es interesante registrar que la
idea de las tarjetas perforadas se mantuvo y se utilizó posteriormente en la
oficina de censo para el procesamiento de los datos.

Como pueden imaginarse esto continuó con una importante cantidad de


intentos y algunos logros. Algunos nombres propios de estos tiempos que
aún siguen existiendo son Remington e IBM, quienes fueron competencia en
los años siguientes.

Los cambios en el hardware

Tomemos como punto de partida de este recorrido para visualizar la


evolución de la informática, a la creación de la máquina de Turing. Se trató de
un dispositivo que manipulaba símbolos sobre una cinta (de acuerdo con una
tabla de reglas), constituyendo todo un modelo computacional que podía
adaptarse para simular la lógica de cualquier algoritmo. Una verdadera
genialidad.

Alan Turing (británico) desarrolló Colossus el mismo año en el que Konrad


Zuse (alemán) terminó el Z1, primer computador electro-mecánico. La
máquina de Turing fue descrita en 1936 como respuesta al ensayo del
matemático alemán David Hilbert “On Computable Numbers, with an
Application to the Entscheidungsproblem” (“Sobre números computables, con
una aplicación al problema Entscheidungs”) que logró demostrar que algunas
de esas máquinas podrían realizar cualquier cálculo matemático que pueda
representarse con algún algoritmo.

La máquina trabajaba con modelos matemáticos operando sobre una cinta.


En esta cinta había símbolos que la máquina podía escribir o leer, uno a la
vez. Las operaciones que la máquina podía realizar estaban determinadas
por un conjunto finito de instrucciones elementales como, por ejemplo, “si el
estado es 5 y el valor es 0 escribe 1 y pasa al estado 32”.

Figura 1. COLOSSUS (1944). Imagen recuperada de:


https://lapasiondepensar.files.wordpress.com/2018/06/3375459587_467275917f_z.jpg

Una máquina de Turing constaba de los siguientes elementos:

Una cinta con celdas adyacentes y en cada celda un símbolo de


algún alfabeto finito. El alfabeto utilizado debía tener un blank
symbol (símbolo en blanco) y uno -o más- símbolos adicionales.
Para el análisis la cinta debe suponerse infinita.
Un cabezal con posibilidades de lectura y escritura de símbolos en
la cinta y que pueda mover la cinta a la derecha o a la izquierda una
posición.

Una tabla de instrucciones con tuplas de cinco elementos que


según el estado en el que se encuentra actualmente la máquina y
según el símbolo que está siendo leído indica a la máquina que
ejecute la siguiente secuencia:
-Escribir o borrar un símbolo
-Mover el cabezal (a la derecha o la izquierda)
-Asumir un estado nuevo o el mismo según lo indicado
-Registro de estados para almacenar el estado de la máquina de Turing.

Este fue el modelo de computación que presentó el avance teórico más importante que condujo a la idea de
programa almacenado de computadoras.

La Enigma fue una máquina electromecánica usada para enviar mensajes cifrados por la Alemania nazi
durante la Segunda Guerra Mundial.
Figura 2. ENIGMA. (1936). Imagen recuperada de:
https://historia.nationalgeographic.com.es/medio/2017/02/15/enigma1_e40ce539.JPG

Turing participó activamente tanto en el desarrollo de dispositivos de


análisis criptográfico como aportando muchas de las ideas que llevaron al
éxito cuando lograron descifrar el algoritmo de encriptado que utilizaba la
máquina y que supuso un gran avance en la victoria de los aliados. Para
ampliar contextualmente el tema les recomendamos ver el film titulado
“CÓDIGO ENIGMA”(2014) dirigido por Morten Tyldum.
Turing especificó un mecanismo electromecánico que, mejorado con
sugerencias realizadas por el matemático Gordon Welchman, ayudaba en la
misión de romper el algoritmo de la máquina Enigma más rápido que B O M B
A (el dispositivo de fabricación polaca que se estaba usando hasta ese
momento). La máquina de Turing se convirtió en una de las principales
herramientas automatizadas para la lucha contra el tráfico de mensajes
protegidos con Enigma por la Alemania nazi.

 Un dato que nos da una idea de la genialidad de Alan Turing.

En 1950 abordó el problema de la inteligencia artificial y propuso el experimento que hoy se


conoce como el test de Turing cuya intención fue intentar definir un estándar por el cual se
pudiera conocer si una máquina podía, o no, ser etiquetada como “inteligente“. La idea se
basaba en que se podría llegar a decir que una computadora “piensa" si un interrogador
humano no pudiera distinguir a través de una conversación si está conversando con un
humano o con una máquina.

Muchos años antes de que el concepto de las IA se hiciera realidad, Turing propuso simular
una mente artificial infantil y someterla a un proceso de aprendizaje.

Durante el conflicto bélico aparecieron otras máquinas de cálculo: Z3,


ABC (de Atanasoff y Berry), Mark I -y Mark II- de Aiken, entre otras. Algunos
meses después de finalizar la guerra el ENIAC - Electronic Numerical
Integrator and Computer o Computador e Integrador Numérico Electrónico en
castellano - ya estaba en marcha. Estos primeros grandes ordenadores, así
como el Whirlwind -construido en el M.I.T. (Instituto Tecnológico de
Massachusetts)- que fué el primero en trabajar en tiempo real, se habían
diseñado para realizar cálculos militares. En estos años cada programa se
concebía para una máquina concreta. No existía aún el concepto de sistema
operativo, que no llegó como tal hasta la década de los 50.

Hasta este punto el progreso de la informática había sido relativamente


lento, consecuencia de siglos de descubrimientos en varias áreas del
conocimiento. Universidades, centros de investigación (como los
Laboratorios Bell), y empresas como Hewlett-Packard ya existían y
trabajaban en tecnologías directamente relacionadas con la computación.

Quizá el camino de la informática hubiera sido similar al de otras áreas


tecnológicas, pero la utilización con fines militares en la llamada Guerra Fría
le brindó el impulso económico y la motivación para acelerar su desarrollo.

Entre 1950 y 1970 reinaba el escepticismo, situación comprensible dadas las


dificultades por la gran cantidad de problemas de ingeniería que se
suscitaban al intentar conseguir que el equipo funcionara correctamente.
Aún así pudieron presentar el UNIVAC, un ordenador enorme del cual se
vendieron aproximadamente 20, antes de los sesenta.

En 1960 los transistores ya estaban lo suficientemente probados para que


pudieran reemplazar eficientemente a los tubos (o válvulas) de vacío, las
memorias se podían construir con tambores y/o cintas magnéticas aunque
los programas se introducían aún con tarjetas perforadas.

En el 65’ los “miniordenadores” entran al mercado. Estos dispositivos habían


sido creados a partir del proyecto Whirlwind desarrollado en el MIT para el
departamento de defensa. En 1968 se funda INTEL con el propósito de
construir, con chips de silicio, los reemplazos de las memorias con núcleos
magnéticos. En 1971 un periodista bautiza la región donde se encontraba
INTEL con el nombre de Silicon Valley.

En el 75’ comenzaron a vender ALTAIR, primer equipo informático que


costaba menos de 400 USD. Luego IBM presenta el disquete para
almacenar.

En 1977 ingresa al mercado Apple II y los programas (el software) pasan a


primer plano. Así es que las empresas de software, como Microsoft,
comienzan a dominar las noticias sobre innovación.

El resto es historia seguramente conocida para ustedes: los cambios


vertiginosos y los dispositivos cada vez más portables.

Cambios en el software

Volvamos hacia atrás en el tiempo. Hasta que aparecieron los sistemas operativos, los programadores
debían conocer el funcionamiento del hardware y programar directamente en código binario, tanto la parte
física como la lógica. Una tarea muy, pero muy complicada.

A finales de los años 40, el acceso se hacía mediante una consola desde la cual se actuaba sobre unos
microinterruptores con los que se introducía el programa directamente en la memoria.

El radar, igual que los ordenadores con circuitos valvulares, era un invento relativamente nuevo y ambos
sistemas nunca habían “trabajado juntos". La idea de juntarlos hizo necesario un dispositivo de transmisión
de datos aún no inventado- que después desembocaría en la creación de lo que conocemos hoy como
módem.

Se necesitaba también un mecanismo para almacenamiento masivo de datos y una pantalla que los
mostrara para un operador. Ese desafío se concretó en el Proyecto Lincoln (año 1951) en el que intervinieron
empresas privadas y algunas universidades.

Para imaginarnos mejor la situación, en esta primera etapa se empleaban 8Kb de memoria (difícil de

imaginar en estos días de Gigas y Teras) y sólo unos pocos miles de líneas de código. Eran obviamente
insuficientes para atender las necesidades reales pero, a medida que resolvía problemas parciales, el
sistema continuó evolucionando.

El 20 de abril de 1951 se llegó a poner en funcionamiento una estación experimental que se convirtió en el

primer sistema que logró el uso, en tiempo real compartido en un ordenador (Whirlwind I), de un lápiz óptico,
un sistema de visualización CRT (tubo de rayos catódicos), una interfaz gráfica de usuario en tiempo real
(muy similar a la que conocemos hoy) y además empleó el módem para transmitir datos usando líneas
telefónicas.

Los sistemas operativos (SO) aparecen de manera incipiente tras los conceptos de monitor residente y

almacenamiento temporal.

Luego vino la instalación de estaciones operativas del Proyecto SAGE (Semi-Automatic Ground
Environment). Cada sistema SAGE funcionaba a 0,17 Mhz y, completo, constaba de 24 equipos FSQ-7 con
un peso individual de 250 toneladas y un consumo por unidad de 3.000 kiloWatts (unos 3000 caloventores
chicos). El problema del almacenamiento de los datos se resolvió mediante tambores magnéticos, de
lectura y escritura independientes, memoria que hoy conocemos como DMA. La primera estación SAGE

comenzó a funcionar en 1958.

Figura 3. Proyecto SAGE. (1958). Imagen recuperada de: https://blogthinkbig.com/proyecto-sage-de-ibm

Robert Patric, de General Motors, recién en 1956 concibió a GM-NAA I/O (General Motors North American

Aviation Input/Output), el primer sistema operativo de la historia, para un computador IBM 701.

Durante los años 60 ocurrió una revolución en el terreno de los sistemas operativos. De pronto, todo fue
“multi”: multiprocesador, multiusuario, multitarea y sistemas en tiempo real. Fue en esta época que aparece
el sistema operativo UNIX, fruto de un proyecto para construir un sistema operativo interactivo que incorporó

robustas políticas de seguridad para los sistemas.

El M I T, General Electric y los Laboratorios Bell de AT&T experimentaban con un sistema operativo que
llamaron Multics (sigla de Multiplexed Information and Computing Service o Servicio de Informática e
Información Multiplexada) pensado para una computadora modelo GE-645. El objetivo del proyecto era
desarrollar un gran sistema operativo interactivo que contase con muchas innovaciones, por ejemplo
mejoras en las políticas de seguridad. De hecho ésta fue la primera computadora que utilizó una memoria
protegida por lo que denominaron “hardware configurable”. El proyecto obtuvo algo de éxito y consiguió

algunas versiones para ser producidas, pero las primeras tuvieron un pobre rendimiento entonces los
laboratorios de AT&T decidieron apartarse y enfocar recursos en otros desarrollos.

A finales de los 60 la seguridad informática estaba sustentada en que había muy pocos ordenadores y, por lo
tanto, el acceso a éstos estaba reservado al escasísimo personal técnico capaz de entender esos
dispositivos.

Figura 4. Clementina. (1961). Imagen recuperada de: https://pizarrasypizarrones.blogspot.com/2011/07/argentina-

festeja-los-cincuenta-anos-de.html

 Dato histórico: El 15 de mayo de 1961, en el Pabellón I de la Ciudad Universitaria de la


Universidad de Buenos Aires, empezó a funcionar una computadora modelo Mercury de la
compañía británica Ferranti. Se la utilizó para hacer, entre otras cosas: la simulación del
tráfico telefónico, estimaciones de distribución de combustibles para YPF, confirmaciones
en el cálculo de la órbita del cometa Halley, análisis de datos de radiación cósmica para el
Departamento de Física de la Facultad de Ciencias Exactas de la UBA, y otras aplicaciones
más.

Con la aparición del circuito integrado se evidenciaron cambios notorios apuntando a continuar aumentando

la potencia de procesamiento.

Luego apareció el sistema operativo QNX, creado a principios de 1980 de la mano de Quantum Software
Systems. Fue uno de los primeros en tener éxito en pequeños aparatos (routers, dispositivos de control tanto
para navegación aérea como destinados a trenes de alta velocidad, etc.), y también hizo su incursión en el
escritorio.

Comenzaba el auge de los equipos personales. Dejaron un poco de lado el rendimiento y buscaron la
“amigabilidad” del SO por eso aparecen interfaces gráficas que, si bien reducían la rapidez de las
aplicaciones, se hacían más simples y prácticos para usuarios. Siguieron utilizándose lenguajes como el
Smalltalk o el “C” y aparecieron otros nuevos, de los que se podrían destacar: C ++ y Eiffel.

Muy cerca en el tiempo, surge el MS-DOS, sistema operativo de Microsoft que resultó todo un éxito
comercial a pesar de no ser “multi”. Sus fortalezas radican en el enfoque hacia la informática del consumo y
también su sencillez en todos los aspectos: tamaño, facilidad de instalación y manejo, y recursos
necesarios. A pesar de no haberse modificado desde mitad de los 90, este sistema aún sigue "animando"
dispositivos que no requieren grandes funciones.

El OS/2 nació como proyecto conjunto de Microsoft e IBM para reemplazar a MS-DOS a finales de la
década de los 80. La versión 1.0 apareció en 1987 y estaba destinada al procesador 80286 de Intel. El gestor
de ventanas llegó con la versión 1.1, y cuando alcanzaron la 1.3, Microsoft siguió por la senda de Windows

con su 3.0 e IBM continuó desarrollando OS/2. La última versión de OS/2 Warp (4.52) terminó de publicarse
a finales de 2001. A pesar de todo el tiempo que transcurrió desde entonces OS/2 sigue presente. ¿Dónde?
En los cajeros automáticos de algún que otro banco.
El derivado de UNIX que más trascendencia tuvo es GNU/Linux. El mal nombrado "Linux" es resultado de dos
proyectos inicialmente diferentes: GNU (acrónimo recursivo de GNU's Not Unix!) de Richard Stallman, y el
núcleo Linux, derivado de otro enfoque desarrollado por Linus Torvalds en 1991. Linux poseía una forma

visual atractiva.

Windows XP, sucesor de otro sistema operativo mítico el Windows 95, es hasta hoy el sistema operativo de
Microsoft para el mercado de consumo que más éxito ha tenido, tanto por número de usuarios como por
años de vida.

SymbOS fue un SO gráfico con estética e interfaz similar a Windows 95 desarrollado en 2001 para
ordenadores Amstrad CPC. A pesar de la baja potencia de este tipo de ordenadores está minuciosamente
optimizado para el hardware y el rendimiento resulta más que aceptable.
Por otro lado, Illumos es el nombre del código base a partir del cual cualquier usuario creará su propia

distribución basada en el sistema operativo OpenSolaris.

Y la historia continúa.

Las IT pueden asociarse con diferentes disciplinas,


¿Cuál es la disciplina que hace posible el

funcionamiento de un ordenador, que permite que un


microprocesador sea capaz de “decidir” entre
diferentes alternativas bajo un sistema predefinido de
bytes?
El comercio electrónico.

La física.

La electrónica.

La matemática.

La lógica.

SUBMIT
Bibliografía de referencia

Barchini, Graciela Elisa (2006). Informática: Una disciplina bio-psico-socio-tecno-cultural. Revista


Ingeniería Informática, edición 12, abril 2006. Recuperado el 3 de agosto de 2021 de:
http://inf.udec.cl/~revista/ediciones/edicion12/articulo%2012-3.pdf.

Ceruzzi, Paul E. (2009). Historia de la Informática. Recuperado el 7 de julio de 2021 de:


https://www.bbvaopenmind.com/articulos/historia-de-la-informatica/.

González Salamea, Carlos G (2003) La Informática Médica y los Sistemas de Información.

Simari, Guillermo R. (2013). Los fundamentos computacionales como parte de las ciencias básicas
en las terminales de la disciplina Informática. Recuperado el 7 de agosto de 2021, de:
http://sedici.unlp.edu.ar/bitstream/handle/10915/27579/Documento_completo.pdf?
sequence=1&isAllowed=y.

C O NT I NU A R
44

Descarga del contenido

¿Quieres imprimir el contenido del módulo?


Para descargar el contenido del módulo, e imprimirlo, haz clic en el archivo que se encuentra a continuación.

También podría gustarte