Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
1.1 Fundamentos de IT
Introducción
02:06
Abordaremos los conceptos básicos de las Tecnologías de la Información que resultan necesarios
conocer para generar un piso de conocimiento común acerca de las IT. Para ello haremos con un
recorrido genérico del desarrollo de las tecnologías informáticas y los alcances de éstas, incluyendo su
historia y los aspectos básicos.
MAPA COMPLETO
UNIDAD 1
1.1 Fundamentos de IT.
Fundamentos de IT -
1.2 Evolución de las IT.
Evolución de las IT.
Aquí podrán ver un recorrido histórico breve y parcial sobre los cambios sucedidos en las IT.
03:56
gbmy2010 (2010). Una breve historia de la tecnología de la información. Recuperado el 2 de septiembre de 2021de
YouTube.
C O NT I NU A R
24
1.1 Fundamentos de IT
La tecnología es reconocida como aquella actividad social del saber hacer que intenta brindar respuestas a
las demandas sociales en cuanto a la distribución, producción y uso de procesos, bienes y servicios. Para
ello, se hace un uso organizado, creativo y planificado de la información y los recursos de un grupo social.
Para ello las describiremos y clasificaremos, explicando sus elementos constitutivos, los trabajos y las
disciplinas relacionadas con estas tecnologías.
Podremos ver, a través de la historia de su desarrollo, como han evolucionado en los aspectos básicos de
transformaciones en el hardware y en el software. Si bien la historia de lo que hoy llamamos informática
arrancó muy lentamente, luego se disparó con la llegada de las conexiones de red, los buscadores y, ahora,
con los dispositivos ultraportátiles.
Fundamentos
Las Tecnologías de la Información (TI), como concepto, hacen referencia a todas aquellas tecnologías que
permiten y dan soporte a la construcción y operación de los sistemas de información, las cuales pueden ser
tecnologías de hardware, software, tecnologías de almacenamiento y tecnologías de comunicaciones (Asín,
2005).
Las TI incluyen los productos que almacenan, procesan, transmiten, convierten, copian o reciben
información electrónica.
Como es una disciplina tecnológica, la Informática, incluye las actividades (desarrollo, investigación,
ejecución, etc.), el producto que resulta de éstas (bienes, conocimientos, servicios, etc.) que darían
respuestas temporales a necesidades e inquietudes de una sociedad determinada. Es una ciencia y una
ingeniería a la vez. Necesita del desarrollo de estudios experimentales y teóricos.
Por lo dicho antes, los problemas estarían relacionados generalmente con la transferencia, adquisición,
almacenamiento y procesamiento de datos (e información) para encontrar sus soluciones asociando las
técnicas (capacidad inventiva, herramientas, conocimientos) con las ciencias, con las estructuras
económicas y socio-culturales del ámbito social.
El abordaje de las IT abarca tanto el estudio, como el diseño, el desarrollo, la innovación, la implementación
y el gerenciamiento de los sistemas informáticos computarizados. En general se hace referencia al uso del
software y el hardware, con el objeto de almacenar, de convertir, proteger, procesar, recuperar y transmitir
Por si acaso no lo tuvieran presente, cuando se habla de HARDWARE se hace referencia a las partes
tangibles, físicas de un sistema informático o sea todos los componentes eléctricos y electrónicos.
Comúnmente se dice que cualquier elemento del sistema que se pueda tocar y ver forma parte del hardware:
una placa de video, una placa madre, un teclado, un mouse, etc.
Y cuando se habla de SOFTWARE se hace referencia a los datos almacenados, a la información y también a
todos los programas que garantizan el funcionamiento correcto del sistema y la realización de tareas
específicas. Es la parte lógica del ordenador. Usualmente se dice que cualquier elemento del sistema que
NO se pueda tocar (ni ver físicamente) está incluido en lo que se considera software.
directamente en nuestra cotidianidad. No obstante, como se puede ver en los últimos años, el avance
exponencial de las tecnologías ha permitido extender sus plataformas más allá de "la computadora".
Detrás de cada nuevo equipamiento, de cada tarea que sea desarrollada por/con software, se encuentran
las T.I. apuntando a un mejor uso y manejo de sus herramientas. Algunos ejemplos pueden ser:
Sistemas operativos.
Gerencia de datos.
Especialistas en Hardware.
Gerenciamiento de sistemas.
Soporte Técnico.
Telemedicina.
Teletrabajo o teleworking.
A esto añadimos las tecnologías emergentes, por ejemplo: IoT (Internet de las Cosas), IA (Inteligencia
Artificial), BigData y Cloud Computing, entre otras. Éstas ya forman parte del día a día de la gestión de los
negocios y son especialmente atractivas para los profesionales que hayan alcanzado cierto grado de
conocimiento en tecnología Informática.
Aunque muchísimas organizaciones dependen mucho de las IT, esta lista (muy resumida ya que se amplía
constantemente) muestra aquellas empresas que son directamente dependientes:
Sistemas de Computación.
Desarollo de Software.
Desarrollo de Hardware.
Disciplinas relacionadas
Considerándola como una disciplina científica y tecnológica, la Informática, está conformada por elementos
disciplinares que están interrelacionados. Aplica a fenómenos relacionados con objetos de su dominio
(información, sistemas, entre otros) y utiliza tanto conjuntos de métodos y procedimientos (abstracción,
modelización) para abordar y conocer los fenómenos asociados al tratamiento sistémico de la información,
como también teorías (Teoría de las organizaciones, por ejemplo) que conceptualizan sus objetivos. Igual
que en otras disciplinas, sus aplicaciones tecnológicas y/o prácticas están sustentadas y cuentan con
procedimientos y métodos propios.
Cuando se trabaja en la comprensión de problemas aplicando las IT, según sea necesario, por ejemplo, para
crear simulaciones de procesos sociales y naturales la Informática resulta enriquecida por esas disciplinas
y a su vez las enriquece.
La información cuenta con una estructura, circula en diferentes niveles y los niveles superiores se soportan
en los niveles inferiores. Para entender esta estructura puede resultar útil emplear el concepto de capas; por
ejemplo, una capa física (hardware) y una capa lógica (software). Éste último también posee varias
subcapas (software de uso general, sistemas operativos, aplicaciones, etc.).
El esquema podría aplicarse tanto en los sistemas naturales como en los artificiales, pudiéndose afirmar
que para la organización de cualquiera de los sistemas conocidos, es fundamental la información. La
informática pretende desarrollar -y aplicar- consistentemente los principios matemáticos y teóricos a los
sistemas en todos los niveles.
La matemática
–
Cualquier sistema informático se sustenta en las matemáticas. Sabemos que éstos están constituidos por
calculadoras complejas con las que se realizan cientos de miles de operaciones en menos de un segundo,
según instrucciones generadas y de forma automatizada. A su vez los gráficos en las pantallas se generan
por interacciones de datos con algoritmos matemáticos, y tienen mayor realismo a medida que los
sistemas ejecutan procesos complejos en tiempos menores. Los modelos matemáticos estadísticos,
probabilísticos, algebraicos, algorítmicos (entre muchos otros) son la base para el procesamiento y el
análisis de los datos.
La lógica
–
Hace posible el funcionamiento de un ordenador. Gracias a ella el microprocesador es capaz de “decidir”
entre diferentes alternativas bajo un sistema predefinido de BYTES.
La electrónica
–
Ligada a la informática muy estrechamente a medida que la electrónica evoluciona reduciendo tamaños,
velocidades y costos, se logran sistemas más rápidos, económicos y eficaces.
La física
–
La informática cuántica apareció en 1980 y se sustenta en uno de los principios de la física cuántica, el de
la superposición. Los procesadores que conocemos basados en BITS son muy limitados comparados con
los denominados “cuánticos”, basados en QUBITS. Para ilustrar esto es interesante considerar que en 2020
un equipo de Google informa haber creado un procesador, llamado Sycamore, capaz de realizar en 200
segundos un cálculo que una supercalculadora "clásica" hubiera resuelto en unos 10.000 años. Si esto no
asombra científicos chinos dan cuenta de un computador fotónico, llamado Jiuzhang, que realizó en 200
segundos un cálculo que tardaría 2500 millones de años en un superordenador común.
Podemos añadir que las IT están al servicio de muchas otras áreas que las utilizan para simplificar tareas
comunes, y no tan comunes, como por ejemplo en medicina, en química, etc.
La informática puede también concebirse al mismo tiempo como ciencia teórica y como una disciplina con
carácter empírico sobre los fenómenos vinculados con la computación y la información. La estructura de la
Informática está formada por una variada red de teorías y disciplinas: la Cibernética, la Teoría de la
Información y la Comunicación, la Teoría General de los Sistemas, las teorías matemáticas y lógicas, la
Teoría de Lenguajes Formales y Autómatas, entre otras.
algoritmos. Esta teoría se elaboró a partir de los trabajos de Church, Gödel, Kleene, Markov y otros, a partir de
los años 30.
Las cuestiones metodológicas de la Informática se asocian a su teoría central y al conjunto de sus teorías
junto a los procederes técnicos que la vinculan a las situaciones concretas.
La ciencia cognitiva es interdisciplinaria y la componen muchas áreas disciplinares como la filosofía, la
lingüística, la psicología y la informática. La psicología cognitiva se desarrolló, debido al impulso dado por
investigaciones en IA (Inteligencia Artificial). Por lo antes planteado la informática se constituye como una
de las columnas de las ciencias cognitivas, junto con la Biología y la Psicología. La computación cognitiva,
por lo dicho, se centra en el estudio del cómo se da el procesamiento de la información y cómo suceden
estos procesos en el cerebro.
Visualizar al ser humano como un “procesador de información” originó la Psicología Cognitiva. Cabe aclarar
que, si bien existe cierta analogía entre el funcionamiento de la mente humana y el computador, son más las
diferencias que las similitudes. Las computadoras no podrían pensar en abstracto y una computadora
manipula datos /información, no significados. Un significado es cualitativo y no tiene representación sin la
mente que lo interprete. Los símbolos con que trabaja un sistema informático, desde un punto de vista
semántico, son nada más que señales que generan acciones, no son vehículos de comprensión ni de
conocimiento, como los símbolos verdaderos.
La Bioinformática es una disciplina científica novedosa que se ocupa de estudiar los aspectos relacionados
con la distribución, adquisición, procesamiento, almacenamiento, análisis e interpretación de información
del campo de la biología; aplicando técnicas y utilizando herramientas de la biología, la matemática y,
obviamente, de la informática. Sus problemáticas están relacionadas no solo con problemas de tipo
técnicos (la gestión de volúmenes importantes de datos, por ejemplo), sino con las formas para construir
nuevo conocimiento con ellos (Joyanes Aguilar, 2003).
La informática social forma parte del estudio interdisciplinario del diseño, de los usos de las tecnologías de
la comunicación y de la información y su interacción con los contextos culturales e institucionales. Este
término surge durante la década de los 90 al sistematizarse unos estudios sobre aspectos sociales de la
computarización. Con Informática social nos referimos, entonces, al corpus de conocimientos con los que
se estudian las influencias en los distintos contextos organizacionales del uso de IT o cómo es la
La ingeniería informática es rama de la ingeniería que utiliza la aplicación de los fundamentos de ciencia de
la información y las ingenierías de las computadoras, de los sistemas de información, de software y de
redes y comunicaciones, con el fin de desarrollar soluciones integrales de cómputo y comunicaciones para
ser capaces de procesar información automáticamente. Son profesionales como ingenieros de IA, expertos
en teoría de la información y comunicación, entre otros muchos.
Maquina Enigma
Reconstrucción de una Máquina de encriptación Enigma utilizada en la Guerra Civil Española. Breve
explicación de cómo funciona ENIGMA el dispositivo que dio origen a las IT.
06:42
C O NT I NU A R
34
Este fue el modelo de computación que presentó el avance teórico más importante que condujo a la idea de
programa almacenado de computadoras.
La Enigma fue una máquina electromecánica usada para enviar mensajes cifrados por la Alemania nazi
durante la Segunda Guerra Mundial.
Figura 2. ENIGMA. (1936). Imagen recuperada de:
https://historia.nationalgeographic.com.es/medio/2017/02/15/enigma1_e40ce539.JPG
Muchos años antes de que el concepto de las IA se hiciera realidad, Turing propuso simular
una mente artificial infantil y someterla a un proceso de aprendizaje.
Cambios en el software
Volvamos hacia atrás en el tiempo. Hasta que aparecieron los sistemas operativos, los programadores
debían conocer el funcionamiento del hardware y programar directamente en código binario, tanto la parte
física como la lógica. Una tarea muy, pero muy complicada.
A finales de los años 40, el acceso se hacía mediante una consola desde la cual se actuaba sobre unos
microinterruptores con los que se introducía el programa directamente en la memoria.
El radar, igual que los ordenadores con circuitos valvulares, era un invento relativamente nuevo y ambos
sistemas nunca habían “trabajado juntos". La idea de juntarlos hizo necesario un dispositivo de transmisión
de datos aún no inventado- que después desembocaría en la creación de lo que conocemos hoy como
módem.
Se necesitaba también un mecanismo para almacenamiento masivo de datos y una pantalla que los
mostrara para un operador. Ese desafío se concretó en el Proyecto Lincoln (año 1951) en el que intervinieron
empresas privadas y algunas universidades.
Para imaginarnos mejor la situación, en esta primera etapa se empleaban 8Kb de memoria (difícil de
imaginar en estos días de Gigas y Teras) y sólo unos pocos miles de líneas de código. Eran obviamente
insuficientes para atender las necesidades reales pero, a medida que resolvía problemas parciales, el
sistema continuó evolucionando.
El 20 de abril de 1951 se llegó a poner en funcionamiento una estación experimental que se convirtió en el
primer sistema que logró el uso, en tiempo real compartido en un ordenador (Whirlwind I), de un lápiz óptico,
un sistema de visualización CRT (tubo de rayos catódicos), una interfaz gráfica de usuario en tiempo real
(muy similar a la que conocemos hoy) y además empleó el módem para transmitir datos usando líneas
telefónicas.
Los sistemas operativos (SO) aparecen de manera incipiente tras los conceptos de monitor residente y
almacenamiento temporal.
Luego vino la instalación de estaciones operativas del Proyecto SAGE (Semi-Automatic Ground
Environment). Cada sistema SAGE funcionaba a 0,17 Mhz y, completo, constaba de 24 equipos FSQ-7 con
un peso individual de 250 toneladas y un consumo por unidad de 3.000 kiloWatts (unos 3000 caloventores
chicos). El problema del almacenamiento de los datos se resolvió mediante tambores magnéticos, de
lectura y escritura independientes, memoria que hoy conocemos como DMA. La primera estación SAGE
Robert Patric, de General Motors, recién en 1956 concibió a GM-NAA I/O (General Motors North American
Aviation Input/Output), el primer sistema operativo de la historia, para un computador IBM 701.
Durante los años 60 ocurrió una revolución en el terreno de los sistemas operativos. De pronto, todo fue
“multi”: multiprocesador, multiusuario, multitarea y sistemas en tiempo real. Fue en esta época que aparece
el sistema operativo UNIX, fruto de un proyecto para construir un sistema operativo interactivo que incorporó
El M I T, General Electric y los Laboratorios Bell de AT&T experimentaban con un sistema operativo que
llamaron Multics (sigla de Multiplexed Information and Computing Service o Servicio de Informática e
Información Multiplexada) pensado para una computadora modelo GE-645. El objetivo del proyecto era
desarrollar un gran sistema operativo interactivo que contase con muchas innovaciones, por ejemplo
mejoras en las políticas de seguridad. De hecho ésta fue la primera computadora que utilizó una memoria
protegida por lo que denominaron “hardware configurable”. El proyecto obtuvo algo de éxito y consiguió
algunas versiones para ser producidas, pero las primeras tuvieron un pobre rendimiento entonces los
laboratorios de AT&T decidieron apartarse y enfocar recursos en otros desarrollos.
A finales de los 60 la seguridad informática estaba sustentada en que había muy pocos ordenadores y, por lo
tanto, el acceso a éstos estaba reservado al escasísimo personal técnico capaz de entender esos
dispositivos.
festeja-los-cincuenta-anos-de.html
Con la aparición del circuito integrado se evidenciaron cambios notorios apuntando a continuar aumentando
la potencia de procesamiento.
Luego apareció el sistema operativo QNX, creado a principios de 1980 de la mano de Quantum Software
Systems. Fue uno de los primeros en tener éxito en pequeños aparatos (routers, dispositivos de control tanto
para navegación aérea como destinados a trenes de alta velocidad, etc.), y también hizo su incursión en el
escritorio.
Comenzaba el auge de los equipos personales. Dejaron un poco de lado el rendimiento y buscaron la
“amigabilidad” del SO por eso aparecen interfaces gráficas que, si bien reducían la rapidez de las
aplicaciones, se hacían más simples y prácticos para usuarios. Siguieron utilizándose lenguajes como el
Smalltalk o el “C” y aparecieron otros nuevos, de los que se podrían destacar: C ++ y Eiffel.
Muy cerca en el tiempo, surge el MS-DOS, sistema operativo de Microsoft que resultó todo un éxito
comercial a pesar de no ser “multi”. Sus fortalezas radican en el enfoque hacia la informática del consumo y
también su sencillez en todos los aspectos: tamaño, facilidad de instalación y manejo, y recursos
necesarios. A pesar de no haberse modificado desde mitad de los 90, este sistema aún sigue "animando"
dispositivos que no requieren grandes funciones.
El OS/2 nació como proyecto conjunto de Microsoft e IBM para reemplazar a MS-DOS a finales de la
década de los 80. La versión 1.0 apareció en 1987 y estaba destinada al procesador 80286 de Intel. El gestor
de ventanas llegó con la versión 1.1, y cuando alcanzaron la 1.3, Microsoft siguió por la senda de Windows
con su 3.0 e IBM continuó desarrollando OS/2. La última versión de OS/2 Warp (4.52) terminó de publicarse
a finales de 2001. A pesar de todo el tiempo que transcurrió desde entonces OS/2 sigue presente. ¿Dónde?
En los cajeros automáticos de algún que otro banco.
El derivado de UNIX que más trascendencia tuvo es GNU/Linux. El mal nombrado "Linux" es resultado de dos
proyectos inicialmente diferentes: GNU (acrónimo recursivo de GNU's Not Unix!) de Richard Stallman, y el
núcleo Linux, derivado de otro enfoque desarrollado por Linus Torvalds en 1991. Linux poseía una forma
visual atractiva.
Windows XP, sucesor de otro sistema operativo mítico el Windows 95, es hasta hoy el sistema operativo de
Microsoft para el mercado de consumo que más éxito ha tenido, tanto por número de usuarios como por
años de vida.
SymbOS fue un SO gráfico con estética e interfaz similar a Windows 95 desarrollado en 2001 para
ordenadores Amstrad CPC. A pesar de la baja potencia de este tipo de ordenadores está minuciosamente
optimizado para el hardware y el rendimiento resulta más que aceptable.
Por otro lado, Illumos es el nombre del código base a partir del cual cualquier usuario creará su propia
Y la historia continúa.
La física.
La electrónica.
La matemática.
La lógica.
SUBMIT
Bibliografía de referencia
Simari, Guillermo R. (2013). Los fundamentos computacionales como parte de las ciencias básicas
en las terminales de la disciplina Informática. Recuperado el 7 de agosto de 2021, de:
http://sedici.unlp.edu.ar/bitstream/handle/10915/27579/Documento_completo.pdf?
sequence=1&isAllowed=y.
C O NT I NU A R
44