Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Autor:
Mirielys Lorena Mesa Silvera
C.I.: 20.468.487
Médico Integral Comunitario
Introducción……………………………...………………………………………………3
La informática……………………………………………………………………………7
Historia de la informática……………………………………………………………….8
Evolución de la informática……………………………………………………..…….15
Partes del computador………………………………………………………………..23
Que es el monitor y tipos de monitor por evolución……………………………..…27
Que es el teclado y en cuantas partes de divide, explique……………………….34
Que es la unidad de almacenamiento y mencione cuales existen…………….…36
Que es el mouse y mencione su evolución…………………………………………42
Que es la impresora y mencione su evolución…………………………………..…44
Que es un virus y antivirus más conocidos…………………………………………46
Tipos de computadores existentes…………………………………………………..49
Que es el escritorio……………………………………………………………………53
Que es un ícono y tipos de íconos…………………………………………………..55
En qué consiste el panel de control………………………………………………….57
Que es Word y para qué sirve………………………………………………………..60
Que es una letra capital……………………………………………………………….62
Escribe un párrafo y utiliza la letra capital………………………………………..…62
Que es Excel y para qué sirve……………………………………………………….63
Que es Power Point y funciones básicas…………………………………………...65
Qué diferencia tiene el MS-DOS con Windows fundamente su respuesta……..66
Qué es el software libre y su diferencia con Windows fundamente su
respuesta…………………………………………………………………………...…..70
Conclusión…………………………………………………………………………...…74
Bibliografías……………………………………………………..……………………..76
Anexos……………………………………………...…………………………………..79
2
INTRODUCCIÓN
Las computadoras surgen como una necesidad por encontrar mecanismos que
faciliten la realización de operaciones de cálculos matemáticos o aritméticos. Los
equipos de procesamiento de datos, tal como lo vemos en la actualidad, surgen luego
de un proceso de evolución, que va desde los instrumentos de cálculo hasta las
computadoras de última generación en la cual nos encontramos en la actualidad.
Hablar de computación, es hablar de un tema apasionante en todos los sentidos,
nos hace soñar sobre el futuro, nos hace discutir sobre las tecnologías apropiadas y
sus costos, las políticas para desarrollar una industria, institución y un país. Pero
fundamentalmente hablar de computación o informática es hablar de la necesidad de
recursos humanos capacitados, de los cambios en la forma de trabajar y los nuevos
empleos, de las nuevas posibilidades de desarrollo individual y hasta de aprendizaje
con la inserción de la computadora; hablar de computación es hablar de educación.
El origen de las máquinas de calcular está dado por el ábaco chino, éste era una
tablilla dividida en columnas en la cual la primera, contando desde la derecha,
correspondía a las unidades, la siguiente a la de las decenas, y así sucesivamente. A
través de sus movimientos se podía realizar operaciones de adición y sustracción.
Otro de los hechos importantes en la evolución de la informática lo situamos en
el siglo XVII, donde el científico francés Blas Pascal inventó una máquina calculadora.
Ésta sólo servía para hacer sumas y restas, pero este dispositivo sirvió como base para
que el alemán Leibnitz, en el siglo XVIII, desarrollara una máquina que, además de
realizar operaciones de adición y sustracción, podía efectuar operaciones de producto y
cociente. Ya en el siglo XIX se comercializaron las primeras máquinas de calcular. En
este siglo el matemático inglés Babbage desarrolló lo que se llamó "Máquina Analítica",
la cual podía realizar cualquier operación matemática. Además disponía de una
memoria que podía almacenar 1000 números de 50 cifras y hasta podía usar funciones
auxiliares, sin embargo seguía teniendo la limitación de ser mecánica.
3
Recién en el primer tercio del siglo XX, con el desarrollo de la electrónica, se
empiezan a solucionar los problemas técnicos que acarreaban estas máquinas,
reemplazándose los sistemas de engranaje y varillas por impulsos eléctricos,
estableciéndose que cuando hay un paso de corriente eléctrica será representado con
un *1* y cuando no haya un paso de corriente eléctrica se representaría con un *0*.
Con el desarrollo de la segunda guerra mundial se construye el primer
ordenador, el cual fue llamado Mark I y su funcionamiento se basaba en interruptores
mecánicos. En 1944 se construyó el primer ordenador con fines prácticos que se
denominó Eniac. En 1951 son desarrollados el Univac I y el Univac II (se puede decir
que es el punto de partida en el surgimiento de los verdaderos ordenadores, que serán
de acceso común a la gente).
Siguiendo esta línea, en 1954 aparece FORTRAN, el primer lenguaje de alto
nivel, seguido por otros como COBOL, ALGOL, BASIC o PL I. Desde entonces, el
desarrollo y construcción de estas máquinas ha crecido de forma espectacular, siendo
los avances tecnológicos más importantes la invención de los transistores en 1958 y el
posterior desarrollo de los circuitos integrados a partir de mediados de la década de los
60.
En esta época aparecen potentes sistemas de software que facilitan la labor a
los programadores; son los sistemas operativos, de los que se pueden citar como
ejemplo el VMS, MVS o el UNIX. Además, aparecen nuevos lenguajes que toman
como base los postulados sobre programación estructurada de (Dijkstra, 1968), como
son PASCAL (Jensen & Wirth, 1991) o C (Kernighan & Ritchie, 1989). A partir de la
década de los 70, se acentúa el avance en el hardware, gracias a la invención del
microprocesador, que supone una significativa reducción del precio y tamaño en los
ordenadores, haciéndolos más populares.
En 1982 apareció MODULA-2, desarrollado por Wirth para adaptar PASCAL a
las nuevas tendencias en el software, que buscan modularidad y abstracción. En
general, el avance del hardware ha acercado las máquinas al usuario doméstico, y,
conjuntamente, se ha ido incrementando la diversidad, potencia y complejidad del
software. De hecho, el crecimiento del software ha sido más vertiginoso, si cabe, que el
4
del hardware, hasta tal punto que el programa no se hace para dar funcionalidad a una
máquina determinada, sino que se compra un hardware determinado para dotar de
ciertas capacidades (velocidad, posibilidad de almacenamiento, etc.) al programa que
se esté usando.
Actualmente, las computadoras pueden ser definidas como un sistema rápido y
exacto que manipula símbolos y que está organizado de manera que pueda aceptar,
almacenar y procesar datos y producir resultados (salidas) bajo la dirección de una
serie de instrucciones adecuadas (software). Cuando se estudian características de los
ordenadores es necesario referirse a dos componentes bien diferenciadas: hardware y
software.
Del mismo modo, la informática o computación es la ciencia que estudia
los métodos y técnicas para almacenar, procesar y transmitir información de manera
automatizada, y más específicamente, en formato digital empleando sistemas
computarizados.
No existe realmente una definición única y universal de lo que la informática es,
quizá porque se trata de una de las ciencias de más reciente origen, aunque de
desarrollo más vertiginoso y desenfrenado.
Por eso en muchos espacios académicos suelen diferenciar entre esta disciplina
y las ciencias de la computación (o la ingeniería informática), considerando que estas
últimas posen un abordaje más teórico de la materia, mientras que la informática tiene
siempre un costado práctico y aplicado, vinculado con los dispositivos electrónicos.
Otros, en cambio, consideran como subdisciplinas de la informática a las
Ciencias de la computación, la Ingeniería informática, los Sistemas de información, la
Tecnología de la información y la Ingeniería del software.
En todo caso, la informática como disciplina tiene que ver con el procesamiento
automático de la información a través de dispositivos electrónicos y sistemas
computacionales, dotados estos últimos de tres funciones básicas: el ingreso
de datos (entrada), el procesamiento de datos y la transmisión de resultados (salida).
La informática tiene como propósito clave el almacenamiento y la recuperación
de información, lo cual ha sido una de las preocupaciones clave de la humanidad
5
desde el inicio de los tiempos. En ese sentido, el primer sistema de almacenamiento
fue la escritura misma, que permitía codificar mensajes y recuperarlos luego a través
de marcas sobre una superficie.
Vista así, la informática ha llevado ese mismo principio al máximo, creando
sistemas y aparatos que almacenen, produzcan, transmitan y reproduzcan información
de manera masiva, eficiente y veloz. No en balde la informática interviene hoy en día
en prácticamente todos los demás campos del saber de un modo o de otro.
La importancia de la informática hoy en día no podría ser más evidente. En un
mundo hipertecnologizado e hiperconectado, la información se ha convertido en uno de
los activos más preciados del mundo, y los complejos sistemas informáticos que hemos
construido nos permiten administrarlo de manera más veloz y eficiente que nunca antes
en la historia.
La computación es una de las disciplinas de mayor demanda en el mercado
universitario del mundo. Tiene la mayor y más rápida salida laboral, dado que casi
ningún aspecto de la vida cotidiana se mantiene al margen todavía del mundo digital y
de los grandes sistemas de procesamiento de información.
La big data (o “gran información”) que nuestros dispositivos reúnen de nosotros
es evidencia de ello: vivimos realmente en la era de la información, y la informática
entonces no podría ser más importante.
6
LA INFORMÁTICA
7
demoraba tres segundos para realizar una multiplicación o una división. Las
operaciones de suma o resta, en cambio, le insumían 0,7 segundos.
HISTORIA DE LA INFORMÁTICA
8
que se desarrolló por el año 3000 a.C. en el valle entre el Tigris y el Eufrates, aunque
es muy probable que fuese inventado independientemente por varias culturas, como lo
demuestra el hecho de que en el descubrimiento de América se encontró que varias
civilizaciones precolombinas de México y Perú lo utilizaban. Además, se tiene noticia,
por escritos de autores como Plinio y Cicerón, de que los romanos utilizaron varios
tipos de ábacos, algunos de los cuales disponían incluso de ranuras adicionales para
facilitar las operaciones con fracciones. El ábaco, en su presente forma, fue introducido
en China sobre el 1200 d.C., pasando desde allí a Corea hacia el año 1400, y a Japón
sobre el 1600. La máquina es muy sencilla, y consta de cuentas ensartadas en varillas
que, a su vez, están montadas en un marco rectangular. Al desplazar las cuentas sobre
las varillas, sus posiciones representan valores almacenados, y mediante dichas
posiciones esta simplísima ''computadora'' representa y almacena datos. La entrada de
datos la efectúa la persona que manipula las cuentas; la salida de datos consiste en la
observación de las posiciones de las cuentas. El control de la ejecución de un algoritmo
en esta máquina depende del operador humano, por lo que el ábaco por sí mismo no
es más que un sistema de almacenamiento de datos; para crear una máquina
algorítmica completa debe participar un operador humano.
En 1615, el escocés John Napier (1550-1617), también inventor de los
logaritmos, ideó un sencillo instrumento mecánico denominado Varillas de Napier, con
el que se podían realizar con gran facilidad multiplicaciones y divisiones. Una familia
completa de varillas de Napier consta de nueve hileras, donde cada una es, en
esencia, una columna de la tabla de multiplicar, y con las cuales se realizan
multiplicaciones mediante suma de dígitos.
Entre 1620 y 1630 varios inventores ingleses Gunter, Oughtred y Delamain
desarrollaron diversas reglas de cálculo. En 1633, W. Oughtred inventó un dispositivo
para calcular basado en los logaritmos de Napier. Este dispositivo llegó a ser la
conocida regla de cálculo en la que se encuentran marcadas los logaritmos de los
números, y en consecuencia, las multiplicaciones y las divisiones se obtienen como
sumas y restas de tales logaritmos. Además, posee otras escalas que permiten
cálculos de exponentes, funciones trigonométricas y otras funciones matemáticas.
9
Estos instrumentos que utilizan logaritmos para realizar diversas operaciones y donde
los resultados y operando se representan por longitudes (por lo que son sistemas
analógicos) han sido utilizados por los investigadores e ingenieros hasta mediados de
la década de los sesenta, cuando aparece la calculadora de bolsillo.
En años más recientes, el diseño de máquinas de cómputo se basó en la
tecnología de las ruedas dentadas.
En 1642 el francés Blaise Pascal (1623-1662) inventó una máquina calculadora,
que sólo servía para sumar y restar, que patentó en 1647. La máquina estaba basada
en una serie de ruedas giratorias o diales, a las que se encuentran solidariamente
unidas unas ruedas dentadas. Con los diales se introducen los datos. Al girar el dial,
también lo hace un tambor que tiene escritas las diez cifras decimales. A través de una
pequeña ventana o visor se puede leer el número que indica la posición del tambor,
que es la cifra acumulada. Cada posición dentro del número tiene su correspondiente
dial y tambor de números. Para arrastrar valores de una posición a otra de mayor peso
se engarzan las ruedas dentadas de cada dos posiciones de pesos consecutivos. Cada
vez que una rueda A da una vuelta completa (es decir, la cifra correspondiente debe
pasar de 9 a 10), hace girar la rueda B correspondiente a la posición de peso superior
1/10 de vuelta, avanzando la cifra de su visor una posición, y la rueda A se sitúa en
cero, por haber empezado una vuelta.
En 1671 Gottfried Leibniz (1646-1716), basándose en la idea de Pascal,
construyó una máquina capaz de realizar las cuatro operaciones básicas. La
multiplicación se realiza mediante sumas sucesivas. La división se logra como una
operación inversa de la multiplicación. Leibnitz construyó esta máquina a la edad de 25
años, y en 1694 se fabricó de forma industrial, aun cuando no operaba correctamente
cuando se presentaban situaciones en las que debían propagarse simultáneamente un
número determinado de cifras.
Una innovación muy importante, y en principio ajena a la informática, tuvo lugar
a principios del siglo XIX. Las calculadoras mecánicas mencionadas anteriormente no
se pueden considerar máquinas automáticas, pues requieren la continua intervención
de un operador humano. La introducción de la tarjeta perforada supuso un cambio.
10
Joseph Jacquard presentó en 1801 en París un telar automático controlado por tarjetas
perforadas. Para conseguir en un telar un dibujo concreto es necesario levantar
determinadas hebras durante cada desplazamiento de la lanzadera. Las hebras que
deben moverse juntas van atadas a una varilla. El sistema de Jacquard contenía un
conjunto de tarjetas perforadas según el dibujo que se desease tejer. Para diseñar
cualquier dibujo no había más que cambiar la secuencia de tarjetas.
El matemático y científico británico Charles Babbage (1792-1871) diseñó en
1822 una máquina de diferencias para producir tablas de navegación. Esta máquina de
diferencias puede considerarse una computadora digital con un programa fijo.
Conforme diseñaba la máquina de diferencias, a Babbage se le ocurrió la idea de que
podía modificar las interconexiones entre los registros durante el proceso de cómputo
para obtener un computador de uso general. De los telares de Jacquard obtuvo la idea
de utilizar tarjetas perforadas para controlar interconexiones y dar la entrada de datos.
A los elementos que realizaban las operaciones aritméticas los denominó taller (mill en
inglés), y a los elementos necesarios para almacenar los números almacén (store). Se
puede decir, que Charles Babbage se adelantó al concepto actual de computadora en
cuanto a que proponía cuatro elementos fundamentales en su estructura: entradas,
salidas, unidad aritmético-lógica (el taller) y la memoria (el almacén). Además, su
máquina estaba concebida como una computadora universal completamente
automática y capaz de resolver gran cantidad de problemas. Es esta flexibilidad el gran
progreso de la máquina analítica (como se denominó a este sistema ideado por
Babbage en 1833) frente a los calculadores mecánicos anteriores. Las calculadoras de
Pascal y Leibniz incorporaban los algoritmos en su arquitectura, compuesta de ruedas
dentadas y engranajes. Por el contrario, la máquina de Babbage fue diseñada de forma
que fuera posible comunicarle la secuencia de pasos a ejecutar a partir de los agujeros
de una tarjeta de cartón. La máquina analítica no llegó a construirse debido a que era
de una gran complejidad mecánica y la mecánica de precisión de su época no estaba
lo suficientemente desarrollada. Babbage dejó muy pocos datos acerca de su trabajo y
fue Augusta Ada Lovelace, hija de Lord Byron y discípula de Babbage, quien dejó
abundantes escritos de la máquina analítica al diseñar algunos programas para ella. Si
11
la tecnología de la época no ofrecía la precisión requerida para popularizar las
complejas calculadoras de Pascal, Leibniz o Babbage, esto no cambió hasta que la
electrónica comenzó a complementar a los dispositivos mecánicos. A esta etapa, en la
que la tecnología fue capaz de sostener los avances teóricos que se estaban
produciendo, se la conoce como etapa electromecánica.
A finales del siglo XIX, la oficina del censo de los Estados Unidos se veía
desbordada por la cantidad de datos a analizar, por lo que encargó a un experto en
estadística, Hermann Hollerith, el desarrollo de alguna técnica que acelerara el proceso
de análisis de dichos datos. Hollerith propuso que los datos del censo fueran
perforados en tarjetas y tabulados automáticamente con ayuda de máquinas
especialmente diseñadas para ello. Con esta mecanización del procesamiento de datos
de los censos mediante el uso de tarjetas perforadas se obtuvo una velocidad de
clasificación de 60 tarjetas por minuto, haciendo posible que el censo de 1890 se
efectuase en tres años, en lugar de los doce inicialmente previstos. A partir de aquí,
Hollerith fundó la Tabulating Machines Company, que posteriormente pasó a formar
parte de la International Business Corporation (IBM).
El espectacular avance que la electrónica protagoniza durante la segunda mitad
del siglo XIX culminó con el principal hito en este campo: la invención de la válvula de
vacío en 1906, que haría evolucionar rápidamente las características de hardware de
los ordenadores.
Hacia 1914, el español Leonardo Torres Quevedo (1852 - 1936) creó el primer
sistema auténticamente automático para jugar al ajedrez. Posteriormente publicó un
trabajo sobre el diseño de una máquina de calcular electro-mecánica basada en las
ideas de Babbage, que previamente había presentado en París en 1935. En el decenio
de 1930 - 1940, el desarrollo de los ordenadores sufrió la poderosa influencia de la
Segunda Guerra Mundial. En este período se llevaron a cabo varios proyectos de gran
trascendencia. Entre ellos, un proyecto financiado por el ejército de los EEUU, por el
que se construyeron en los Bell Telephone Laboratories cinco ordenadores de gran
escala basados en relés electromecánicos como componentes operacionales básicos,
representando un avance significativo de las calculadoras del momento. A comienzos
12
de los años 30, John Atanasoff, del Iowa State College, comenzó a formular los
principios de la primera calculadora electrónica automática. La construcción del
prototipo se inició en 1939, en el que se incorporó el uso de la base binaria y una
memoria de máquina regenerable. Durante ese mismo período, en Alemania, Konrad
Zuse se dedicó al diseño y construcción de ordenadores, promoviendo por primera vez
algunas ideas fundamentales, como el uso del sistema binario, a pesar de no tener
referencias del trabajo realizado en el resto del mundo.
Howard Aiken, entre los años 1937 y 1944, desarrolló un ordenador, llamado
MARK I, con el apoyo de IBM y de la Marina de los EEUU. Este ordenador estaba
basado en relés, siendo capaz de ejecutar una serie arbitraria de operaciones
aritméticas controlada por una secuencia de instrucciones codificadas. Estas máquinas
basadas en relés electromecánicos quedaron desfasadas al poco tiempo de ser
construidas, ya que otros investigadores ya estaban aplicando la tecnología de los
tubos de vacío para construir computadoras digitales totalmente electrónicas.
Durante la Segunda Guerra Mundial, fue construida en Inglaterra por la
Inteligencia Británica la máquina COLOSSUS, con el fin de decodificar los mensajes
alemanes. Pero el primer ordenador de gran tamaño completamente electrónico,
llamado ENIAC (Electronic Numerical Integrator And Calculator), fue construído entre
1943 y 1946 bajo la dirección de John Mauchly y J. Presper Ecker, en la Universidad de
Pennsylvania. En este ordenador se utilizaron tubos de vacío electrónicos en vez de los
relés electromecánicos que utilizaban sus predecesores. Éste constituyó el más
importante y ambicioso esfuerzo para desarrollar la computación electrónica. El ENIAC
constaba de unos 18.000 tubos de vacío, 70.000 perforadas, y los programas se
construían mediante conexiones entre sus componentes. Su mayor defecto era que
tenía una capacidad limitada de almacenamiento de información. En esta época, la
programación de estas computadoras era una tarea bastante difícil, puesto que la
secuencia de instrucciones a ejecutar estaba cableada en el hardware de las mismas.
Por lo tanto, cada vez que se cambiaba el algoritmo a ejecutar, era necesario cambiar
el cableado de la máquina. Un algoritmo que tardaba en ejecutarse dos minutos,
tardaba en programarse en la máquina dos días.
13
John von Neumann en 1945 fue el primero en proponer el concepto de programa
almacenado, de forma que las instrucciones podían guardarse en la memoria junto con
los datos, aumentando así la flexibilidad y aplicación de los ordenadores. Se podía
cambiar el programa de la máquina sin necesidad de cambiar las conexiones de ésta.
Entre otras sugerencias planteadas en su trabajo, las más importantes podrían ser: 1)
la utilización de la estructuración realizada por Babbage para las distintas unidades
funcionales de un ordenador: entrada, salida, unidad aritmética, unidad de control y
memoria; y 2) la representación binaria para la realización de operaciones aritméticas
(el ENIAC, por ejemplo, utilizaba aritmética decimal). La mayoría de los ordenadores
actuales siguen estos criterios, por lo que se suelen denominar arquitecturas von
Neumann. Por esta época (1946-1952), se desarrollaron varios ordenadores basados
en la idea de von Neumann, tales como el EDSAC, el EDVAC, el IAS, el ILLIAC, etc.
Los padres del ENIAC desarrollaron el primer ordenador digital producido
comercialmente, el UNIVAC. Este ordenador utilizaba diodos de cristal en vez de tubos
de vacío. Además, tenía la posibilidad de leer información, efectuar operaciones y
escribir información de salida simultáneamente, gracias a dispositivos periféricos que
operaban con independencia. Poseía también un complicado sistema de cinta
magnética.
En esta época se programaba directamente en el lenguaje de la máquina, pero
ante las dificultades que ello entrañaba, surgió la necesidad de buscar una forma de
expresión más apropiada. De esta forma apareció la idea de traducir de forma
automática el diseño, expresado en un lenguaje natural, al lenguaje que entiende la
máquina. Siguiendo esta línea, en 1954 aparece FORTRAN, el primer lenguaje de alto
nivel, seguido por otros como COBOL, ALGOL, BASIC o PL I. Desde entonces, el
desarrollo y construcción de estas máquinas ha crecido de forma espectacular, siendo
los avances tecnológicos más importantes la invención de los transistores en 1958 y el
posterior desarrollo de los circuitos integrados a partir de mediados de la década de los
60.
En esta época aparecen potentes sistemas de software que facilitan la labor a
los programadores; son los sistemas operativos, de los que se pueden citar como
14
ejemplo el VMS, MVS o el UNIX. Además, aparecen nuevos lenguajes que toman
como base los postulados sobre programación estructurada de (Dijkstra, 1968), como
son PASCAL (Jensen & Wirth, 1991) o C (Kernighan & Ritchie, 1989). A partir de la
década de los 70, se acentúa el avance en el hardware, gracias a la invención del
microprocesador, que supone una significativa reducción del precio y tamaño en los
ordenadores, haciéndolos más populares.
En 1982 apareció MODULA-2, desarrollado por Wirth para adaptar PASCAL a
las nuevas tendencias en el software, que buscan modularidad y abstracción. En
general, el avance del hardware ha acercado las máquinas al usuario doméstico, y,
conjuntamente, se ha ido incrementando la diversidad, potencia y complejidad del
software. De hecho, el crecimiento del software ha sido más vertiginoso, si cabe, que el
del hardware, hasta tal punto que el programa no se hace para dar funcionalidad a una
máquina determinada, sino que se compra un hardware determinado para dotar de
ciertas capacidades (velocidad, posibilidad de almacenamiento, etc.) al programa que
se esté usando.
EVOLUCIÓN DE LA INFORMÁTICA
15
IBM tenía hasta ese momento el monopolio de los equipos de procesamiento de
datos a base de tarjetas perforadas y estaba teniendo un gran auge en otros productos;
sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a
construir ordenadores electrónicos y su primera entrada fue con el IBM 701 en 1953.
Después de un lento comienzo el IBM 701 se convirtió en un producto comercialmente
viable. En 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM
disfruta hoy de una gran parte del mercado de los ordenadores. La administración de
IBM asumió un gran riesgo y estimó una venta de 50 ordenadores. Este número era
mayor que la cantidad de ordenadores instalados en esa época en Estados Unidos. De
hecho IBM instaló 1000 ordenadores. Aunque caros y de uso limitado los ordenadores
fueron aceptados rápidamente por las Compañías privadas y los Gobiernos. A la mitad
de los años 50 IBM se consolidaba como líder en la fabricación de ordenadores.
Hacia 1956 aparece el primer lenguaje de programación de alto nivel, el
FORTRAN (Fórmula Translator), pensado exclusivamente para aplicaciones científicas.
Esto evitaba tener que programar los ordenadores en lenguaje máquina o
ensamblador. Además, el FORTRAN tenía una sintaxis común para todos los
ordenadores, mientras que el lenguaje máquina o su correspondiente ensamblador, es
específico para cada máquina.
En cuanto al almacenamiento auxiliar de información, se desarrolla la cinta
magnética, que permitió el almacenamiento secuencial de millones de caracteres, con
una velocidad de transferencia al ordenador muy superior a los medios existentes
anteriormente: tarjetas y cintas perforadas.
16
datos e instrucciones. Los programas de ordenador también mejoraron. El lenguaje de
programación COBOL estaba ya disponible comercialmente. Los programas escritos
para un ordenador podían transferirse a otro con un mínimo esfuerzo. El escribir un
programa ya no requería entender plenamente el hardware de la computación. Los
ordenadores de la segunda generación eran substancialmente más pequeños y rápidos
que los de válvulas, y se usaban para nuevas aplicaciones, como en los sistemas para
reserva en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las
empresas comenzaron a utilizar los ordenadores en tareas de almacenamiento de
registros, como manejo de inventarios, nómina y contabilidad. La marina de Estados
Unidos utilizó los ordenadores de la segunda generación para crear el primer simulador
de vuelo (Whirlwind I). HoneyWell se colocó como el primer competidor durante la
segunda generación de ordenadores. Burroughs, Univac, NCR, CDC, HoneyWell, los
más grandes competidores de IBM durante los años 60 se conocieron como el grupo
BUNCH (siglas).
En esta generación comienzan a desarrollarse los periféricos, en particular, el
disco magnético para almacenamiento auxiliar de información; el disco resulta mucho
más rápido que la cinta magnética porque permite acceder a un dato sin tener que
acceder a todos los que le precede.
17
escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus
programas actuales.
Los ordenadores trabajaban ya a tal velocidad que proporcionaban la capacidad
de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo
el ordenador podía estar calculando la nómina y aceptando pedidos al mismo tiempo.
Con la introducción del modelo 360 IBM acaparó el 70% del mercado; para evitar
competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió
sus esfuerzos hacia ordenadores pequeños. Mucho menos costosos de comprar y de
operar que los ordenadores grandes, los miniordenadores se desarrollaron durante la
segunda generación pero alcanzaron su mayor auge entre 1960 y 70.
Hasta 1964, para programar un ordenador se debían perforar paquetes de
tarjetas con las órdenes codificadas en un lenguaje, como FORTRAN o COBOL, que
luego se suministraban al ordenador para que los procesase. Este proceso, lento y
laborioso, era frustrante para los principiantes, por la lentitud en la corrección de
errores. En 1964, dos profesores del Dartmouth College, John Kemeny y Tom Kurt,
idearon una forma mejor de iniciar a los estudiantes en el manejo de los ordenadores.
Obtuvieron una beca y como consecuencia de sus trabajos nació el BASIC
(Beguinner’s All-purpose Symbolic Instruction Code). La gran innovación que supuso
BASIC fue el trabajo interactivo, lo que produjo el desarrollo de los sistemas operativos,
para poder mantener la conversación entre el usuario y el ordenador.
Los ordenadores de las dos primeras generaciones estaban destinados al
proceso de datos; pero eso ya no es suficiente. Surge la necesidad de acceder,
divulgar y compartir, es decir, comunicar datos a grandes distancias de forma rápida.
Este hecho produce el desarrollo de la teleinformática. En un principio se produjo el
desarrollo de las redes de ordenadores utilizando las redes telefónicas, ya existentes.
18
electrónicos. En 1970, los técnicos de INTEL Corporation consiguieron concentrar
todos los componentes de un procesador en una pastilla de silicio y lo llamaron
2
microprocesador. El tamaño reducido del microprocesador (1 cm , aproximadamente)
hizo posible la creación de los microordenadores u ordenadores personales
(PC=Personal Computer). Hoy en día las tecnologías LSI (Integración a gran escala) y
VLSI (integración a muy gran escala) permiten que cientos de miles de componentes
electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que un
ordenador pequeño rivalice con un ordenador de la primera generación que ocupara un
cuarto completo.
Así como en la tercera generación la teleinformática resuelve el problema de
comunicar grandes ordenadores a grandes distancias, en la cuarta generación surge el
interés de comunicar microordenadores a distancias pequeñas y se resuelve con las
redes locales. En la actualidad, Internet da soluciones para conectar cualquier tipo de
ordenadores en cualquier lugar del mundo, mientras que cada organización puede
instalar su propia Intranet para conectar todos sus ordenadores propios.
En esta generación se ha desarrollado un buen número de periféricos, tanto de entrada
y salida como memorias auxiliares.
19
PROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver
problemas complejos, como la traducción automática de una lengua natural a otra (del
japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones
de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per
Second) capaz de realizar durante la ejecución de las distintas tareas programadas.
Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large
Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las
computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es
imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no
se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de
rendimiento. Hay que tener claro que para realizar un programa paralelo debemos,
para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por
separado en distintos procesadores. Además las demás generaciones casi ya no se
usan, es importante señalar que un programa que se ejecuta de manera secuencial,
debe recibir numerosas modificaciones para que pueda ser ejecutado de manera
paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto
conlleva se ve compensado con la mejora del rendimiento de la tarea después de
paralelizarla.
Grandes cambios en este periodo se darían debido a las memorias DIMM de
108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los
slots PCI mejorando aún más su performance. Este avance en la velocidad y capacidad
de procesamiento están ligados firmemente a la aparición en el mercado de los
procesadores de Intel Pentium, el primero de ellos, el Pentium I en el año 1997, el
Pentium II en 1999 y finalmente el Pentium IV, en el año 2001.
Hoy en día sólo han quedado dos combatientes en el terreno de los
procesadores para computadoras, Intel y AMD. Entre ambos fabricantes cubren casi la
totalidad de las necesidades de proceso de cómputo en ámbitos como el hogar, la
oficina y la industria, y han puesto en el mercado CPUs con velocidades y rendimientos
imposibles de imaginar tan sólo una década atrás.
20
Entre los más destacados productos de estas firmas podemos mencionar
los procesadores Intel Core, en sus variantes i3, i5 e i7 de dos o cuatro núcleos y
velocidades de reloj que superan ampliamente los 3.4 Ghz. En cuanto a AMD, su
modelo Fusion es uno de los diseños más avanzados, ya que logra combinar en la
misma cápsula de la CPU al chip gráfico. Otro acierto de la firma es el Phenom II, el
cual puede llegar a montar en su interior hasta 6 núcleos corriendo a 3.6 Ghz.
21
Características de la Seta Generación de Computadoras:
La adecuación hacia el nuevo sistema de Internet: A partir del desarrollo de la
cuenta con más de un circuito. Se creó la utilización del Large Scale Integration
circuit (LSI) y del Very Large Scale Intergration circuit (VLSI), lo que luego ha
permitido que cada circuito pueda realizar diferentes asignaciones o funciones.
Los avances en la memoria: La memoria primaria necesita ser operada a partir
requiere que llegue a todos los lugares posibles, lo que permitió la creación de
las redes inalámbricas, como, el WiFi, bluetooth y WiMax.
Los avances multimedia: Indicio de asociación de dos áreas a partir del
nivel industrial, sino a nivel más personal-funcional, lo que hizo posible que las
computadoras dejen de ser tan necesarias y se simplifiquen en dispositivos
22
comolas tablets, smartphones, y otros dispositivos móviles, los cuales contaban
con la posibilidad de realizar algunas de las funciones de una PC a una
velocidad más simple y rápida.
Las computadoras pueden ser definidas como un sistema rápido y exacto que
manipula símbolos y que está organizado de manera que pueda aceptar, almacenar y
procesar datos y producir resultados (salidas) bajo la dirección de una serie de
instrucciones adecuadas (software). Cuando se estudian características de los
ordenadores es necesario referirse a dos componentes bien diferenciadas: hardware y
software.
El Hardware: es la parte física, tangible o material que componen las
computadoras y hacen posible su funcionamiento. Este concepto abarca a todos los
componentes eléctricos y mecánicos que permiten llevar, a cabo, en una computadora
las cuatro actividades fundamentales: entrada, procesamiento de información, salida y
almacenamiento secundario. Es importante aclarar que el Hardware por sí mismo es
incapaz de llevar adelante procesos informáticos sin la acción conjunta de programas
creados por el hombre. A estos últimos se los denomina genéricamente Software.
A continuación se describe cada uno de estos componentes en cada una de sus
categorías.
23
apuntador que se emplea para manipular objetos en la pantalla. Te permite arrastrar los
objetos de un lugar a otro de la pantalla. Scanner: convierte el texto o las imágenes de
los documentos en un formato electrónico que la computadora puede manejar, mostrar,
imprimir y almacenar: Joystick: Periférico utilizado en los juegos. La palanca puede
moverse en distintas direcciones. Micrófono: Convierte las señales acústicas en
señales eléctricas.
25
la primera tecnología que se utilizó para almacenar grandes cantidades de
información. Las unidades de cinta aún se siguen utilizando aunque ya no
como medio de almacenamiento primario, sino para respaldar
información.
Placa madre: La placa base, aunque también conocida como placa
madre, o tarjeta madre es una placa de circuito impreso a la que se
conectan los componentes que constituyen la computadora u ordenador.
Tiene instalados una serie de circuitos integrados, entre los que se
encuentra el chipset, que sirve como centro de conexión entre el
procesador, la memoria RAM, los buses de expansión y otros
dispositivos.
Memoria RAM: La memoria de acceso aleatorio es la memoria desde
donde el procesador recibe las instrucciones y guarda los resultados. La
frase memoria RAM se utiliza frecuentemente para referirse a los módulos
de memoria que se usan en los computadores personales y servidores.
Tarjeta de expansión: Las tarjetas de expansión son dispositivos con
diversos circuitos integrados y controladores que, insertadas en sus
correspondientes ranuras de expansión, sirven para ampliar las
capacidades de un ordenador. Las tarjetas de expansión más comunes
sirven para añadir memoria, controladoras de unidad de disco,
controladoras de vídeo, puertos serie o paralelo y dispositivos de módem
internos.
26
QUE ES EL MONITOR Y TIPOS DE MONITOR POR EVOLUCIÓN
27
En campo de la educación y sociocultural, el monitor es el encargado de guiar y
orientar a un grupo de personas o estudiantes, o de enseñar una actividad deportiva o
cultural.Tiene como funciones motivar, movilizar, sensibilizar a las personas, ayuda a
asumir responsabilidades, descubre en los individuos: sus aspiraciones, sus
necesidades, sus esperanzas, sus trabajos, etc.
28
y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de
fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho
seguían estando en la mayoría de hogares donde había un ordenador.
Monitor MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter”
surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos
popularmente por los Monitores monocromáticos solo ofrecían textos, no incorporaban
modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente verde.
El mismo creaba irritación en los Ojos de sus usuarios.
Características:
Sin Modo gráfico.
Resolución 720_350 píxeles.
Soporte de texto Monocromático.
No soporta gráfico ni colores.
La tarjeta gráfica cuenta con una Memoria de vídeo de 4 KB.
Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.
Monitor CGA:
Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o
“Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron
29
comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica
conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían
optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año
existiendo competencia entre ellos. CGA fue el primero en contener Sistema gráfico a
color.
Características:
Resoluciones 160_200, 320×200, 640×200 píxeles.
Soporte de gráfico a color.
Diseñado principalmente para juegos de Computadoras.
La tarjeta gráfica contenía 16 KB de memoria de vídeo.
Monitor EGA:
Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar
desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor
incorporaba una mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también
sería sustituido por un monitor de mayores características.
Características:
Resolución de 640_350 píxeles.
Soporte para 16 colores.
La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.
Monitor VGA:
Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado
en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores
anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas
resoluciones.
30
Por el desarrollo alcanzado hasta la fecha, incluidas en las Tarjetas gráficas, los
monitores anteriores no son compatibles a los VGA, estos incorporan Señales
analógicas.
Características:
Soporte de 720×400 píxeles en modo texto.
Soporte de 640×480 píxeles en modo gráfico con 16 colores.
Soporte de 320×200 píxeles en modo gráfico con 256 colores.
Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de
vídeo.
Monitor SVGA:
SVGA denominado por sus siglas en inglés “Super Video Graphics Array”,
también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron
desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor
VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el
VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes
resoluciones.
Características:
Resolución de 800×600, 1024_768 píxeles y superiores.
Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas
gráficas como: ATI, GeForce, NVIDIA, entre otros.
Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es
el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en Televisores, Ordenadores, entre otros. Para lograr la
calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la
actualidad también se realizan. Funcionamiento: Dibuja una imagen barriendo
una Señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La
31
amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la
pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese
instante no tendrá representando un Pixel negro. Una amplitud máxima determina que
ese punto tendrá el máximo brillo.
Ventajas:
Excelente calidad de imagen (definición, contraste, luminosidad).
Económico.
Tecnología robusta.
Resolución de alta calidad.
Desventajas:
Presenta parpadeo por el refrescado de imagen.
Consumo de energía.
Generación de calor.
Generación de Radiaciones eléctricas y magnéticas.
Alto peso y tamaño.
Pantallas LCD:
A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD,
sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en
español. Este dispositivo fue inventado por Jack Janning.
Estas pantallas son incluidas en los Ordenadores portátiles, Cámaras
fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que
comparten las propiedades de sólidos y líquidos a la vez. Cuando un rayo de luz
atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio
vacío que hay entre sus moléculas como lo haría atravesar un Cristal sólido pero a
cada una de estas partículas se le puede aplicar una Corriente eléctrica que cambie
su Polarización dejando pasar la luz o no.
32
Una pantalla LCD está formada por 2 Filtros polarizados colocados
perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la
luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los
colores básicos rojo, verde y azul. Para la reproducción de varias tonalidades de color
se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se
consigue con variaciones en el voltaje que se aplica a los Filtros.
Ventajas:
Poco peso y tamaño.
Buena calidad de colores.
No contiene parpadeo.
Poco consumo de energía.
Poca generación de calor.
No genera radiaciones eléctricas y magnéticas.
Desventajas:
Alto costo.
Angulo limitado de visibilidad.
Brillo limitado.
Bajo tiempo de respuesta de píxeles.
Contiene Mercurio.
Pantallas de Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L.
Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró
crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas
se encuentran una la mayor resolución y ángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar
pequeñas Luces fluorescentes de colores para conformar una imagen.
33
Las pantallas de plasma funcionan como las Lámparas fluorescentes, en que
cada píxel es semejante a un pequeño foco coloreado. Cada uno de los Pixeles que
integran la pantalla está formado por una pequeña celda estanca que contiene un gas
inerte (generalmente Neón o Xenón).
Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas
pasa al estado de plasma. El gas así cargado emite Radiación ultravioleta (UV) que
golpea y excita el material fosforescente que recubre el interior de la celda.
Cuando el material fosforescente regresa a su estado energético natural, emite
luz visible.
Ventajas
Excelente brillo.
Alta resolución.
Amplio ángulo de visión.
No contiene mercurio.
Tamaño de pantalla elevado.
Desventajas
Vida útil corta.
Coste de fabricación elevado, superior a los LCD.
Consumo de electricidad elevado.
Poca pureza del color.
Consumo energético y emisión de calor elevada.
34
computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a
través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para
las computadoras. El tiene su propio procesador y varios circuitos digitales que ayudan
a introducir la información al mismo tiempo que ésta sale en la pantalla.
Actualmente su clasificación está conformada de la siguiente manera: teclado
XT, teclado AT, teclado expandido, teclado Windows, teclado ergonómico y teclado
inalámbrico. Cabe destacar que en la mayoría de los sistemas operativos modernos se
pueden utilizar teclados virtuales (en pantalla ó monitor) que pueden ser operados con
el ratón, brindándole la posibilidad al usuario de simular el funcionamiento de un
teclado real.
El teclado se encuentra compuesto de 3 partes: teclas de función, teclas
alfanuméricas y teclas numéricas.
parte superior del teclado. Se representan como F1, F2, F3, F4, F5, F6,
F7, F8, F9, F10, F11 y F12. Son las encargadas de realizar una función
específica, dependiendo del sistema operativo o del programa que se
utilice, además permiten acceder a atajos de los programas.
Teclas de control: Se utilizan por sí solas o en combinación con
35
teclado y cada una de ellas tiene la misma distribución de la máquina
de escribir.
Teclas numéricas: Sirven para ingresar datos numéricos de forma
36
la RAM (memoria de acceso aleatorio) montados directamente en la placa
de circuitos principal de la computadora, o bien en chips montados
en tarjetas periféricas conectadas a la placa de circuitos principal del ordenador. Estos
chips de RAM constan de conmutadores sensibles a los cambios de la corriente
eléctrica, esto quiere decir que los datos son almacenados por tiempo limitado (hasta
que dejamos de suministrar energía eléctrica) por esta razón aparecen los dispositivos
de almacenamiento secundarios o auxiliares, los cuales son capaces de conservar la
información de manera permanente, mientras su estado físico sea óptimo. Los
dispositivos de almacenamiento externo pueden residir dentro del CPU y están fuera de
la placa de circuito principal.
Unidad de Disco Duro: Las unidades de discos rígidos o duros (hard disk
drive, HDD) tienen una gran capacidad de almacenamiento de información, pero al
estar alojados normalmente dentro de la computadora (discos internos), no son
extraíbles fácilmente. Para intercambiar información con otros equipos (si no están
conectados en red) se tienen que utilizar unidades de disco, como los disquetes,
los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB o
las memorias flash, entre otros.
El disco duro almacena casi toda la información que manejamos al trabajar con una
computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la
máquina, los programas, archivos de texto, imagen, vídeo, etc. Dicha unidad puede ser
37
interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el gabinete o caja
de computadora.
Un disco duro está formado por varios discos apilados sobre los que se mueve una
pequeña cabeza magnética que graba y lee la información.
Este componente, al contrario que el micro o los módulos de memoria, no se pincha
directamente en la placa, sino que se conecta a ella mediante un cable. También va
conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita
energía para funcionar.
Además, una sola placa puede tener varios discos duros conectados.
Las características principales de un disco duro son:
Capacidad: Se mide en gigabytes (GB). Es el espacio disponible para
almacenar secuencias de 1 byte. La capacidad aumenta constantemente
desde cientos de MB, decenas de GB, cientos de GB y hasta TB.
Velocidad de giro: Se mide en revoluciones por minuto (RPM). Cuanto más
rápido gire el disco, más rápido podrá acceder a la información la cabeza
lectora. Los discos actuales giran desde las 4200 a 15 000 RPM,
dependiendo del tipo de ordenador al que estén destinadas.
Capacidad de transmisión de datos: De poco servirá un disco duro de
gran capacidad si transmite los datos lentamente. Los discos actuales
pueden alcanzar transferencias de datos de 6 Gb por segundo (SATA 3).
Unidad de memoria flash o Pen Drive: Es un pequeño dispositivo de
almacenamiento que utiliza la memoria flash para guardar la información sin necesidad
de pilas. Los Pen Drive son resistentes a los rasguños y al polvo que han afectado a las
formas previas de almacenamiento portable, como los CD y los disquetes.
Los sistemas operativos más modernos pueden leer y escribir en ello sin necesidad de
controladores especiales. En los equipos antiguos (como por ejemplo los equipados
con Windows 98) se necesita instalar un controlador de dispositivo. El aparato
correspondiente o bien un lector de tarjetas, se conecta a la computadora a través del
puerto USB o firewire.
38
Unidades de Zip: La unidad Iomega ZIP es una unidad de dis co extraíble. Está
disponible en tres versiones principales, la hay con interfaz SCSI, IDE, y otra que se
conecta a un puerto paralelo. Este documento describe cómo usar el ZIP con Linux. Se
debería leer en conjunción con el HOWTO SCSI a menos que posea la versión IDE.
Unidades ópticas:
CD-R: es un disco compacto de 650 MB de capacidad que puede ser leído
cuantas veces se desee, pero cuyo contenido no puede ser modificado una vez
que ya ha sido grabado. Dado que no pueden ser borrados ni regrabados, son
adecuados para almacenar archivos u otros conjuntos de información invariable.
CD-RW: posee la capacidad del CD-R con la diferencia que estos discos son
regrabables lo que les da una gran ventaja. Las unidades CD-RW pueden grabar
información sobre discos CD-R y CD-RW y además pueden leer discos CD-
ROM y CDS de audio. Las interfaces soportadas son EIDE, SCSI y USB.
DVD-ROM: es un disco compacto con capacidad de almacen ar 4.7 GB de datos
en una cara del disco, un aumento de más de 7 veces con respecto a los CD-R y
CD-RW. Y esto es en una sola cara. Los futuros medios de DVD-ROM serán
capaces de almacenar datos en ambas caras del disco, y usar medios de doble
capa para permitir a las unidades leer hasta cuatro niveles de datos
almacenados en las dos caras del disco dando como resultado una capacidad
39
de almacenamiento de 17 GB. Las unidades DVD-ROM son capaces de leer los
formatos de discos CD-R y CD-RW. Entre las aplicaciones que aprovechan la
gran capacidad de almacenamiento de los DVD-ROM tenemos las películas de
larga duración y los juegos basados en DVD que ofrecen videos MPEG-2 de alta
resolución, sonido inmersivo Dolby AC-3, y poderosas graficas 3D.
DVD-RAM: este medio tiene una capacidad de 2.6 GB en una ca ra del disco y
5.2 GB en un disco de doble cara, Los DVD-RAM son capaces de leer cualquier
disco CD-R o CD-RW pero no es capaz de escribir sobre estos. Los DVD-RAM
son regrabables pero los discos no pueden ser leídos por unidades DVD-ROM.
Pc - Cards: La norma de PCMCIA es la que define a las PC Cards. Las PC
Cards pueden ser almacenamiento o tarjetas de I/O. Estas son compactas, muy
fiable, y ligeras haciéndolos ideal para notebooks, palmtop, handheld y los
PDAs,. Debido a su pequeño tamaño, son usadas para el almacenamiento de
datos, aplicaciones, tarjetas de memoria, cámaras electrónicas y teléfonos
celulares. Las PC Cards tienen el tamaño de una tarjeta del crédito, pero su
espesor varía. La norma de PCMCIA define tres PC Cards diferentes: Tipo I 3.3
milímetros (mm) de espesor, Tipo II son 5.0 mm espesor, y Tipo III son 10.5 mm
espesor. Entre los producto más nuevos que usan PC Cards tenemos el Clik!
PC Card Drive de Iomega esta unidad PC Card Tipo II la cual puede leer y
escribir sobre discos Clik! de 40 MB de capacidad, esta unidad esta diseñada
para trabajar con computadores portátiles con mínimo consumo de baterías, el
tamaño de los discos es de 2x2 pulgadas.
Flash Cards: son tarjetas de memoria no volátil es decir conservan los datos
aun cuando no estén alimentadas por una fuente eléctrica, y los datos pueden
ser leídos, modificados o borrados en estas tarjetas. Con el rápido crecimiento
de los dispositivos digitales como: asistentes personales digitales, cámaras
digitales, teléfonos celulares y dispositivos digitales de música, las flash cards
han sido adoptadas como medio de almacenamiento de estos dispositivos
haciendo que estas bajen su precio y aumenten su capacidad de
almacenamiento muy rápidamente. Recientemente Toshiba libero
40
al mercado su nuevo flash cards la SmartMedia de 64 MB y el super-thin 512M-
bit chip. La SmartMedia es capaz de almacenar 72 imágenes digitales con una
resolución de 1800x1200 pixels y más de 1 hora de música con calidad de CD.
Entre los productos del mercado que usan esta tecnología tenemos los
reproductores de audio digital Rio de Diamond, Nomad de Creative Labs, los
PDAs de Compaq, el Microdrive de IBM con 340 MB de almacenamiento entre
otros.
41
QUE ES EL MOUSE Y MENCIONE SU EVOLUCIÓN
El ratón o mouse fue inventado por Douglas Engelbart y su nombre se deriva por
su forma la cual se asemeja a la de un ratón. Es un dispositivo de entrada apuntador o
señalador más utilizado. Está fabricado en plástico y se utiliza con una de las manos.
Usado para facilitar el manejo de un entorno gráfico en un computador, permite
enviarle instrucciones a una computadora mientras este interactúa con una interfaz
gráfica.
Detecta el movimiento relativo en dos dimensiones por la superficie plana en la
que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor,
para ubicarse en alguna posición específica de la pantalla.
Por lo general, el mouse o ratón tiene dos botones: el izquierdo te sirve para
abrir, arrastrar, seleccionar y ejecutar funciones. El derecho te permite acceder a
funciones adicionales de los comandos.
El ratón se puede conectar de forma cableada (puertos PS/2 y USB),
o inalámbricamente por medio de un adaptador USB que se conecta a la computadora
y esta recibe la señal del ratón, aunque también pueden ser por medio de
conectividad Bluetooth o infrarrojos.
Hay dos tipos de mouse o ratones:
Los ratones mecánicos: que ya están siendo desechados, tenían una bola
de goma inserta en su interior, para que desplace dos ruedas o ejes fijos,
cuyo movimiento es transmitido mediante circuitos electrónicos al
computador. Este mecanismo es el tradicional y el más económico, pero es
mucho menos preciso que los ratones ópticos y tiene la tendencia a
acumular sucio al desplazarse sobre la superficie, lo cual conduce a trabas y
otras deficiencias en su funcionamiento.
Los ratones ópticos: que poseen un sistema de rastreo de la posición del
dispositivo mediante un ente emisor de luz (tal como el Láser o el LED), en
lugar de la acostumbrada bola giratoria que hay dentro de los mecánicos.
42
Esto le permite un desplazamiento más fluido, preciso y menos propenso a
la acumulación de sucio. Sin embargo, requiere de mayor consumo
energético.
Desde la década de los 60 hasta la actualidad, el mouse o ratón pasó de ser una
caja pesada hecha de madera, a un accesorio liviano y ergonómico. Veamos un poco
la cronología de su historia:
1952: nace el primer trackball, creado por la Marina Canadiense, en un proyecto
conocido como DATAR, que consistía en compartir datos de radares y sensores
sonoros.
1963: se crea el primer prototipo de mouse por Douglas Engelbart, investigador
del Instituto de Investigación Stanford. Para esta época las computadoras eran
operadas mediante tarjetas perforadas y no había interacción con el usuario. Engelbart
desarrolló un proyecto con varias tecnologías que apuntaban al desarrollo del intelecto
humano, como el mouse y la interfaz gráfica.
1970: Fue comercializado por la empresa alemana Telefunken, el primer modelo
de mouse de la historia. Funcionaba con 2 engranajes que registraban las posiciones
vertical y horizontal X-Y, a través de una pequeña bola de goma.
1973 – 1981: los siguientes mouses se comercializaron con las computadoras
personales Xerox, como el Alto, de 1973, la primer computadora para usar como
desktop que poseía una interfaz gráfica basada en el uso del ratón.
1983: Apple lanzó su famosa computadora Lisa, que incluía un mouse. Este
modelo en lugar de tener una bolita de goma, usaba una esfera de metal.
1999: surgió el primer modelo comercial de mouse óptico. El IntelliMouse con
IntelliEye, de Microsoft. La bolita del mouse mecánico se sustituye por un LED
infrarrojo. Además se incorporó el scroll Wheel (la rueda de scroll entre los dos
botones).
2004: invade el mercado el mouse con láser que sustituye al LED.
43
QUE ES LA IMPRESORA Y MENCIONE SU EVOLUCIÓN
44
Impresoras sin impacto: Hacen la impresión por diferentes métodos, pero no
utilizan el impacto. Son menos ruidosas y con una calidad de impresión notoriamente
mejor a las impresoras de impacto. Los métodos que utilizan son los siguientes:
Impresoras térmicas: Imprimen de forma similar a la máquina de matriz, pero
los caracteres son formados marcando puntos por quemadura de un papel especial.
Los faxes trabajan con este método.
Impresora de inyección de tinta: Emite pequeños chorros de tinta desde
cartuchos desechables hacia el papel, las hay de color. Vel. De 4 a 7 ppm.
Impresora electrofotográfica o Láser: Crean letras y gráficas mediante un
proceso de fotocopiado. Un rayo láser traza los caracteres en un tambor fotosensible,
después fija el tóner al papel utilizando calor. Muy alta calidad de resolución,
velocidades de 4 a 18 ppm.
EVOLUCIÓN DE LA IMPRESORA:
45
Primera mini impresora: En 1968 se lanzó la primera mini-impresora EP-101
con el mismo mecanismo de matriz de punto. A partir de allí se deriva la
marca EPSON una de las marcas líderes en el mercado de impresión.
Impresora Láser: En el año 1971 el mundo de la impresión se revolucionó con
el lanzamiento de la primera impresora Láser diseñada por Gary Starkweather de
Xerox PARK, que constaba de un tambor unido a un depósito de y a un haz. Esta
innovación marcó la pauta ya que permitía imprimir no solo textos sino también
imágenes. Años después siguió la evolución con la introducción de impresoras a color.
Nace la inyección de tinta: En 1976 se generó otro gran avance en la
impresión cuando HP creo la primera la impresora de inyección de tinta pensada para
gigantografías y también para hogares. Pero por lo complejo de la tecnología y la
precisión en el sistema de inyección, 12 años después llegó a manos de los
consumidores en hogares. La velocidad de impresión era tan solo de 2 pág. por minuto.
A través del tiempo, la tecnología láser se ha destacado ya que su calidad de
impresión supera a la impresión por, en términos de velocidad, rendimiento y costos.
Hoy en día existen un gran número de marcas que ofrecen impresoras de diversas
tecnologías, funciones y costos que se adaptan a las necesidades de los
consumidores. Actualmente estamos presenciando un nuevo hito en la historia de la
impresión con la aparición de las impresoras 3D, un propuesta impensable años atrás
que hoy es una realidad.
46
los datos almacenados en una computadora, aunque también existen otros más
inofensivos, que solo producen molestias o imprevistos.
Los virus informáticos tienen básicamente la función de propagarse a través de
un software, son muy nocivos y algunos contienen además una carga dañina (payload)
con distintos objetivos, desde una simple broma hasta realizar daños importantes en
los sistemas, o bloquear las redes informáticas generando tráfico inútil. El
funcionamiento de un virus informático es conceptualmente simple. Se ejecuta
un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento
del usuario. El código del virus queda residente (alojado) en la memoria RAM de la
computadora, incluso cuando el programa que lo contenía haya terminado de ejecutar.
El virus toma entonces el control de los servicios básicos del sistema operativo,
infectando, de manera posterior, archivos ejecutables que sean llamados para su
ejecución. Finalmente se añade el código del virus al programa infectado y se graba en
el disco, con lo cual el proceso de replicado se completa.
47
popularidad del Word y del Excel de Microsoft, sus virus son los más
abundantes. Al abrir un documento en Word (.DOC) o un documento en
Excel (.XLS) infectado, la macro virus se activa y puede infectar otros
archivos limpios.
48
8 - Panda Internet Security: Provee de todas las funciones básicas de
seguridad. Es muy seguro con los dispositivos USB conectados a la PC y nos da la
posibilidad de tener 2Gb de backup en línea.
9 - Webroot Internet Security: El antivirus viene equipado con un paquete de
antispyware, firewall y antispam. Para los usuarios más frecuentes, este software falla
en las funciones del control parental.
10 - Trend Micro Internet Security: Está totalmente equipado con seguridad
para el escritorio de la PC. La desventaja está en el precio y en su pobre desempeño al
momento de detectar 'malware'.
49
numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que
utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la
división y otras funciones. En el típico ordenador analógico electrónico, las entradas se
convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de
circuito de diseño especial. Las respuestas se generan continuamente para su
visualización o para su conversión en otra forma deseada.
50
(3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8
conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí
el término bit de datos en cada ciclo. Un grupo de ocho bits se denomina byte y cada
uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración
equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de
dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por
ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el
número decimal 210 (véase Sistemas numéricos), o bien estar indicando al ordenador
que compare los datos almacenados en estos conmutadores con los datos
almacenados en determinada ubicación del chip de memoria. El desarrollo
de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha
permitido incrementar la velocidad de los ordenadores. La colección completa de
configuraciones reconocibles, es decir, la lista total de operaciones que una
computadora es capaz de procesar, se denomina conjunto, o repertorio, de
instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de
los conjuntos de instrucciones, continúa incrementándose a medida que avanza el
desarrollo de los ordenadores digitales modernos.
51
El estudio y predicción de tornados.
El estudio y predicción del clima de cualquier parte del mundo.
La elaboración de maquetas y proyectos de la creación de aviones,
simuladores de vuelo. Etc.
52
PC tiene su origen en el año 1981, cuando IBM comercializó su modelo "IBM PC"
que se convirtió en un tipo de ordenador ideal para uso "personal". IBM dejó abierta
la arquitectura de su PC para que cualquier fabricante pudiera copiarla y construir
ordenadores iguales al PC de IBM. El término "PC" se estandarizó y los clones que
sacaron posteriormente otras empresas fueron llamados "PC compatibles", usando
procesadores del mismo tipo que el PC de IBM, pero a un costo menor y pudiendo
ejecutar el mismo tipo de programas. Existen otros tipos de microordenadores, como
el Macintosh, que no son compatibles con los IBM.
QUE ES EL ESCRITORIO
53
El mismo se caracteriza además por mostrar un fondo de pantalla capaz de ser
elegido por el usuario. Esta visión además incorpora una barra de tareas, que
generalmente está en la zona inferior, pero que puede desplazarse a los laterales o
también a la zona superior. El escritorio de Windows puede entenderse como el
elemento mediante el cual el usuario trabaja más frecuentemente, es decir, en donde
tiene los accesos a distintas funcionalidades del sistema operativo.
Es una interface gráfica en la cual se pueden disponer de diferente modo
numerosos íconos, accesos, carpetas, archivos, barras de herramientas y programas.
Todos ellos pueden haber sido previamente seleccionados y organizados por el usuario
de acuerdo a sus necesidades específicas.
54
la Papelera de reciclaje hasta que se vacía. Si desea recuperar un elemento que haya
eliminado, puede hacerlo en la Papelera de reciclaje.
Internet Explorer: Mediante una conexión a Internet y Microsoft Internet
Explorer puede explorar el World Wide Web y la intranet local.
Uno de los elementos más importantes del Escritorio es la Barra de Tareas. Mediante
esta puede acceder a los Programas instados en la PC como así también crear
Accesos Rápidos dentro de ella para tener una ejecución más ágil de las aplicaciones
más utilizadas.
55
Un icono informático generalmente está situado en el rango entre 16 por 16
pixeles hasta 128 por 128 pixeles. Algunos sistemas operativos ofrecen iconos de
hasta sopor por 250 pixeles. Los usuarios con problemas de visión (debido a
condiciones como la iluminación pobre, ojos cansados, impedimentos médicos, fondos
brillantes) pueden necesitar el ajuste del tamaño del icono.
TIPOS DE ÍCONOS:
Acceso Directo: Son aquellos iconos que sirven para copiar el icono que ya
existe presente en el archivo original de modo que presentan un atajo, a
menos que el usuario se decida a cambiarlo o eliminarlo. Se diferencia de
los iconos «originales» porque junto a su representación gráfica aparece un
recuadro con una flecha en una de sus esquinas.
Programas: Los programas suelen tener iconos que han sido creados por
los desarrolladores de la aplicación. Estos no suelen modificarse a no ser
que sufran algún cambio por parte de aquellos que ya los crearon y que se
suelen reflejar cada vez que se hace una actualización de la aplicación o del
programa.
Carpetas: Las carpetas se suelen representar por un icono de una carpeta
son siempre iguales y nos llevan a los documentos que contienen. Son los
usuarios los que les dan nombres para diferenciarlas entre sí.
Documentos: Los Documentos cuentan con un icono que hace una clara
referencia hacia el programa o suite de aplicaciones que representa y se
encarga de mostrarlo al usuario con su propia interfaz gráfica que tampoco
es modificable por el usuario.
56
EN QUÉ CONSISTE EL PANEL DE CONTROL
barra de tareas, como Mostrar Inicio Rápido, ocultar los íconos, cambiar los
atributos (hay dos opciones que son el Clásico y el Moder Windows XP)
o Vista. En Windows 7, se eliminó el menú inicio clásico.
57
Centro de Seguridad: introducido en la versión de Windows XP Service Pack
58
Cuentas de usuario: Se pueden agregar, borrar o modificar las cuentas de
los usuarios. Entre las modificaciones que se pueden realizar en esta sección
están:
o Cambiar la imagen que identifica al usuario
o Cambiar clave
o Cambiar el tipo de usuario (cuenta limitada o de administrador)
o Habilitar o deshabilitar la cuenta de “Invitado” para dar acceso a
personas que ocasionalmente utilicen la computadora
Agregar o quitar programas: Como dice su nombre, permite agregar o quitar
que puedan utilizarlo personas con alguna discapacidad especial. Entre los
ajustes que se pueden hacer en esta sección están:
o Teclado: Se pueden realizar cambios para que el usuario escuche tonos
al tocar las teclas de mayúsculas y detectar cuando el usuario deja
oprimida alguna tecla por error.
59
o Sonido: Opciones para generar avisos visuales cuando ocurren sonidos
y otros cambios.
o Pantalla: ajusta los tipos de letras y colores para que personas con
deficiencias visuales puedan ver mejor.
o Mouse: Permite realizar cambios en Windows para que la persona
pueda utilizar algunas teclas para mover el mouse.
o General: En esta sección se pueden hacer ajustes generales de las
características de accesibilidad.
Rendimiento y mantenimiento: En esta sección se pueden realizar cambios
60
diseño de la página, pasando por la inclusión de elementos gráficos como imágenes o
tablas. Permite añadir archivos multimedia de vídeo y sonido pero no es de gran
utilidad si la finalidad del documento es imprimirlo.
Dispone de un formato de archivo nativo, DOC, que es cerrado. Se ha convertido
en poco menos que un estándar gracias a la amplia difusión del programa, haciendo
que prácticamente cualquier aplicación cuya finalidad es la de leer o editar textos sea
compatible con él. No obstante también es posible guardar los trabajos en otros
formatos como RTF, XPS o XML, además de contar con una herramienta para
exportarlos a formato PDF.
La aplicación fue creada por la empresa Microsoft y actualmente viene incluida
por defecto en el paquete ofimático de Microsoft Office. Fue ideada a partir de 1981 y
desarrollada por los programadores Richard Brodie y Charles Simonyi bajo el nombre
de Multi-Tool Word para sistemas Xerox, posteriormente para ordenadores IBM que
corrían con sistema operativo MS-DOS en el año 1983… Después se crearon varias
versiones para Apple Macintosh, AT&T Unix PC, Atari ST y por fin Microsoft Windows
en 1989. Es en Windows y en sus diferentes sistemas operativos donde ha tenido
mayor relevancia en los últimos años, y pese a surgir en este momento no cobró
relevancia hasta el lanzamiento de Windows 3.0.
Con Microsoft Word se puede ver, editar y crear documentos de texto para
guardarlos en el dispositivo o compartirlos con quien sea de mil formas diferentes. Es el
software más potente del mercado, líder indiscutible en el sector de los procesadores
de texto. El programa permite cambiar de formatos e imprimir documentos de manera
profesional, así como realizar distintas tareas para la presentación de la información:
automatización de tareas, detección y corrección de errores ortográficos y
gramaticales.
A nivel profesional, Word se ha convertido en la herramienta más utilizada
para crear currículos, trabajos, presentaciones, informes o para escribir cartas. La
edición de texto es muy sencilla y su apariencia lo hace aun más fácil de manejar, con
tan sólo unos conocimientos básicos se puede utilizar sin problemas. Además,
Microsoft Word permite visualizar el resultado final antes de ser enviado o impreso.
61
QUE ES UNA LETRA CAPITAL
L
a grafología es una parte de la psicología que estudia al ser humano a
través de su escritura, descifrando el carácter a través de los trazos; y
también cómo la escritura y por lo tanto el carácter, son afectados por
los estados de ánimo, la salud y la enfermedad; en su aspecto más
práctico, permite descubrir si dos escrituras o firmas semejantes pertenecen a la misma
persona, o si alguna es una falsificación. Para esto, toman en cuenta aspectos como la
presión al momento de escribir, la velocidad o la alineación.
62
QUE ES EXCEL Y PARA QUÉ SIRVE
Hacer facturas.
63
Elaborar presupuestos detallados.
64
QUE ES POWER POINT Y FUNCIONES BÁSICAS
Forma parte del paquete ofimático Microsoft Office y sus orígenes se remontan a
mediados de la década de 1980. Dos programadores desarrollaban un software para
presentaciones gráficas para Mac cuyo nombre era Presenter que fue rechazado por
Apple. Sin embargo Bill Gates y Microsoft sí mostraron interés y acabaron adquiriendo
el software en 1987 y lanzando su primera versión ese mismo año, la 1.0. Desde
entonces ha ido evolucionado, versión tras versión, para adaptarse a las diferentes
necesidades que los usuarios han ido requiriendo.
Power Point o PowerPoint es el nombre de uno de los programas más populares
creados por Microsoft, es ampliamente utilizado en distintos campos de la enseñanza,
los negocios, entre otros.
Se trata de un software que permite realizar presentaciones a través de
diapositivas. El programa contempla la posibilidad de utilizar textos, imágenes, música,
animaciones. Se le pueden aplicar distintos diseños de fuente, plantilla y dibujos. De
este modo, la creatividad del usuario resulta decisiva para que las presentaciones sean
atractivas y consigan mantener la atención del receptor.
Microsoft Power Point es un programa de presentación desarrollado para la
empresa Microsoft para sistemas operativos Windows, macOS y últimamente
para Android y iOS. Viene integrado en el paquete ofimático llamado Microsoft
Office como un elemento más, que puede aprovechar las ventajas que le ofrecen los
demás componentes del equipo para obtener un resultado óptimo.
Con PP y los dispositivos de impresión adecuados se pueden realizar muchos
tipos de resultados relacionados con las presentaciones: transparencias, documentos
impresos para las asistentes de presentación, notas y esquemas para el presentador, o
diapositivas estándar de 35mm.
Sobre este programa tenemos que decir que viene a girar en torno a tres
funciones fundamentales:
65
Un editor, que sirve no sólo para escribir texto sino también para darle el
66
calendario, un reloj, una calculadora, un generador de gráficos: Pintura, un procesador
de textos: Bloc de notas, y un juego: Reversi.
MS DOS se basa en una interfaz de usuario que es totalmente basado en texto.
Para el sistema operativo para llevar a cabo una función, el usuario debe teclear
comandos con el teclado y pulse la tecla enter o la tecla return. Cuando se inicia un
usuario de un ordenador DOS, el sistema operativo proporcionará un sistema, como
por ejemplo C:.> Entrando en un código textual específico después de la indicación
iniciará una tarea específica, en cuyo punto que se hará cargo de la tarea en la
operación del equipo. En contraste con MS DOS, MS Windows utiliza una interfaz
gráfica. Los usuarios pueden iniciar tareas sin el uso de un teclado, seleccionando
íconos y opciones de menú en el escritorio de una pantalla. Al hacer clic en los íconos y
opciones de menú abre ventanas y estas ventanas pueden ejecutar diferentes
programas simultáneamente.
La interfaz de complejo de MS Windows, y su capacidad para ejecutar
programas al mismo tiempo, significa que el sistema operativo pone un drenaje mucho
más alta en los recursos de un ordenador en comparación con MS DOS. MS DOS se
basa en pocas o ninguna conductores, recursos de vídeo y un mínimo de memoria
convencional mínima. Además, MS DOS, a diferencia de Windows, no hace un amplio
uso de archivos temporales o de intercambio de disco.
67
años no fue mejorado, capacidad de facilidad los elementos Hardware ya
intercambiar datos entre instalados.
computadoras por medio de un cable, Windows es un sistema operativo
optimización del uso de la Memoria diseñado y desarrollado por
RAM. Microsoft Cooperation. Hoy en día,
DOS significa Sistema operativo de es uno de los sistemas operativos
disco. Proporciona un sistema de más populares del mundo. El motivo
archivos para organizar, leer y escribir de la popularidad de Windows es su
archivos en el disco de interfaz gráfica de usuario. Permite a
almacenamiento. Es principalmente los usuarios acceder a las
un sistema operativo de un solo aplicaciones fácilmente. Hay varias
usuario. Los sistemas DOS siguen versiones de Microsoft Windows.
varias actividades para el correcto Windows 95, XP, Vista, Windows 7,
funcionamiento del sistema. Realiza Windows 8, Windows 10 son algunos
la gestión de archivos, permite cargar de ellos.
y ejecutar programas, asignar El sistema operativo Windows
recursos y controlar dispositivos de proporciona múltiples características.
hardware. El usuario puede crear fácilmente
DOS no proporciona una interfaz carpetas y organizar archivos en
gráfica de usuario. Tiene una interfaz consecuencia. Puede usar el botón
de línea de comandos. Cuando el de inicio para encontrar los
usuario escribe los comandos en la programas instalados en el sistema.
línea de comandos, interpreta esos Además, puede usar el botón de
comandos para realizar la tarea inicio para ir al panel de control y
requerida. Algunos comandos para acceder a ayuda y soporte.
comunes son BORRAR, BORRAR, También es posible personalizar el
IMPRIMIR y COPIAR. escritorio con varios temas. Puede
Hay dos tipos de comandos de DOS agregar fondos, colores y
llamados comandos internos y salvapantallas.
externos. El archivo COMMAND.COM Windows proporciona muchas
68
almacena los comandos internos. aplicaciones útiles como MS Word,
Estos comandos son comandos Excel y PowerPoint. La palabra MS
regulares básicos. Estos comandos permite crear documentos. MS Excel
se cargan automáticamente en la ayuda a realizar cálculos y
memoria cuando el usuario inicia la almacenar detalles financieros. MS
computadora. CLS, TYPE y EXIT PowerPoint permite crear
pocos ejemplos para comandos presentaciones. En general,
internos. El comando CLS borra la Windows es un sistema fácil de usar
pantalla. El comando TIPO muestra el que permite realizar las tareas de
contenido de un texto. El comando manera fácil y eficiente.
SALIR se usa para salir de la línea de
comandos.
El otro tipo de comandos de DOS se
69
acceder fácilmente a las aplicaciones utilizando la GUI. También proporciona
compatibilidad de software y hardware, opciones de ayuda, etc.
Los sistemas DOS no son ampliamente utilizados ahora. Fue popular entre 1980
y 1995. Sin embargo, a veces se usa DOS para el desarrollo de sistemas integrados.
Windows es un sistema operativo popular. Tiene usuarios en todo el mundo.
DOS requiere pocos megabytes para funcionar, mientras que Windows requiere
gigabytes para funcionar.
MS DOS, PC –DOC, FreeDOS, PTS-DOS, ROM-DOS, OpenDOS, 86-DOS, DR-
DOS, Novell DOS son algunas versiones de DOS. Windows 95, XP, Vista, Windows 7,
Windows 8, Windows 10 son algunas versiones de Windows.
El software libre es todo software cuyo código fuente puede ser estudiado,
modificado, y utilizado libremente con cualquier fin y redistribuido con cambios o
mejoras o sin ellas. Su definición está asociada al nacimiento del movimiento de
software libre, encabezado por el activista y experto informático
estadounidense Richard Stallman y la fundación que presidía en 1985, la Free Software
Foundation, una organización sin ánimo de lucro que coloca la libertad del usuario
informático como propósito ético fundamental.
Un software es libre si otorga a los usuarios de manera adecuada las
denominadas cuatro libertades: libertad de usar, estudiar, distribuir y mejorar, de lo
contrario no se trata de software libre. Existen diversos esquemas de distribución que
no son libres, y si bien podemos distinguirlos sobre la base de cuánto les falta para
llegar a ser libres, su uso bien puede ser considerado contrario a la ética en todos los
casos por igual.
70
La expresión «software libre» proviene de la expresión del inglés free software,
que presenta ambigüedad entre los significados «libre» y «gratis» asociados a la
palabra free. Por esto es que suele ser considerado, de manera errónea, 45
como software gratuito y no en su acepción más precisa como software que puede ser
modificado y compartido sin infringir la licencia. El software libre suele estar disponible
gratuitamente, o al precio de coste de la distribución a través de otros medios, sin
embargo no es obligatorio que sea así, por lo tanto no hay que asociar software «libre»
a «gratuito» (denominado usualmente freeware), ya que, conservando su carácter de
libre, puede ser distribuido comercialmente. Análogamente, el software gratis o gratuito
incluye en ocasiones el código fuente; no obstante, este tipo de software no es «libre»
en el mismo sentido que el software libre, a menos que se garanticen los derechos de
modificación y redistribución de dichas versiones modificadas del programa. En este
sentido, es importante conocer las implicaciones jurídicas que emanan del uso del
software libre.
Tampoco debe confundirse software libre con «software de dominio público».
Este último es aquel que no requiere de licencia, pues sus derechos de explotación son
para toda la humanidad, porque permite el acceso a todos por igual. Cualquiera puede
hacer uso de él, consignando su autoría original. Este software sería aquel cuyo autor
lo dona a la humanidad o cuyos derechos de autor han expirado. Si un autor condiciona
su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.
71
beneficiarse de las modificaciones. El acceso al código fuente es una
condición necesaria para ello.
Instalación del Sistema Operativo: Para instalar Linux hay que realizar
relativos esfuerzos, aunque cada vez es una tarea más sencilla, pero puedes
personalizar completamente la instalación. A la hora de
instalar Windows prácticamente no puedes configurar nada (cuatro cosas
básicas). Eso sí, la instalación de Windows es muy fácil y cómoda.
Compatibilidad con el Hardware: Windows es generalmente más
compatible con todo tipo de hardware que Linux. No obstante, cada vez se
acercan más ambos a la compatibilidad total, que sería lo deseable. Gracias a
72
que Linux goza de alta popularidad, ofrece una alta compatibilidad a pesar de
no estar detrás de ninguna casa comercial. Además ofrece actualizaciones de
forma frecuente. Windows forma parte de Microsoft, y debido a su gran poder
económico intenta ofrecer un elevado número de drivers, ya que las empresas
de hardware crean sus propios drivers.
Software: Linux cuenta con menos software en algunos sectores, y tiene una
73
CONCLUSIÓN
Al concluir este proyecto pude reafirmar mis conocimientos sobre los distintos
tipos de computadoras, como nace, el uso de cada una, como se han desarrollado con
el pasar de los años, y como se va aplicando tecnológicamente a nivel de redes y
computadores individuales.
La informática está presente prácticamente en toda actividad humana, directa o
indirectamente. Por eso, ha adquirido tanta relevancia que es imprescindible la
preparación de los niños y jóvenes, no sólo en el uso de la computadora y en el
desarrollo de ciertas habilidades prácticas en este campo, sino en la comprensión de
su funcionamiento y en la valoración de su potencial, así como en el conocimiento de
sus limitaciones y los riesgos que le acompañan.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo
del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos
tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos
informáticos han abierto una nueva era en la fabricación gracias a
las técnicas de automatización, y han permitido mejorar los sistemas modernos
de comunicación. Son herramientas esenciales prácticamente en todos los campos
de investigación y en tecnología aplicada.
En la actualidad vemos como la informática crece cada día más y se apodera de
las actividades que hacemos a diario, la computadora se ha convertido en un
instrumento indispensable para las actividades del hombre. Es por ello que resulta
indispensable conocer a fondo la computadora y sus diversos componentes. Entre sus
componentes encontramos el hardware y el software.
El hardware es la parte física del computador lo que podemos ver y tocar. Ejemplos de
ellos son el monitor, CPU, teclado, ratón, cornetas entre otros.
Una de las formas de clasificar el Hardware es en dos categorías: por un lado, el
"básico", que abarca el conjunto de componentes indispensables necesarios para
otorgar la funcionalidad mínima a una computadora, y por otro lado,
74
el Hardware "complementario", que, como su nombre lo indica, es el utilizado para
realizar funciones específicas (más allá de las básicas), no estrictamente necesarias
para el funcionamiento de la computadora.
La computadora es una máquina electrónica capaz de ordenar procesar y elegir
un resultado con una información. En la actualidad, dada la complejidad del mundo
actual, con el manejo inmenso de conocimientos e información propia de esta época de
crecimiento tecnológico es indispensable contar con una herramienta que permita
manejar información con eficiencia y flexibilidad, esa herramienta es la computadora.
Las computadoras cuentan con diversas herramientas para realizar varias acciones
tales como procesadores de palabras que permiten crear documentos, editarlos y
obtener una vista preliminar del mismo antes de imprimirlo si esa es la necesidad,
también cuenta con hojas de cálculo que permiten realizar operaciones de cálculo de
tipo repetitivas o no, también permite crear nóminas, balances, auditorias y demás
operaciones resultando herramientas muy útiles en muchas áreas de desenvolvimiento
cotidiano.
Estas herramientas necesitan de una plataforma en la cual ejecutarse. Este es el
papel del sistema operativo de una máquina computacional, que permite gestionar
ficheros, llamadas al sistema, entre otras acciones. Siendo Linux un sistema operativo
muy eficiente constituyéndose en una alternativa muy viable a la hora de escoger un
determinado sistema operativo, ya que combina la eficiencia, rapidez y potencia de los
sistemas UNIX con la facilidad de uso de un sistema gráfico como MS Windows.
75
BIBLIOGRAFÍAS
78
79
ÁBACO
REGLA DE CÁLCULO
MÁQUINA DE PASCAL
80
TELAR DE JACQUARD
81
TABULADORA DE HOLLERITH
82
PARTES DEL COMPUTADOR
83
84
TECLADO
UNIDAD DE ALMACENAMIENTO
85
EVOLUCIÓN DE LA IMPRESORA
TIPOS DE COMPUTADORAS
86
ESCRITORIO E ÍCONOS
PANEL DE CONTROL
87
LETRA CAPITAL O CAPITULAR
MS-DOS Y WINDOWS
SOFTWARE LIBRE
88