Está en la página 1de 88

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Universitaria


Universidad Pedagógica Experimental Libertador
(U.P.E.L.)
San Felipe – Estado Yaracuy
Diplomado de Salud Ocupacional

Autor:
Mirielys Lorena Mesa Silvera
C.I.: 20.468.487
Médico Integral Comunitario

San Felipe, 12 Agosto de 2020.


ÍNDICE

 Introducción……………………………...………………………………………………3
 La informática……………………………………………………………………………7
 Historia de la informática……………………………………………………………….8
 Evolución de la informática……………………………………………………..…….15
 Partes del computador………………………………………………………………..23
 Que es el monitor y tipos de monitor por evolución……………………………..…27
 Que es el teclado y en cuantas partes de divide, explique……………………….34
 Que es la unidad de almacenamiento y mencione cuales existen…………….…36
 Que es el mouse y mencione su evolución…………………………………………42
 Que es la impresora y mencione su evolución…………………………………..…44
 Que es un virus y antivirus más conocidos…………………………………………46
 Tipos de computadores existentes…………………………………………………..49
 Que es el escritorio……………………………………………………………………53
 Que es un ícono y tipos de íconos…………………………………………………..55
 En qué consiste el panel de control………………………………………………….57
 Que es Word y para qué sirve………………………………………………………..60
 Que es una letra capital……………………………………………………………….62
 Escribe un párrafo y utiliza la letra capital………………………………………..…62
 Que es Excel y para qué sirve……………………………………………………….63
 Que es Power Point y funciones básicas…………………………………………...65
 Qué diferencia tiene el MS-DOS con Windows fundamente su respuesta……..66
 Qué es el software libre y su diferencia con Windows fundamente su
respuesta…………………………………………………………………………...…..70
 Conclusión…………………………………………………………………………...…74
 Bibliografías……………………………………………………..……………………..76
 Anexos……………………………………………...…………………………………..79

2
INTRODUCCIÓN

Las computadoras surgen como una necesidad por encontrar mecanismos que
faciliten la realización de operaciones de cálculos matemáticos o aritméticos. Los
equipos de procesamiento de datos, tal como lo vemos en la actualidad, surgen luego
de un proceso de evolución, que va desde los instrumentos de cálculo hasta las
computadoras de última generación en la cual nos encontramos en la actualidad.
Hablar de computación, es hablar de un tema apasionante en todos los sentidos,
nos hace soñar sobre el futuro, nos hace discutir sobre las tecnologías apropiadas y
sus costos, las políticas para desarrollar una industria, institución y un país. Pero
fundamentalmente hablar de computación o informática es hablar de la necesidad de
recursos humanos capacitados, de los cambios en la forma de trabajar y los nuevos
empleos, de las nuevas posibilidades de desarrollo individual y hasta de aprendizaje
con la inserción de la computadora; hablar de computación es hablar de educación.
El origen de las máquinas de calcular está dado por el ábaco chino, éste era una
tablilla dividida en columnas en la cual la primera, contando desde la derecha,
correspondía a las unidades, la siguiente a la de las decenas, y así sucesivamente. A
través de sus movimientos se podía realizar operaciones de adición y sustracción.
Otro de los hechos importantes en la evolución de la informática lo situamos en
el siglo XVII, donde el científico francés Blas Pascal inventó una máquina calculadora.
Ésta sólo servía para hacer sumas y restas, pero este dispositivo sirvió como base para
que el alemán Leibnitz, en el siglo XVIII, desarrollara una máquina que, además de
realizar operaciones de adición y sustracción, podía efectuar operaciones de producto y
cociente. Ya en el siglo XIX se comercializaron las primeras máquinas de calcular. En
este siglo el matemático inglés Babbage desarrolló lo que se llamó "Máquina Analítica",
la cual podía realizar cualquier operación matemática. Además disponía de una
memoria que podía almacenar 1000 números de 50 cifras y hasta podía usar funciones
auxiliares, sin embargo seguía teniendo la limitación de ser mecánica.

3
Recién en el primer tercio del siglo XX, con el desarrollo de la electrónica, se
empiezan a solucionar los problemas técnicos que acarreaban estas máquinas,
reemplazándose los sistemas de engranaje y varillas por impulsos eléctricos,
estableciéndose que cuando hay un paso de corriente eléctrica será representado con
un *1* y cuando no haya un paso de corriente eléctrica se representaría con un *0*.
Con el desarrollo de la segunda guerra mundial se construye el primer
ordenador, el cual fue llamado Mark I y su funcionamiento se basaba en interruptores
mecánicos. En 1944 se construyó el primer ordenador con fines prácticos que se
denominó Eniac. En 1951 son desarrollados el Univac I y el Univac II (se puede decir
que es el punto de partida en el surgimiento de los verdaderos ordenadores, que serán
de acceso común a la gente).
Siguiendo esta línea, en 1954 aparece FORTRAN, el primer lenguaje de alto
nivel, seguido por otros como COBOL, ALGOL, BASIC o PL I. Desde entonces, el
desarrollo y construcción de estas máquinas ha crecido de forma espectacular, siendo
los avances tecnológicos más importantes la invención de los transistores en 1958 y el
posterior desarrollo de los circuitos integrados a partir de mediados de la década de los
60.
En esta época aparecen potentes sistemas de software que facilitan la labor a
los programadores; son los sistemas operativos, de los que se pueden citar como
ejemplo el VMS, MVS o el UNIX. Además, aparecen nuevos lenguajes que toman
como base los postulados sobre programación estructurada de (Dijkstra, 1968), como
son PASCAL (Jensen & Wirth, 1991) o C (Kernighan & Ritchie, 1989). A partir de la
década de los 70, se acentúa el avance en el hardware, gracias a la invención del
microprocesador, que supone una significativa reducción del precio y tamaño en los
ordenadores, haciéndolos más populares.
En 1982 apareció MODULA-2, desarrollado por Wirth para adaptar PASCAL a
las nuevas tendencias en el software, que buscan modularidad y abstracción. En
general, el avance del hardware ha acercado las máquinas al usuario doméstico, y,
conjuntamente, se ha ido incrementando la diversidad, potencia y complejidad del
software. De hecho, el crecimiento del software ha sido más vertiginoso, si cabe, que el

4
del hardware, hasta tal punto que el programa no se hace para dar funcionalidad a una
máquina determinada, sino que se compra un hardware determinado para dotar de
ciertas capacidades (velocidad, posibilidad de almacenamiento, etc.) al programa que
se esté usando.
Actualmente, las computadoras pueden ser definidas como un sistema rápido y
exacto que manipula símbolos y que está organizado de manera que pueda aceptar,
almacenar y procesar datos y producir resultados (salidas) bajo la dirección de una
serie de instrucciones adecuadas (software). Cuando se estudian características de los
ordenadores es necesario referirse a dos componentes bien diferenciadas: hardware y
software.
Del mismo modo, la informática o computación es la ciencia que estudia
los métodos y técnicas para almacenar, procesar y transmitir información de manera
automatizada, y más específicamente, en formato digital empleando sistemas
computarizados.
No existe realmente una definición única y universal de lo que la informática es,
quizá porque se trata de una de las ciencias de más reciente origen, aunque de
desarrollo más vertiginoso y desenfrenado.
Por eso en muchos espacios académicos suelen diferenciar entre esta disciplina
y las ciencias de la computación (o la ingeniería informática), considerando que estas
últimas posen un abordaje más teórico de la materia, mientras que la informática tiene
siempre un costado práctico y aplicado, vinculado con los dispositivos electrónicos.
Otros, en cambio, consideran como subdisciplinas de la informática a las
Ciencias de la computación, la Ingeniería informática, los Sistemas de información, la
Tecnología de la información y la Ingeniería del software.
En todo caso, la informática como disciplina tiene que ver con el procesamiento
automático de la información a través de dispositivos electrónicos y sistemas
computacionales, dotados estos últimos de tres funciones básicas: el ingreso
de datos (entrada), el procesamiento de datos y la transmisión de resultados (salida).
La informática tiene como propósito clave el almacenamiento y la recuperación
de información, lo cual ha sido una de las preocupaciones clave de la humanidad

5
desde el inicio de los tiempos. En ese sentido, el primer sistema de almacenamiento
fue la escritura misma, que permitía codificar mensajes y recuperarlos luego a través
de marcas sobre una superficie.
Vista así, la informática ha llevado ese mismo principio al máximo, creando
sistemas y aparatos que almacenen, produzcan, transmitan y reproduzcan información
de manera masiva, eficiente y veloz. No en balde la informática interviene hoy en día
en prácticamente todos los demás campos del saber de un modo o de otro.
La importancia de la informática hoy en día no podría ser más evidente. En un
mundo hipertecnologizado e hiperconectado, la información se ha convertido en uno de
los activos más preciados del mundo, y los complejos sistemas informáticos que hemos
construido nos permiten administrarlo de manera más veloz y eficiente que nunca antes
en la historia.
La computación es una de las disciplinas de mayor demanda en el mercado
universitario del mundo. Tiene la mayor y más rápida salida laboral, dado que casi
ningún aspecto de la vida cotidiana se mantiene al margen todavía del mundo digital y
de los grandes sistemas de procesamiento de información.
La big data (o “gran información”) que nuestros dispositivos reúnen de nosotros
es evidencia de ello: vivimos realmente en la era de la información, y la informática
entonces no podría ser más importante.

6
LA INFORMÁTICA

Es una de las disciplinas científicas más jóvenes, surgida formalmente en la


segunda mitad del siglo XX. El término informática proviene del francés informatique,
implementado por el ingeniero Philippe Dreyfus a comienzos de la década de los 60. La
palabra es, a su vez, un acrónimo de información y automática. (3) En este sentido, la
informática también llamada computación según determinados autores, es la ciencia
que estudia los métodos y técnicas para almacenar, procesar y transmitir información
de manera automatizada, más específicamente en formato digital, mediante
dispositivos electrónicos y sistemas computacionales (dotados de funciones básicas:
ingreso de datos o entrada, procesamiento de datos y transmisión de resultados o
salida).
De tal modo que, no existe realmente una definición única y universal de lo que
la informática es, quizá porque se trata de una de las ciencias de más reciente origen,
aunque de desarrollo más vertiginoso y desenfrenado. Por lo cual, en muchos espacios
académicos suelen diferenciar entre esta disciplina y las ciencias de la computación (o
la ingeniería informática), considerando que estas últimas posen un abordaje más
teórico de la materia, mientras que la informática tiene siempre un costado práctico y
aplicado, vinculado con los dispositivos electrónicos. Otros, en cambio, consideran
como subdisciplinas de la informática a las Ciencias de la computación, la Ingeniería
informática, los Sistemas de información, la Tecnología de la información y la Ingeniería
del software.
En este sentido, se establece que, la informática abarca también los principales
fundamentos de las ciencias de la computación, como la programación para el
desarrollo de software, la arquitectura de las computadoras y del hardware, las redes
como Internet y la inteligencia artificial. Incluso se aplica en varios temas de
la electrónica. De este modo, se considera que la primera máquina programable y
completamente automática de la historia fue el computador Z3, diseñado por el
científico alemán Konrad Zuse en 1941. Esta máquina pesaba 1000 kilogramos y se

7
demoraba tres segundos para realizar una multiplicación o una división. Las
operaciones de suma o resta, en cambio, le insumían 0,7 segundos.

HISTORIA DE LA INFORMÁTICA

Se podrá comenzar hablando de las máquinas abstractas postuladas por los


matemáticos a principios del siglo XX como parte importante de las bases de las
computadoras actuales, pero la búsqueda de métodos, herramientas y máquinas para
efectuar tareas algorítmicas ha tenido una larga historia que se remonta a tiempos
mucho más antiguos. Ya los babilonios utilizaban tablas de multiplicación por el año
1700 a.C. Estos resolvieron muchas clases de ecuaciones algebraicas, en las que las
fórmulas se representaban como listas de reglas a seguir para resolver la ecuación,
recordando lo que hoy se entiende por algoritmo.
El hombre primitivo usó los diez dedos de la mano para contar (de ahí el sistema
de numeración decimal). Posteriormente se ayudó de guijarros o piedras agrupadas en
montones y se sofisticó el método de contar haciendo surcos en una bandeja cubierta
de arena (tabla de arena), en la que se representaban los números por piedras y sus
posiciones en los surcos. En las tablas de arena, el primer surco de la derecha se
puede corresponder a las unidades, el segundo a las decenas, el tercero a las
centenas, y así sucesivamente. La suma consiste en añadir piedras en la hendidura
derecha; cuando se completa con diez, se quitan todas y se añade una en la fila
siguiente, y así sucesivamente. La palabra cálculo procede de calculus, que en latín
significa piedra.
Históricamente, el Ábaco puede considerarse como la primera herramienta
eficaz para ayuda del cálculo. La tabla de arena puede considerarse precursora del
ábaco, que en una primera forma evolucionada era una tabla de madera con
hendiduras en forma de surcos en los que se introducían las cuentas (piezas con las
que se hacían las cuentas). No está claro el origen del ábaco. Algunos autores afirman

8
que se desarrolló por el año 3000 a.C. en el valle entre el Tigris y el Eufrates, aunque
es muy probable que fuese inventado independientemente por varias culturas, como lo
demuestra el hecho de que en el descubrimiento de América se encontró que varias
civilizaciones precolombinas de México y Perú lo utilizaban. Además, se tiene noticia,
por escritos de autores como Plinio y Cicerón, de que los romanos utilizaron varios
tipos de ábacos, algunos de los cuales disponían incluso de ranuras adicionales para
facilitar las operaciones con fracciones. El ábaco, en su presente forma, fue introducido
en China sobre el 1200 d.C., pasando desde allí a Corea hacia el año 1400, y a Japón
sobre el 1600. La máquina es muy sencilla, y consta de cuentas ensartadas en varillas
que, a su vez, están montadas en un marco rectangular. Al desplazar las cuentas sobre
las varillas, sus posiciones representan valores almacenados, y mediante dichas
posiciones esta simplísima ''computadora'' representa y almacena datos. La entrada de
datos la efectúa la persona que manipula las cuentas; la salida de datos consiste en la
observación de las posiciones de las cuentas. El control de la ejecución de un algoritmo
en esta máquina depende del operador humano, por lo que el ábaco por sí mismo no
es más que un sistema de almacenamiento de datos; para crear una máquina
algorítmica completa debe participar un operador humano.
En 1615, el escocés John Napier (1550-1617), también inventor de los
logaritmos, ideó un sencillo instrumento mecánico denominado Varillas de Napier, con
el que se podían realizar con gran facilidad multiplicaciones y divisiones. Una familia
completa de varillas de Napier consta de nueve hileras, donde cada una es, en
esencia, una columna de la tabla de multiplicar, y con las cuales se realizan
multiplicaciones mediante suma de dígitos.
Entre 1620 y 1630 varios inventores ingleses Gunter, Oughtred y Delamain
desarrollaron diversas reglas de cálculo. En 1633, W. Oughtred inventó un dispositivo
para calcular basado en los logaritmos de Napier. Este dispositivo llegó a ser la
conocida regla de cálculo en la que se encuentran marcadas los logaritmos de los
números, y en consecuencia, las multiplicaciones y las divisiones se obtienen como
sumas y restas de tales logaritmos. Además, posee otras escalas que permiten
cálculos de exponentes, funciones trigonométricas y otras funciones matemáticas.

9
Estos instrumentos que utilizan logaritmos para realizar diversas operaciones y donde
los resultados y operando se representan por longitudes (por lo que son sistemas
analógicos) han sido utilizados por los investigadores e ingenieros hasta mediados de
la década de los sesenta, cuando aparece la calculadora de bolsillo.
En años más recientes, el diseño de máquinas de cómputo se basó en la
tecnología de las ruedas dentadas.
En 1642 el francés Blaise Pascal (1623-1662) inventó una máquina calculadora,
que sólo servía para sumar y restar, que patentó en 1647. La máquina estaba basada
en una serie de ruedas giratorias o diales, a las que se encuentran solidariamente
unidas unas ruedas dentadas. Con los diales se introducen los datos. Al girar el dial,
también lo hace un tambor que tiene escritas las diez cifras decimales. A través de una
pequeña ventana o visor se puede leer el número que indica la posición del tambor,
que es la cifra acumulada. Cada posición dentro del número tiene su correspondiente
dial y tambor de números. Para arrastrar valores de una posición a otra de mayor peso
se engarzan las ruedas dentadas de cada dos posiciones de pesos consecutivos. Cada
vez que una rueda A da una vuelta completa (es decir, la cifra correspondiente debe
pasar de 9 a 10), hace girar la rueda B correspondiente a la posición de peso superior
1/10 de vuelta, avanzando la cifra de su visor una posición, y la rueda A se sitúa en
cero, por haber empezado una vuelta.
En 1671 Gottfried Leibniz (1646-1716), basándose en la idea de Pascal,
construyó una máquina capaz de realizar las cuatro operaciones básicas. La
multiplicación se realiza mediante sumas sucesivas. La división se logra como una
operación inversa de la multiplicación. Leibnitz construyó esta máquina a la edad de 25
años, y en 1694 se fabricó de forma industrial, aun cuando no operaba correctamente
cuando se presentaban situaciones en las que debían propagarse simultáneamente un
número determinado de cifras.
Una innovación muy importante, y en principio ajena a la informática, tuvo lugar
a principios del siglo XIX. Las calculadoras mecánicas mencionadas anteriormente no
se pueden considerar máquinas automáticas, pues requieren la continua intervención
de un operador humano. La introducción de la tarjeta perforada supuso un cambio.

10
Joseph Jacquard presentó en 1801 en París un telar automático controlado por tarjetas
perforadas. Para conseguir en un telar un dibujo concreto es necesario levantar
determinadas hebras durante cada desplazamiento de la lanzadera. Las hebras que
deben moverse juntas van atadas a una varilla. El sistema de Jacquard contenía un
conjunto de tarjetas perforadas según el dibujo que se desease tejer. Para diseñar
cualquier dibujo no había más que cambiar la secuencia de tarjetas.
El matemático y científico británico Charles Babbage (1792-1871) diseñó en
1822 una máquina de diferencias para producir tablas de navegación. Esta máquina de
diferencias puede considerarse una computadora digital con un programa fijo.
Conforme diseñaba la máquina de diferencias, a Babbage se le ocurrió la idea de que
podía modificar las interconexiones entre los registros durante el proceso de cómputo
para obtener un computador de uso general. De los telares de Jacquard obtuvo la idea
de utilizar tarjetas perforadas para controlar interconexiones y dar la entrada de datos.
A los elementos que realizaban las operaciones aritméticas los denominó taller (mill en
inglés), y a los elementos necesarios para almacenar los números almacén (store). Se
puede decir, que Charles Babbage se adelantó al concepto actual de computadora en
cuanto a que proponía cuatro elementos fundamentales en su estructura: entradas,
salidas, unidad aritmético-lógica (el taller) y la memoria (el almacén). Además, su
máquina estaba concebida como una computadora universal completamente
automática y capaz de resolver gran cantidad de problemas. Es esta flexibilidad el gran
progreso de la máquina analítica (como se denominó a este sistema ideado por
Babbage en 1833) frente a los calculadores mecánicos anteriores. Las calculadoras de
Pascal y Leibniz incorporaban los algoritmos en su arquitectura, compuesta de ruedas
dentadas y engranajes. Por el contrario, la máquina de Babbage fue diseñada de forma
que fuera posible comunicarle la secuencia de pasos a ejecutar a partir de los agujeros
de una tarjeta de cartón. La máquina analítica no llegó a construirse debido a que era
de una gran complejidad mecánica y la mecánica de precisión de su época no estaba
lo suficientemente desarrollada. Babbage dejó muy pocos datos acerca de su trabajo y
fue Augusta Ada Lovelace, hija de Lord Byron y discípula de Babbage, quien dejó
abundantes escritos de la máquina analítica al diseñar algunos programas para ella. Si

11
la tecnología de la época no ofrecía la precisión requerida para popularizar las
complejas calculadoras de Pascal, Leibniz o Babbage, esto no cambió hasta que la
electrónica comenzó a complementar a los dispositivos mecánicos. A esta etapa, en la
que la tecnología fue capaz de sostener los avances teóricos que se estaban
produciendo, se la conoce como etapa electromecánica.
A finales del siglo XIX, la oficina del censo de los Estados Unidos se veía
desbordada por la cantidad de datos a analizar, por lo que encargó a un experto en
estadística, Hermann Hollerith, el desarrollo de alguna técnica que acelerara el proceso
de análisis de dichos datos. Hollerith propuso que los datos del censo fueran
perforados en tarjetas y tabulados automáticamente con ayuda de máquinas
especialmente diseñadas para ello. Con esta mecanización del procesamiento de datos
de los censos mediante el uso de tarjetas perforadas se obtuvo una velocidad de
clasificación de 60 tarjetas por minuto, haciendo posible que el censo de 1890 se
efectuase en tres años, en lugar de los doce inicialmente previstos. A partir de aquí,
Hollerith fundó la Tabulating Machines Company, que posteriormente pasó a formar
parte de la International Business Corporation (IBM).
El espectacular avance que la electrónica protagoniza durante la segunda mitad
del siglo XIX culminó con el principal hito en este campo: la invención de la válvula de
vacío en 1906, que haría evolucionar rápidamente las características de hardware de
los ordenadores.
Hacia 1914, el español Leonardo Torres Quevedo (1852 - 1936) creó el primer
sistema auténticamente automático para jugar al ajedrez. Posteriormente publicó un
trabajo sobre el diseño de una máquina de calcular electro-mecánica basada en las
ideas de Babbage, que previamente había presentado en París en 1935. En el decenio
de 1930 - 1940, el desarrollo de los ordenadores sufrió la poderosa influencia de la
Segunda Guerra Mundial. En este período se llevaron a cabo varios proyectos de gran
trascendencia. Entre ellos, un proyecto financiado por el ejército de los EEUU, por el
que se construyeron en los Bell Telephone Laboratories cinco ordenadores de gran
escala basados en relés electromecánicos como componentes operacionales básicos,
representando un avance significativo de las calculadoras del momento. A comienzos

12
de los años 30, John Atanasoff, del Iowa State College, comenzó a formular los
principios de la primera calculadora electrónica automática. La construcción del
prototipo se inició en 1939, en el que se incorporó el uso de la base binaria y una
memoria de máquina regenerable. Durante ese mismo período, en Alemania, Konrad
Zuse se dedicó al diseño y construcción de ordenadores, promoviendo por primera vez
algunas ideas fundamentales, como el uso del sistema binario, a pesar de no tener
referencias del trabajo realizado en el resto del mundo.
Howard Aiken, entre los años 1937 y 1944, desarrolló un ordenador, llamado
MARK I, con el apoyo de IBM y de la Marina de los EEUU. Este ordenador estaba
basado en relés, siendo capaz de ejecutar una serie arbitraria de operaciones
aritméticas controlada por una secuencia de instrucciones codificadas. Estas máquinas
basadas en relés electromecánicos quedaron desfasadas al poco tiempo de ser
construidas, ya que otros investigadores ya estaban aplicando la tecnología de los
tubos de vacío para construir computadoras digitales totalmente electrónicas.
Durante la Segunda Guerra Mundial, fue construida en Inglaterra por la
Inteligencia Británica la máquina COLOSSUS, con el fin de decodificar los mensajes
alemanes. Pero el primer ordenador de gran tamaño completamente electrónico,
llamado ENIAC (Electronic Numerical Integrator And Calculator), fue construído entre
1943 y 1946 bajo la dirección de John Mauchly y J. Presper Ecker, en la Universidad de
Pennsylvania. En este ordenador se utilizaron tubos de vacío electrónicos en vez de los
relés electromecánicos que utilizaban sus predecesores. Éste constituyó el más
importante y ambicioso esfuerzo para desarrollar la computación electrónica. El ENIAC
constaba de unos 18.000 tubos de vacío, 70.000 perforadas, y los programas se
construían mediante conexiones entre sus componentes. Su mayor defecto era que
tenía una capacidad limitada de almacenamiento de información. En esta época, la
programación de estas computadoras era una tarea bastante difícil, puesto que la
secuencia de instrucciones a ejecutar estaba cableada en el hardware de las mismas.
Por lo tanto, cada vez que se cambiaba el algoritmo a ejecutar, era necesario cambiar
el cableado de la máquina. Un algoritmo que tardaba en ejecutarse dos minutos,
tardaba en programarse en la máquina dos días.

13
John von Neumann en 1945 fue el primero en proponer el concepto de programa
almacenado, de forma que las instrucciones podían guardarse en la memoria junto con
los datos, aumentando así la flexibilidad y aplicación de los ordenadores. Se podía
cambiar el programa de la máquina sin necesidad de cambiar las conexiones de ésta.
Entre otras sugerencias planteadas en su trabajo, las más importantes podrían ser: 1)
la utilización de la estructuración realizada por Babbage para las distintas unidades
funcionales de un ordenador: entrada, salida, unidad aritmética, unidad de control y
memoria; y 2) la representación binaria para la realización de operaciones aritméticas
(el ENIAC, por ejemplo, utilizaba aritmética decimal). La mayoría de los ordenadores
actuales siguen estos criterios, por lo que se suelen denominar arquitecturas von
Neumann. Por esta época (1946-1952), se desarrollaron varios ordenadores basados
en la idea de von Neumann, tales como el EDSAC, el EDVAC, el IAS, el ILLIAC, etc.
Los padres del ENIAC desarrollaron el primer ordenador digital producido
comercialmente, el UNIVAC. Este ordenador utilizaba diodos de cristal en vez de tubos
de vacío. Además, tenía la posibilidad de leer información, efectuar operaciones y
escribir información de salida simultáneamente, gracias a dispositivos periféricos que
operaban con independencia. Poseía también un complicado sistema de cinta
magnética.
En esta época se programaba directamente en el lenguaje de la máquina, pero
ante las dificultades que ello entrañaba, surgió la necesidad de buscar una forma de
expresión más apropiada. De esta forma apareció la idea de traducir de forma
automática el diseño, expresado en un lenguaje natural, al lenguaje que entiende la
máquina. Siguiendo esta línea, en 1954 aparece FORTRAN, el primer lenguaje de alto
nivel, seguido por otros como COBOL, ALGOL, BASIC o PL I. Desde entonces, el
desarrollo y construcción de estas máquinas ha crecido de forma espectacular, siendo
los avances tecnológicos más importantes la invención de los transistores en 1958 y el
posterior desarrollo de los circuitos integrados a partir de mediados de la década de los
60.
En esta época aparecen potentes sistemas de software que facilitan la labor a
los programadores; son los sistemas operativos, de los que se pueden citar como

14
ejemplo el VMS, MVS o el UNIX. Además, aparecen nuevos lenguajes que toman
como base los postulados sobre programación estructurada de (Dijkstra, 1968), como
son PASCAL (Jensen & Wirth, 1991) o C (Kernighan & Ritchie, 1989). A partir de la
década de los 70, se acentúa el avance en el hardware, gracias a la invención del
microprocesador, que supone una significativa reducción del precio y tamaño en los
ordenadores, haciéndolos más populares.
En 1982 apareció MODULA-2, desarrollado por Wirth para adaptar PASCAL a
las nuevas tendencias en el software, que buscan modularidad y abstracción. En
general, el avance del hardware ha acercado las máquinas al usuario doméstico, y,
conjuntamente, se ha ido incrementando la diversidad, potencia y complejidad del
software. De hecho, el crecimiento del software ha sido más vertiginoso, si cabe, que el
del hardware, hasta tal punto que el programa no se hace para dar funcionalidad a una
máquina determinada, sino que se compra un hardware determinado para dotar de
ciertas capacidades (velocidad, posibilidad de almacenamiento, etc.) al programa que
se esté usando.

EVOLUCIÓN DE LA INFORMÁTICA

PRIMERA GENERACIÓN (1951-1958): Los ordenadores de la primera


generación se construyeron a base de válvulas. Los operadores introducían los datos y
programas en código especial por medio de tarjetas perforadas. El almacenamiento
interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo
de lectura/escritura colocaba marcas magnéticas. Esos ordenadores de válvulas eran
muy grandes y generaban mucho calor. Eckert y Mauchly contribuyeron al desarrollo de
ordenadores de la primera generación formando una compañía privada, UNIVAC, y
construyendo el primer ordenador en serie, UNIVAC I, que el Comité del censo utilizó
para evaluar el de 1950.

15
IBM tenía hasta ese momento el monopolio de los equipos de procesamiento de
datos a base de tarjetas perforadas y estaba teniendo un gran auge en otros productos;
sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a
construir ordenadores electrónicos y su primera entrada fue con el IBM 701 en 1953.
Después de un lento comienzo el IBM 701 se convirtió en un producto comercialmente
viable. En 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM
disfruta hoy de una gran parte del mercado de los ordenadores. La administración de
IBM asumió un gran riesgo y estimó una venta de 50 ordenadores. Este número era
mayor que la cantidad de ordenadores instalados en esa época en Estados Unidos. De
hecho IBM instaló 1000 ordenadores. Aunque caros y de uso limitado los ordenadores
fueron aceptados rápidamente por las Compañías privadas y los Gobiernos. A la mitad
de los años 50 IBM se consolidaba como líder en la fabricación de ordenadores.
Hacia 1956 aparece el primer lenguaje de programación de alto nivel, el
FORTRAN (Fórmula Translator), pensado exclusivamente para aplicaciones científicas.
Esto evitaba tener que programar los ordenadores en lenguaje máquina o
ensamblador. Además, el FORTRAN tenía una sintaxis común para todos los
ordenadores, mientras que el lenguaje máquina o su correspondiente ensamblador, es
específico para cada máquina.
En cuanto al almacenamiento auxiliar de información, se desarrolla la cinta
magnética, que permitió el almacenamiento secuencial de millones de caracteres, con
una velocidad de transferencia al ordenador muy superior a los medios existentes
anteriormente: tarjetas y cintas perforadas.

SEGUNDA GENERACIÓN (1959-1964): El invento del transistor hizo posible


una nueva generación de ordenadores, más rápidos, más pequeños y con menores
necesidades de ventilación. Sin embargo el costo seguía siendo una porción
significativa del presupuesto de una Compañía. Los ordenadores de la segunda
generación utilizaban redes de núcleos magnéticos en lugar de tambores giratorios
para el almacenamiento primario (memoria central). Estos núcleos contenían pequeños
anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse

16
datos e instrucciones. Los programas de ordenador también mejoraron. El lenguaje de
programación COBOL estaba ya disponible comercialmente. Los programas escritos
para un ordenador podían transferirse a otro con un mínimo esfuerzo. El escribir un
programa ya no requería entender plenamente el hardware de la computación. Los
ordenadores de la segunda generación eran substancialmente más pequeños y rápidos
que los de válvulas, y se usaban para nuevas aplicaciones, como en los sistemas para
reserva en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las
empresas comenzaron a utilizar los ordenadores en tareas de almacenamiento de
registros, como manejo de inventarios, nómina y contabilidad. La marina de Estados
Unidos utilizó los ordenadores de la segunda generación para crear el primer simulador
de vuelo (Whirlwind I). HoneyWell se colocó como el primer competidor durante la
segunda generación de ordenadores. Burroughs, Univac, NCR, CDC, HoneyWell, los
más grandes competidores de IBM durante los años 60 se conocieron como el grupo
BUNCH (siglas).
En esta generación comienzan a desarrollarse los periféricos, en particular, el
disco magnético para almacenamiento auxiliar de información; el disco resulta mucho
más rápido que la cinta magnética porque permite acceder a un dato sin tener que
acceder a todos los que le precede.

TERCERA GENERACIÓN (1964-1971): Los ordenadores de la tercera


generación aparecieron con el desarrollo de los circuitos integrados (pastillas de silicio)
en los cuales se colocan miles de componentes electrónicos, en una integración en
miniatura. Los ordenadores nuevamente se hicieron más pequeños, más rápidos,
desprendían menos calor y eran energéticamente más eficientes. Antes del
advenimiento de los circuitos integrados, los ordenadores estaban diseñados para
aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos
integrados permitieron a los fabricantes de ordenadores incrementar la flexibilidad de
los programas, y estandarizar sus modelos. El IBM 360, uno de los primeros
ordenadores comerciales que usó circuitos integrados, podía realizar tanto análisis
numéricos como administración ó procesamiento de archivos. Los clientes podían

17
escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus
programas actuales.
Los ordenadores trabajaban ya a tal velocidad que proporcionaban la capacidad
de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo
el ordenador podía estar calculando la nómina y aceptando pedidos al mismo tiempo.
Con la introducción del modelo 360 IBM acaparó el 70% del mercado; para evitar
competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió
sus esfuerzos hacia ordenadores pequeños. Mucho menos costosos de comprar y de
operar que los ordenadores grandes, los miniordenadores se desarrollaron durante la
segunda generación pero alcanzaron su mayor auge entre 1960 y 70.
Hasta 1964, para programar un ordenador se debían perforar paquetes de
tarjetas con las órdenes codificadas en un lenguaje, como FORTRAN o COBOL, que
luego se suministraban al ordenador para que los procesase. Este proceso, lento y
laborioso, era frustrante para los principiantes, por la lentitud en la corrección de
errores. En 1964, dos profesores del Dartmouth College, John Kemeny y Tom Kurt,
idearon una forma mejor de iniciar a los estudiantes en el manejo de los ordenadores.
Obtuvieron una beca y como consecuencia de sus trabajos nació el BASIC
(Beguinner’s All-purpose Symbolic Instruction Code). La gran innovación que supuso
BASIC fue el trabajo interactivo, lo que produjo el desarrollo de los sistemas operativos,
para poder mantener la conversación entre el usuario y el ordenador.
Los ordenadores de las dos primeras generaciones estaban destinados al
proceso de datos; pero eso ya no es suficiente. Surge la necesidad de acceder,
divulgar y compartir, es decir, comunicar datos a grandes distancias de forma rápida.
Este hecho produce el desarrollo de la teleinformática. En un principio se produjo el
desarrollo de las redes de ordenadores utilizando las redes telefónicas, ya existentes.

CUARTA GENERACIÓN (1971-1981): Dos mejoras en la tecnología de los


ordenadores marcan el inicio de la cuarta generación: el reemplazo de las memorias
con núcleos magnéticos, por las de chips de silicio y la colocación de muchos más
componentes en un chip, producto de la microminiaturización de los circuitos

18
electrónicos. En 1970, los técnicos de INTEL Corporation consiguieron concentrar
todos los componentes de un procesador en una pastilla de silicio y lo llamaron
2
microprocesador. El tamaño reducido del microprocesador (1 cm , aproximadamente)
hizo posible la creación de los microordenadores u ordenadores personales
(PC=Personal Computer). Hoy en día las tecnologías LSI (Integración a gran escala) y
VLSI (integración a muy gran escala) permiten que cientos de miles de componentes
electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que un
ordenador pequeño rivalice con un ordenador de la primera generación que ocupara un
cuarto completo.
Así como en la tercera generación la teleinformática resuelve el problema de
comunicar grandes ordenadores a grandes distancias, en la cuarta generación surge el
interés de comunicar microordenadores a distancias pequeñas y se resuelve con las
redes locales. En la actualidad, Internet da soluciones para conectar cualquier tipo de
ordenadores en cualquier lugar del mundo, mientras que cada organización puede
instalar su propia Intranet para conectar todos sus ordenadores propios.
En esta generación se ha desarrollado un buen número de periféricos, tanto de entrada
y salida como memorias auxiliares.

QUINTA GENERACIÓN (1982-actualidad): La quinta generación surge a partir


de los avances tecnológicos que se encontraron. Se crea entonces la computadora
portátil o laptop tal cual la conocemos en la actualidad. IBM presenta su
primera laptop o computadora portátil y revoluciona el sector informativo. En vista de la
acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de
poner también a esa altura el desarrollo del software y los sistemas con los que se
manejaban las computadoras. Estas son la base de las computadoras modernas de
hoy en día. La quinta generación de computadoras, también conocida por sus siglas en
inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto
hecho por Japón a finales de la década de los 80. Su objetivo era el desarrollo de una
nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia
artificial tanto en el plano del hardware como del software, 1 usando el lenguaje

19
PROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver
problemas complejos, como la traducción automática de una lengua natural a otra (del
japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones
de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per
Second) capaz de realizar durante la ejecución de las distintas tareas programadas.
Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large
Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las
computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es
imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no
se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de
rendimiento. Hay que tener claro que para realizar un programa paralelo debemos,
para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por
separado en distintos procesadores. Además las demás generaciones casi ya no se
usan, es importante señalar que un programa que se ejecuta de manera secuencial,
debe recibir numerosas modificaciones para que pueda ser ejecutado de manera
paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto
conlleva se ve compensado con la mejora del rendimiento de la tarea después de
paralelizarla.
Grandes cambios en este periodo se darían debido a las memorias DIMM de
108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los
slots PCI mejorando aún más su performance. Este avance en la velocidad y capacidad
de procesamiento están ligados firmemente a la aparición en el mercado de los
procesadores de Intel Pentium, el primero de ellos, el Pentium I en el año 1997, el
Pentium II en 1999 y finalmente el Pentium IV, en el año 2001.
Hoy en día sólo han quedado dos combatientes en el terreno de los
procesadores para computadoras, Intel y AMD. Entre ambos fabricantes cubren casi la
totalidad de las necesidades de proceso de cómputo en ámbitos como el hogar, la
oficina y la industria, y han puesto en el mercado CPUs con velocidades y rendimientos
imposibles de imaginar tan sólo una década atrás.

20
Entre los más destacados productos de estas firmas podemos mencionar
los procesadores Intel Core, en sus variantes i3, i5 e i7 de dos o cuatro núcleos y
velocidades de reloj que superan ampliamente los 3.4 Ghz. En cuanto a AMD, su
modelo Fusion es uno de los diseños más avanzados, ya que logra combinar en la
misma cápsula de la CPU al chip gráfico. Otro acierto de la firma es el Phenom II, el
cual puede llegar a montar en su interior hasta 6 núcleos corriendo a 3.6 Ghz.

SEXTA GENERACIÓN: Se podría considerar que la sexta generación de


computadoras tiene su inicio a finales del siglo XX y a principio del Siglo XXI, sin fecha
de culminación ya que se considera aún en desarrollo. En efecto, se mantienen los
avances tecnológicos de la generación anterior con el fin de mejorarlos y/o expandirlos.
Los dispositivos generados poseen la particularidad en común de estar destinados para
el consumo personal, lo que ha llevado a que éstos sean simplificados pero a la
vez, capaces de realizar varias funciones.
Como supuestamente la sexta generación de computadoras está en marcha
desde principios de los años noventas, debemos por lo menos, esbozar las
características que deben tener las computadoras de esta generación. También se
mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo
que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan
con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores
vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de
realizar más de un millón de millones de operaciones aritméticas de punto flotante por
segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán
creciendo desorbitadamente utilizando medios de comunicación a través de fibras
ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta
generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son:
inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía,
transistores ópticos, etc.

21
Características de la Seta Generación de Computadoras:
 La adecuación hacia el nuevo sistema de Internet: A partir del desarrollo de la

nueva herramienta que abrió las puertas hacia un cambio necesario en la


tecnología que se conocía hasta los momentos, como lo fue el Internet, se
requirió un procesador acorde a ello, lo que se logra a base de
microprocesadores que funcionan en simultáneo, los cuales promueven el
avance respecto a la capacidad de los computadores de esta generación.
 La necesidad de que el microprocesador funcionase: Este microprocesador

cuenta con más de un circuito. Se creó la utilización del Large Scale Integration
circuit (LSI) y del Very Large Scale Intergration circuit (VLSI), lo que luego ha
permitido que cada circuito pueda realizar diferentes asignaciones o funciones.
 Los avances en la memoria: La memoria primaria necesita ser operada a partir

de chips. Estos logran remplazar posteriormente lo que se venía utilizando (la


memoria de anillos magnécticos), por la memoria de chips de silicio, los cuales
se incrementan a nivel de rapidez y eficiencia.
 El desarrollo micro y macro de máquinas: Permitió una extensión a nivel de

computadoras, a nivel micro, con las computadoras personales o PC, de las


laptops y los sistemas operativos para realización de teléfonos inteligentes, y
también a nivel macro, con las supercomputadoras.
 El incremento de la funcionalidad del Internet: A partir de su funcionalidad se

requiere que llegue a todos los lugares posibles, lo que permitió la creación de
las redes inalámbricas, como, el WiFi, bluetooth y WiMax.
 Los avances multimedia: Indicio de asociación de dos áreas a partir del

desarrollo de la multimedia de los ordenadores, lo que permitirá la unión de las


imágenes o texto con el sonido. Se logra establecer posteriormente lo que sería
el DVD (Digital Video Disk o Digital Versatiel Disk), formando una unidad de
almacenamiento de contenido de vídeo, imagen y sonido.
 La funcionalidad acorde con dispositivos a nivel micro: Ya no sólo se pensaba a

nivel industrial, sino a nivel más personal-funcional, lo que hizo posible que las
computadoras dejen de ser tan necesarias y se simplifiquen en dispositivos

22
comolas tablets, smartphones, y otros dispositivos móviles, los cuales contaban
con la posibilidad de realizar algunas de las funciones de una PC a una
velocidad más simple y rápida.

PARTES DEL COMPUTADOR

Las computadoras pueden ser definidas como un sistema rápido y exacto que
manipula símbolos y que está organizado de manera que pueda aceptar, almacenar y
procesar datos y producir resultados (salidas) bajo la dirección de una serie de
instrucciones adecuadas (software). Cuando se estudian características de los
ordenadores es necesario referirse a dos componentes bien diferenciadas: hardware y
software.
El Hardware: es la parte física, tangible o material que componen las
computadoras y hacen posible su funcionamiento. Este concepto abarca a todos los
componentes eléctricos y mecánicos que permiten llevar, a cabo, en una computadora
las cuatro actividades fundamentales: entrada, procesamiento de información, salida y
almacenamiento secundario. Es importante aclarar que el Hardware por sí mismo es
incapaz de llevar adelante procesos informáticos sin la acción conjunta de programas
creados por el hombre. A estos últimos se los denomina genéricamente Software.
A continuación se describe cada uno de estos componentes en cada una de sus
categorías.

1. Periféricos de Entrada: Son aquellos que traducen datos, señales y


programas que los seres humanos pueden comprender, a formatos que la
computadora pueda procesar; es decir, interpreta la información y permite la
comunicación entre las personas y las computadoras
Los dispositivos o periféricos de entrada más comunes son: Teclado: principal
dispositivo de entrada en casi todos los sistemas de computación. Mouse o ratón:

23
apuntador que se emplea para manipular objetos en la pantalla. Te permite arrastrar los
objetos de un lugar a otro de la pantalla. Scanner: convierte el texto o las imágenes de
los documentos en un formato electrónico que la computadora puede manejar, mostrar,
imprimir y almacenar: Joystick: Periférico utilizado en los juegos. La palanca puede
moverse en distintas direcciones. Micrófono: Convierte las señales acústicas en
señales eléctricas.

2. Periféricos de Salida: Son instrumentos que interpretan y permiten la


comunicación entre los seres humanos y las computadoras. Estos dispositivos
convierten los resultados que produce el procesador y que se encuentran en código de
máquina en una forma comprensible de ser empleada por las personas.
Los dispositivos de salida más comunes son: Monitor: permite visualizar los
datos y gráficos generados por el usuario o por algún programa en especial.
Impresoras: dispositivos sobre los cuales se muestran los resultados de manera
impresa sobre algún tipo de material que sirva para ello. Plotter o graficadotes: tienen
un propósito especial, la impresión de planos arquitectónicos, mapas, avisos
publicitarios, ilustraciones tridimensionales, entre otros.

3. Periféricos Mixtos: Son periféricos de entrada/salida. Es decir, envían o


reciben datos, programas o información, desde el disco duro o desde otro dispositivo.
Los dispositivos o periféricos mixtos más comunes son: Pantalla táctil: pantalla
que emiten rayos invisibles de luz infrarroja localizada debajo de una capa de plástico
que cubre al monitor. Al tocar la pantalla con un dedo, permite seleccionar mediante
botones virtuales las opciones y comandos. Fax/Modem: convierten la señal digital en
señal analógica que pueden ser transmitidas por línea telefónica o cable. Webcams o
cámaras de video. Son capaces de digitalizar las imágenes recibidas desde una
cámara convencional, videocasetera, generando clips de video que pueden editarse y
visualizarse desde el monitor.

4. Periféricos de almacenamiento secundario: Proporcionan un espacio


24
físico donde almacenar los datos de forma permanente, aunque se apague la
computadora. Existen medios de diversas clases, y cada uno posee sus propias
características, lo cual lo hacen adecuados para diversos usos.
Estos dispositivos difieren básicamente en:
• Capacidad de almacenamiento.
• Velocidad de acceso a la información y transferencia de datos.
• Tipo de conexión.
• Portabilidad.
• Medios.

Los dispositivos de almacenamiento secundario o auxiliar más comunes con:


 Disco Flexible (disquete): Los disquetes constituyen el medio de
almacenamiento básico de cualquier computador personal (PC). Además
de guardar y recuperar información, los disquetes tienen una cualidad
sumamente útil: transportar datos de una computadora a otra.
 Disco duro: Esta es una unidad de almacenamiento permanente. Se
ubica en el interior del gabinete CPU y está completamente cerrado.
 Unidad Zip: Esta unidad es uno de los medio de almacenamiento
externos que se caracteriza principalmente por su gran confiabilidad y su
alta velocidad de transferencia de datos.
 CD-ROM: Es un medio de almacenamiento óptico. Para leer los datos
grabados en un CD-ROM se utiliza un haz de rayo láser. Los datos ahí
almacenados no se pueden modificar (son sólo de lectura). En
este aspecto, difiere mucho del almacenamiento en disco duro en el que
puedes escribir, borrar y leer datos. Su costo es bajo, pero su velocidad
de transferencia y tiempo de acceso no son tan rápido como el disco duro.
Los CD-ROMs y los discos compactos (CDs) musicales son
prácticamente idénticos, la única diferencia es la clase de datos que
almacenan.
 Unidades de cinta: El almacenamiento de datos en cinta magnética fue

25
la primera tecnología que se utilizó para almacenar grandes cantidades de
información. Las unidades de cinta aún se siguen utilizando aunque ya no
como medio de almacenamiento primario, sino para respaldar
información.
 Placa madre: La placa base, aunque también conocida como placa
madre, o tarjeta madre es una placa de circuito impreso a la que se
conectan los componentes que constituyen la computadora u ordenador.
Tiene instalados una serie de circuitos integrados, entre los que se
encuentra el chipset, que sirve como centro de conexión entre el
procesador, la memoria RAM, los buses de expansión y otros
dispositivos.
 Memoria RAM: La memoria de acceso aleatorio es la memoria desde
donde el procesador recibe las instrucciones y guarda los resultados. La
frase memoria RAM se utiliza frecuentemente para referirse a los módulos
de memoria que se usan en los computadores personales y servidores.
 Tarjeta de expansión: Las tarjetas de expansión son dispositivos con
diversos circuitos integrados y controladores que, insertadas en sus
correspondientes ranuras de expansión, sirven para ampliar las
capacidades de un ordenador. Las tarjetas de expansión más comunes
sirven para añadir memoria, controladoras de unidad de disco,
controladoras de vídeo, puertos serie o paralelo y dispositivos de módem
internos.

5. Unidad Central de Proceso (CPU): La función de la unidad central de


proceso es ejecutar instrucciones para procesar datos y controlar toda la operación de
la computadora digital. Para realizar las funciones de control, la unidad central de
proceso cuenta precisamente con la unidad de control que es la que se encarga de
coordinar la ejecución de las instrucciones y la transferencia de datos entre las
diferentes unidades de la computadora.

26
QUE ES EL MONITOR Y TIPOS DE MONITOR POR EVOLUCIÓN

El monitor de computadora o pantalla de ordenador, es un dispositivo de salida


que, mediante una interfaz, permite al usuario visualizar los resultados de los datos
previamente procesados por el CPU. Se conectan a través de una Tarjeta
gráfica conocida con el nombre de adaptador o Tarjeta de vídeo. La imagen que
podemos observar en los monitores está formada por una Matriz de puntos de luz.
Cada punto de luz reflejado en la pantalla es denominado como un Píxel. Un Píxel, es
la unidad mínima que se puede representar en un monitor, que se puede definir como
cada uno de los puntos que conforman una imagen digital.
También puede considerarse un periférico de entrada/salida si el monitor
tiene pantalla táctil o multitáctil.
Una computadora típica presenta un monitor con tecnología CRT (tubos de
rayos catódicos), la misma que emplean los televisores; sin embargo, hoy en día existe
la tecnología TFT (transistor de película fina) que reduce significativamente el volumen
de los monitores.
También se encuentran la tecnología LCD (dispositivos de cristal líquido),
plasma, EL (electroluminiscencia) o FED (dispositivos de emisión de campo);
inicialmente sólo aparecían en las computadoras portátiles, pero ahora se incluyen
también en otros equipos.
En cualquiera de estas tecnologías, la imagen mostrada consta
de píxeles (pequeños puntos o elementos de imagen). La resolución de un monitor se
refiere a la cantidad de píxeles que se muestran en un determinado espacio. A mayor
resolución, más amplitud tendrá el monitor.
El monitor también es un aparato o programa dedicado a gestionar información
de algún tipo como datos visuales o sonoros, se utiliza mucha en la medicina; por
ejemplo, cuando una mujer embarazada se realiza un ecosonograma, el monitor
muestra la imagen del feto y también se puede escuchar los latidos de su corazón.

27
En campo de la educación y sociocultural, el monitor es el encargado de guiar y
orientar a un grupo de personas o estudiantes, o de enseñar una actividad deportiva o
cultural.Tiene como funciones motivar, movilizar, sensibilizar a las personas, ayuda a
asumir responsabilidades, descubre en los individuos: sus aspiraciones, sus
necesidades, sus esperanzas, sus trabajos, etc.

HISTORIA DEL MONITOR:

Las primeras computadoras se comunicaban con el operador mediante unas


pequeñas luces, que se encendían o se apagaban al acceder a determinadas
posiciones de memoria o ejecutar ciertas instrucciones. Años más tarde aparecieron
ordenadores que funcionaban con tarjeta perforada, que permitían introducir programas
en el computador. Durante los años 60, la forma más común de interactuar con un
computador era mediante un teletipo, que se conectaba directamente a este e imprimía
todos los datos de una sesión informática. Fue la forma más barata de visualizar los
resultados hasta la década de los 70, cuando empezaron a aparecer los primeros
monitores de CRT (tubo de rayos catódicos). Seguían el estándar MDA (Monochrome
Display Adapter), y eran monitores monocromáticos (de un solo color) de IBM.
Estaban expresamente diseñados para modo texto y soportaban subrayado,
negrita, cursiva, normal e invisibilidad para textos. Poco después y en el mismo año
salieron los monitores CGA (Color Graphics Adapter –gráficos adaptados a color–)
fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del
estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios
de PC optaban por comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador
de gráficos mejorados) estándar desarrollado por IBM para la visualización de gráficos,
este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el
estándar VGA (Video Graphics Array - Matriz gráfica de video) fue un estándar muy
acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas
que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores

28
y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de
fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho
seguían estando en la mayoría de hogares donde había un ordenador.

TIPOS DE MONITOR POR EVOLUCIÓN

Según los estándares de monitores se pueden clasificar en varias categorías.


Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones,
definiciones y mejorar la calidad de las Imágenes.

Monitor MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter”
surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos
popularmente por los Monitores monocromáticos solo ofrecían textos, no incorporaban
modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente verde.
El mismo creaba irritación en los Ojos de sus usuarios.
Características:
 Sin Modo gráfico.
 Resolución 720_350 píxeles.
 Soporte de texto Monocromático.
 No soporta gráfico ni colores.
 La tarjeta gráfica cuenta con una Memoria de vídeo de 4 KB.
 Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.

Monitor CGA:
Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o
“Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron

29
comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica
conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían
optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año
existiendo competencia entre ellos. CGA fue el primero en contener Sistema gráfico a
color.
Características:
 Resoluciones 160_200, 320×200, 640×200 píxeles.
 Soporte de gráfico a color.
 Diseñado principalmente para juegos de Computadoras.
 La tarjeta gráfica contenía 16 KB de memoria de vídeo.

Monitor EGA:
Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar
desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor
incorporaba una mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también
sería sustituido por un monitor de mayores características.
Características:
 Resolución de 640_350 píxeles.
 Soporte para 16 colores.
 La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

Monitor VGA:
Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado
en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores
anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas
resoluciones.

30
Por el desarrollo alcanzado hasta la fecha, incluidas en las Tarjetas gráficas, los
monitores anteriores no son compatibles a los VGA, estos incorporan Señales
analógicas.
Características:
 Soporte de 720×400 píxeles en modo texto.
 Soporte de 640×480 píxeles en modo gráfico con 16 colores.
 Soporte de 320×200 píxeles en modo gráfico con 256 colores.
 Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de
vídeo.

Monitor SVGA:
SVGA denominado por sus siglas en inglés “Super Video Graphics Array”,
también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron
desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor
VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el
VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes
resoluciones.
Características:
 Resolución de 800×600, 1024_768 píxeles y superiores.
 Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas
gráficas como: ATI, GeForce, NVIDIA, entre otros.

Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es
el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en Televisores, Ordenadores, entre otros. Para lograr la
calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la
actualidad también se realizan. Funcionamiento: Dibuja una imagen barriendo
una Señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La

31
amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la
pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese
instante no tendrá representando un Pixel negro. Una amplitud máxima determina que
ese punto tendrá el máximo brillo.
Ventajas:
 Excelente calidad de imagen (definición, contraste, luminosidad).
 Económico.
 Tecnología robusta.
 Resolución de alta calidad.
Desventajas:
 Presenta parpadeo por el refrescado de imagen.
 Consumo de energía.
 Generación de calor.
 Generación de Radiaciones eléctricas y magnéticas.
 Alto peso y tamaño.

Pantallas LCD:
A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD,
sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en
español. Este dispositivo fue inventado por Jack Janning.
Estas pantallas son incluidas en los Ordenadores portátiles, Cámaras
fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que
comparten las propiedades de sólidos y líquidos a la vez. Cuando un rayo de luz
atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio
vacío que hay entre sus moléculas como lo haría atravesar un Cristal sólido pero a
cada una de estas partículas se le puede aplicar una Corriente eléctrica que cambie
su Polarización dejando pasar la luz o no.

32
Una pantalla LCD está formada por 2 Filtros polarizados colocados
perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la
luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los
colores básicos rojo, verde y azul. Para la reproducción de varias tonalidades de color
se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se
consigue con variaciones en el voltaje que se aplica a los Filtros.
Ventajas:
 Poco peso y tamaño.
 Buena calidad de colores.
 No contiene parpadeo.
 Poco consumo de energía.
 Poca generación de calor.
 No genera radiaciones eléctricas y magnéticas.
Desventajas:
 Alto costo.
 Angulo limitado de visibilidad.
 Brillo limitado.
 Bajo tiempo de respuesta de píxeles.
 Contiene Mercurio.

Pantallas de Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L.
Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró
crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas
se encuentran una la mayor resolución y ángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar
pequeñas Luces fluorescentes de colores para conformar una imagen.

33
Las pantallas de plasma funcionan como las Lámparas fluorescentes, en que
cada píxel es semejante a un pequeño foco coloreado. Cada uno de los Pixeles que
integran la pantalla está formado por una pequeña celda estanca que contiene un gas
inerte (generalmente Neón o Xenón).
Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas
pasa al estado de plasma. El gas así cargado emite Radiación ultravioleta (UV) que
golpea y excita el material fosforescente que recubre el interior de la celda.
Cuando el material fosforescente regresa a su estado energético natural, emite
luz visible.
Ventajas
 Excelente brillo.
 Alta resolución.
 Amplio ángulo de visión.
 No contiene mercurio.
 Tamaño de pantalla elevado.
Desventajas
 Vida útil corta.
 Coste de fabricación elevado, superior a los LCD.
 Consumo de electricidad elevado.
 Poca pureza del color.
 Consumo energético y emisión de calor elevada.

QUE ES EL TECLADO Y EN CUANTAS PARTES DE DIVIDE, EXPLIQUE

El teclado es un periférico de entrada o dispositivo, en parte inspirado en el


teclado de la máquina de escribir, que utiliza una disposición de botones o teclas, para
que actúen como palancas mecánicas o interruptores electrónicos, con caracteres
impresos que corresponden a símbolos escritos, que envían información a la

34
computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a
través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para
las computadoras. El tiene su propio procesador y varios circuitos digitales que ayudan
a introducir la información al mismo tiempo que ésta sale en la pantalla.
Actualmente su clasificación está conformada de la siguiente manera: teclado
XT, teclado AT, teclado expandido, teclado Windows, teclado ergonómico y teclado
inalámbrico. Cabe destacar que en la mayoría de los sistemas operativos modernos se
pueden utilizar teclados virtuales (en pantalla ó monitor) que pueden ser operados con
el ratón, brindándole la posibilidad al usuario de simular el funcionamiento de un
teclado real.
El teclado se encuentra compuesto de 3 partes: teclas de función, teclas
alfanuméricas y teclas numéricas.

PARTES DEL TECLADO:

 Teclas de función: Es la primera línea de teclas y las encuentras en la

parte superior del teclado. Se representan como F1, F2, F3, F4, F5, F6,
F7, F8, F9, F10, F11 y F12. Son las encargadas de realizar una función
específica, dependiendo del sistema operativo o del programa que se
utilice, además permiten acceder a atajos de los programas.
 Teclas de control: Se utilizan por sí solas o en combinación con

números para acceder a funciones o realizar determinadas acciones.


Las más usadas son Ctrl, Alt, Esc y la tecla con el ícono
de Windows (En el caso de los computadores que cuentan con este
sistema operativo). En los computadores con sistema operativo macOS
X un de las teclas más usadas es Command.
 Teclas de escritura o alfanuméricas: Aquí están todas las letras del

alfabeto, números, símbolos y signos de puntuación, acentuación y la


barra espaciadora. Estas teclas se posicionan en la zona inferior del

35
teclado y cada una de ellas tiene la misma distribución de la máquina
de escribir.
 Teclas numéricas: Sirven para ingresar datos numéricos de forma

rápida. Las teclas y símbolos están agrupadas de la misma forma como


aparecen en las calculadoras. Tienen 10 dígitos decimales que facilitan
las operaciones matemáticas más básicas como la suma, resta,
multiplicación y división. Además, posee una tecla de Bloq Num para
activar o desactivar el teclado numérico.
 Teclas especiales y de desplazamiento: Estas teclas se ubican en la

parte intermedia entre el teclado alfabético y el numérico. Sirven para


desplazarse por los documentos o páginas web y editar algunos textos.
Entre ellas están: Supr, Inicio, Fin, RePág, AvPág, ImpPt y las teclas de
dirección. Con la tecla ImpPT, ubicada en el área de las teclas
especiales, puedes hacer capturas de pantalla y así mostrar o enviar a
otros, imágenes de lo que estás viendo en el monitor o pantalla de tu
computador.

QUE ES LA UNIDAD DE ALMACENAMIENTO Y MENCIONE CUALES EXISTEN

Las unidades de almacenamiento son dispositivos que leen, graban o escriben


datos en soportes de almacenamiento de forma temporal o permanente, y juntos,
conforman la memoria secundaria o almacenamiento secundario del ordenador.
Estos dispositivos realizan las operaciones de lectura y/o escritura de los
soportes donde se almacenan o guardan, lógica y físicamente, los archivos de un
sistema informático.
Los sistemas informáticos pueden almacenar los datos tanto interna (en la
memoria) como externamente (en los dispositivos de almacenamiento). Internamente,
las instrucciones o datos pueden almacenarse por un tiempo en los chips de silicio de

36
la RAM (memoria de acceso aleatorio) montados directamente en la placa
de circuitos principal de la computadora, o bien en chips montados
en tarjetas periféricas conectadas a la placa de circuitos principal del ordenador. Estos
chips de RAM constan de conmutadores sensibles a los cambios de la corriente
eléctrica, esto quiere decir que los datos son almacenados por tiempo limitado (hasta
que dejamos de suministrar energía eléctrica) por esta razón aparecen los dispositivos
de almacenamiento secundarios o auxiliares, los cuales son capaces de conservar la
información de manera permanente, mientras su estado físico sea óptimo. Los
dispositivos de almacenamiento externo pueden residir dentro del CPU y están fuera de
la placa de circuito principal.

TIPOS DE UNIDADES DE ALMACENAMIENTO:

Se pueden clasificar en:


 Internos: Disco Duro
 Externos:
1. Masivos: pendrive, reproductores mp3/mp4, tarjeta flash.
2. Ópticos: cd, dvd, minicd, etc.
3. Magnéticos: disquette, cintas, etc.

Unidad de Disco Duro: Las unidades de discos rígidos o duros (hard disk
drive, HDD) tienen una gran capacidad de almacenamiento de información, pero al
estar alojados normalmente dentro de la computadora (discos internos), no son
extraíbles fácilmente. Para intercambiar información con otros equipos (si no están
conectados en red) se tienen que utilizar unidades de disco, como los disquetes,
los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB o
las memorias flash, entre otros.
El disco duro almacena casi toda la información que manejamos al trabajar con una
computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la
máquina, los programas, archivos de texto, imagen, vídeo, etc. Dicha unidad puede ser

37
interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el gabinete o caja
de computadora.
Un disco duro está formado por varios discos apilados sobre los que se mueve una
pequeña cabeza magnética que graba y lee la información.
Este componente, al contrario que el micro o los módulos de memoria, no se pincha
directamente en la placa, sino que se conecta a ella mediante un cable. También va
conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita
energía para funcionar.
Además, una sola placa puede tener varios discos duros conectados.
Las características principales de un disco duro son:
 Capacidad: Se mide en gigabytes (GB). Es el espacio disponible para
almacenar secuencias de 1 byte. La capacidad aumenta constantemente
desde cientos de MB, decenas de GB, cientos de GB y hasta TB.
 Velocidad de giro: Se mide en revoluciones por minuto (RPM). Cuanto más
rápido gire el disco, más rápido podrá acceder a la información la cabeza
lectora. Los discos actuales giran desde las 4200 a 15 000 RPM,
dependiendo del tipo de ordenador al que estén destinadas.
 Capacidad de transmisión de datos: De poco servirá un disco duro de
gran capacidad si transmite los datos lentamente. Los discos actuales
pueden alcanzar transferencias de datos de 6 Gb por segundo (SATA 3).
Unidad de memoria flash o Pen Drive: Es un pequeño dispositivo de
almacenamiento que utiliza la memoria flash para guardar la información sin necesidad
de pilas. Los Pen Drive son resistentes a los rasguños y al polvo que han afectado a las
formas previas de almacenamiento portable, como los CD y los disquetes.
Los sistemas operativos más modernos pueden leer y escribir en ello sin necesidad de
controladores especiales. En los equipos antiguos (como por ejemplo los equipados
con Windows 98) se necesita instalar un controlador de dispositivo. El aparato
correspondiente o bien un lector de tarjetas, se conecta a la computadora a través del
puerto USB o firewire.

38
Unidades de Zip: La unidad Iomega ZIP es una unidad de dis co extraíble. Está
disponible en tres versiones principales, la hay con interfaz SCSI, IDE, y otra que se
conecta a un puerto paralelo. Este documento describe cómo usar el ZIP con Linux. Se
debería leer en conjunción con el HOWTO SCSI a menos que posea la versión IDE.

Unidad de tarjetas de memoria: El lector de tarjetas de memoria es un


periférico que lee o escribe en soportes de memoria flash. Actualmente, los instalados
en computadores (incluidos en una placa o mediante puerto USB), marcos
digitales, lectores de DVD y otros dispositivos, suelen leer varios tipos de tarjetas.
Una tarjeta de memoria es un pequeño soporte de almacenamiento que utiliza
memoria USB para guardar la información que puede requerir o no baterías (pilas), en
los últimos modelos la batería no es requerida, la batería era utilizada por los primeros
modelos. Estas memorias son resistentes a los rasguños externos y al polvo que han
afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes.

Unidades ópticas:
 CD-R: es un disco compacto de 650 MB de capacidad que puede ser leído
cuantas veces se desee, pero cuyo contenido no puede ser modificado una vez
que ya ha sido grabado. Dado que no pueden ser borrados ni regrabados, son
adecuados para almacenar archivos u otros conjuntos de información invariable.
 CD-RW: posee la capacidad del CD-R con la diferencia que estos discos son
regrabables lo que les da una gran ventaja. Las unidades CD-RW pueden grabar
información sobre discos CD-R y CD-RW y además pueden leer discos CD-
ROM y CDS de audio. Las interfaces soportadas son EIDE, SCSI y USB.
 DVD-ROM: es un disco compacto con capacidad de almacen ar 4.7 GB de datos
en una cara del disco, un aumento de más de 7 veces con respecto a los CD-R y
CD-RW. Y esto es en una sola cara. Los futuros medios de DVD-ROM serán
capaces de almacenar datos en ambas caras del disco, y usar medios de doble
capa para permitir a las unidades leer hasta cuatro niveles de datos
almacenados en las dos caras del disco dando como resultado una capacidad

39
de almacenamiento de 17 GB. Las unidades DVD-ROM son capaces de leer los
formatos de discos CD-R y CD-RW. Entre las aplicaciones que aprovechan la
gran capacidad de almacenamiento de los DVD-ROM tenemos las películas de
larga duración y los juegos basados en DVD que ofrecen videos MPEG-2 de alta
resolución, sonido inmersivo Dolby AC-3, y poderosas graficas 3D.
 DVD-RAM: este medio tiene una capacidad de 2.6 GB en una ca ra del disco y
5.2 GB en un disco de doble cara, Los DVD-RAM son capaces de leer cualquier
disco CD-R o CD-RW pero no es capaz de escribir sobre estos. Los DVD-RAM
son regrabables pero los discos no pueden ser leídos por unidades DVD-ROM.
 Pc - Cards: La norma de PCMCIA es la que define a las PC Cards. Las PC
Cards pueden ser almacenamiento o tarjetas de I/O. Estas son compactas, muy
fiable, y ligeras haciéndolos ideal para notebooks, palmtop, handheld y los
PDAs,. Debido a su pequeño tamaño, son usadas para el almacenamiento de
datos, aplicaciones, tarjetas de memoria, cámaras electrónicas y teléfonos
celulares. Las PC Cards tienen el tamaño de una tarjeta del crédito, pero su
espesor varía. La norma de PCMCIA define tres PC Cards diferentes: Tipo I 3.3
milímetros (mm) de espesor, Tipo II son 5.0 mm espesor, y Tipo III son 10.5 mm
espesor. Entre los producto más nuevos que usan PC Cards tenemos el Clik!
PC Card Drive de Iomega esta unidad PC Card Tipo II la cual puede leer y
escribir sobre discos Clik! de 40 MB de capacidad, esta unidad esta diseñada
para trabajar con computadores portátiles con mínimo consumo de baterías, el
tamaño de los discos es de 2x2 pulgadas.
 Flash Cards: son tarjetas de memoria no volátil es decir conservan los datos
aun cuando no estén alimentadas por una fuente eléctrica, y los datos pueden
ser leídos, modificados o borrados en estas tarjetas. Con el rápido crecimiento
de los dispositivos digitales como: asistentes personales digitales, cámaras
digitales, teléfonos celulares y dispositivos digitales de música, las flash cards
han sido adoptadas como medio de almacenamiento de estos dispositivos
haciendo que estas bajen su precio y aumenten su capacidad de
almacenamiento muy rápidamente. Recientemente Toshiba libero

40
al mercado su nuevo flash cards la SmartMedia de 64 MB y el super-thin 512M-
bit chip. La SmartMedia es capaz de almacenar 72 imágenes digitales con una
resolución de 1800x1200 pixels y más de 1 hora de música con calidad de CD.
Entre los productos del mercado que usan esta tecnología tenemos los
reproductores de audio digital Rio de Diamond, Nomad de Creative Labs, los
PDAs de Compaq, el Microdrive de IBM con 340 MB de almacenamiento entre
otros.

Unidad de Disquete: La disquetera, unidad de disco flexible inicialmente de 8


pulgadas y posteriormente de 5 1/4 pulgadas eran llamadas ((floppy disk drive, FDD) y
disquetes de 3½ pulgadas permite intercambiar información
utilizando disquetes magnéticos de 720Kb de simple densidad y de 1,44 MB de
capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las
necesidades de las aplicaciones actuales se siguen utilizando para intercambiar
archivos pequeños, pues pueden borrarse y reescribirse cuantas veces se desee de
una manera muy cómoda, aunque la transferencia de información es bastante lenta si
la comparamos con otros soportes, como el disco duro o un CD-ROM. La unidad de
disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y
también va conectada mediante un cable a la placa base. Un diodo led se ilumina junto
a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco
duro. En los disquetes solo se puede escribir cuando la pestaña está cerrada. Cabe
destacar que el uso de este soporte en la actualidad es escaso o nulo, puesto que se
ha vuelto obsoleto teniendo en cuenta los avances que en materia de tecnología que se
han producido. También se debe a que los disquetes poseen poco espacio de
almacenamiento, mientras que los CD, DVD y USB poseen más espacio de
almacenamiento.

41
QUE ES EL MOUSE Y MENCIONE SU EVOLUCIÓN

El ratón o mouse fue inventado por Douglas Engelbart y su nombre se deriva por
su forma la cual se asemeja a la de un ratón. Es un dispositivo de entrada apuntador o
señalador más utilizado. Está fabricado en plástico y se utiliza con una de las manos.
Usado para facilitar el manejo de un entorno gráfico en un computador, permite
enviarle instrucciones a una computadora mientras este interactúa con una interfaz
gráfica.
Detecta el movimiento relativo en dos dimensiones por la superficie plana en la
que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor,
para ubicarse en alguna posición específica de la pantalla.
Por lo general, el mouse o ratón tiene dos botones: el izquierdo te sirve para
abrir, arrastrar, seleccionar y ejecutar funciones. El derecho te permite acceder a
funciones adicionales de los comandos.
El ratón se puede conectar de forma cableada (puertos PS/2 y USB),
o inalámbricamente por medio de un adaptador USB que se conecta a la computadora
y esta recibe la señal del ratón, aunque también pueden ser por medio de
conectividad Bluetooth o infrarrojos.
Hay dos tipos de mouse o ratones:
 Los ratones mecánicos: que ya están siendo desechados, tenían una bola
de goma inserta en su interior, para que desplace dos ruedas o ejes fijos,
cuyo movimiento es transmitido mediante circuitos electrónicos al
computador. Este mecanismo es el tradicional y el más económico, pero es
mucho menos preciso que los ratones ópticos y tiene la tendencia a
acumular sucio al desplazarse sobre la superficie, lo cual conduce a trabas y
otras deficiencias en su funcionamiento.
 Los ratones ópticos: que poseen un sistema de rastreo de la posición del
dispositivo mediante un ente emisor de luz (tal como el Láser o el LED), en
lugar de la acostumbrada bola giratoria que hay dentro de los mecánicos.

42
Esto le permite un desplazamiento más fluido, preciso y menos propenso a
la acumulación de sucio. Sin embargo, requiere de mayor consumo
energético.

EVOLUCIÓN DEL MOUSE:

Desde la década de los 60 hasta la actualidad, el mouse o ratón pasó de ser una
caja pesada hecha de madera, a un accesorio liviano y ergonómico. Veamos un poco
la cronología de su historia:
1952: nace el primer trackball, creado por la Marina Canadiense, en un proyecto
conocido como DATAR, que consistía en compartir datos de radares y sensores
sonoros.
1963: se crea el primer prototipo de mouse por Douglas Engelbart, investigador
del Instituto de Investigación Stanford. Para esta época las computadoras eran
operadas mediante tarjetas perforadas y no había interacción con el usuario. Engelbart
desarrolló un proyecto con varias tecnologías que apuntaban al desarrollo del intelecto
humano, como el mouse y la interfaz gráfica.
1970: Fue comercializado por la empresa alemana Telefunken, el primer modelo
de mouse de la historia. Funcionaba con 2 engranajes que registraban las posiciones
vertical y horizontal X-Y, a través de una pequeña bola de goma.
1973 – 1981: los siguientes mouses se comercializaron con las computadoras
personales Xerox, como el Alto, de 1973, la primer computadora para usar como
desktop que poseía una interfaz gráfica basada en el uso del ratón.
1983: Apple lanzó su famosa computadora Lisa, que incluía un mouse. Este
modelo en lugar de tener una bolita de goma, usaba una esfera de metal.
1999: surgió el primer modelo comercial de mouse óptico. El IntelliMouse con
IntelliEye, de Microsoft. La bolita del mouse mecánico se sustituye por un LED
infrarrojo. Además se incorporó el scroll Wheel (la rueda de scroll entre los dos
botones).
2004: invade el mercado el mouse con láser que sustituye al LED.

43
QUE ES LA IMPRESORA Y MENCIONE SU EVOLUCIÓN

La impresora es un dispositivo periférico de salida, del ordenador que permite


producir una gama permanente de textos o gráficos de documentos almacenados en
un formato electrónico, imprimiéndolos en medios físicos, normalmente en papel,
utilizando cartuchos de tinta o tecnología láser (con tóner).
Muchas de las impresoras son usadas como periféricos de salida, y están
permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas
impresoras de red, tienen una interfaz de red interno (típicamente wireless o Ethernet),
y que puede servir como un dispositivo para imprimir en papel algún documento para
cualquier usuario de la red.
Las impresoras se pueden dividir en 2 tipos: las de impacto y las de no impacto:

Impresoras de impacto: Una impresora que utiliza un mecanismo de impresión


que hace impactar la imagen del carácter en una cinta y sobre el papel. Las impresoras
de línea, de matriz de punto y de rueda de margarita son ejemplos de impresoras de
impacto.
Impresora matricial: es la impresora más común. Tiene una cabeza de
impresión movible con varias puntillas o agujas que al golpear la cinta entintada forman
caracteres por medio de puntos en el papel, Mientras más agujas tenga la cabeza de
impresión mejor será la calidad del resultado. Las hay de 10 y 15", las velocidades
varían desde: 280 cps hasta 1,066 cps.
Impresora de margarita: tiene la misma calidad de una máquina de escribir
mediante un disco de impresión que contiene todos los caracteres, están de salida del
mercado por lentas.
Impresora de línea: Son impresoras de alta velocidad que imprimen una línea
por vez. Generalmente se conectan a grandes ordenadores y a miniordenadores. Las
impresoras de línea imprimen una línea a la vez desde aproximadamente 100 a 5000
LPM.

44
Impresoras sin impacto: Hacen la impresión por diferentes métodos, pero no
utilizan el impacto. Son menos ruidosas y con una calidad de impresión notoriamente
mejor a las impresoras de impacto. Los métodos que utilizan son los siguientes:
Impresoras térmicas: Imprimen de forma similar a la máquina de matriz, pero
los caracteres son formados marcando puntos por quemadura de un papel especial.
Los faxes trabajan con este método.
Impresora de inyección de tinta: Emite pequeños chorros de tinta desde
cartuchos desechables hacia el papel, las hay de color. Vel. De 4 a 7 ppm.
Impresora electrofotográfica o Láser: Crean letras y gráficas mediante un
proceso de fotocopiado. Un rayo láser traza los caracteres en un tambor fotosensible,
después fija el tóner al papel utilizando calor. Muy alta calidad de resolución,
velocidades de 4 a 18 ppm.

EVOLUCIÓN DE LA IMPRESORA:

La historia de la impresora se remonta a la creación de la primera computadora,


la máquina analítica de Charles Babbage, en el año 1940. A pesar que el inventor
nunca logró construir su PC, sí terminó los planos en los que se incluía el mecanismo
de impresión, los mismos fueron utilizados para armar el modelo funcional en 1991 y
presentarlo en 2000 al publicó en el Museo de Ciencias de Londres, este modelo
estaba formado por 4000 piezas mecánicas y pesar alrededor de 2,5 toneladas.
Para 1953 se crea la primera impresora eléctrica para computadoras, diseñada
por Remington-Rand que solo era capaz de imprimir textos.
Impresora Matricial (matriz de punto): En 1957 es puesta a la venta la primera
impresora de matriz de punto diseñada por IBM. Este sistema contenía una cabeza de
impresión que se desplaza de izquierda a derecha sobre la página imprimiendo por el
impacto de la cinta de tinta sobre el papel. Este sistema contaba con las mismas
limitaciones que su antecesor.

45
Primera mini impresora: En 1968 se lanzó la primera mini-impresora EP-101
con el mismo mecanismo de matriz de punto. A partir de allí se deriva la
marca EPSON una de las marcas líderes en el mercado de impresión.
Impresora Láser: En el año 1971 el mundo de la impresión se revolucionó con
el lanzamiento de la primera impresora Láser diseñada por Gary Starkweather de
Xerox PARK, que constaba de un tambor unido a un depósito de y a un haz. Esta
innovación marcó la pauta ya que permitía imprimir no solo textos sino también
imágenes. Años después siguió la evolución con la introducción de impresoras a color.
Nace la inyección de tinta: En 1976 se generó otro gran avance en la
impresión cuando HP creo la primera la impresora de inyección de tinta pensada para
gigantografías y también para hogares. Pero por lo complejo de la tecnología y la
precisión en el sistema de inyección, 12 años después llegó a manos de los
consumidores en hogares. La velocidad de impresión era tan solo de 2 pág. por minuto.
A través del tiempo, la tecnología láser se ha destacado ya que su calidad de
impresión supera a la impresión por, en términos de velocidad, rendimiento y costos.
Hoy en día existen un gran número de marcas que ofrecen impresoras de diversas
tecnologías, funciones y costos que se adaptan a las necesidades de los
consumidores. Actualmente estamos presenciando un nuevo hito en la historia de la
impresión con la aparición de las impresoras 3D, un propuesta impensable años atrás
que hoy es una realidad.

QUE ES UN VIRUS Y ANTIVIRUS MÁS CONOCIDOS

Un virus o virus informático, es un software que tiene por objetivo alterar el


funcionamiento normal de cualquier tipo de dispositivo informático, sin el permiso o el
conocimiento del usuario principalmente para lograr fines maliciosos sobre el
dispositivo. Los virus, habitualmente, reemplazan archivos ejecutables por otros
infectados con el código de este. Los virus pueden destruir, de manera intencionada,

46
los datos almacenados en una computadora, aunque también existen otros más
inofensivos, que solo producen molestias o imprevistos.
Los virus informáticos tienen básicamente la función de propagarse a través de
un software, son muy nocivos y algunos contienen además una carga dañina (payload)
con distintos objetivos, desde una simple broma hasta realizar daños importantes en
los sistemas, o bloquear las redes informáticas generando tráfico inútil. El
funcionamiento de un virus informático es conceptualmente simple. Se ejecuta
un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento
del usuario. El código del virus queda residente (alojado) en la memoria RAM de la
computadora, incluso cuando el programa que lo contenía haya terminado de ejecutar.
El virus toma entonces el control de los servicios básicos del sistema operativo,
infectando, de manera posterior, archivos ejecutables que sean llamados para su
ejecución. Finalmente se añade el código del virus al programa infectado y se graba en
el disco, con lo cual el proceso de replicado se completa.

CLASIFICACIÓN DE LOS VIRUS:

Los virus, de acuerdo al programa que afectan, se clasifican en:


 Virus de arranque: Infectan el programa que ejecuta el arranque,
denominado sector de arranque (boot sector). Este sector contiene un
programa que se ejecuta cada vez que se enciende la computadora. Si
está infectado se activa el virus contenido.
 Virus de archivos: Infectan los programas que contienen código
ejecutable. El virus entra en acción cuando el programa infectado es
ejecutado por el operador o por otro programa.
 Virus multipartitos: Son los que infectan el sector de arranque y archivos
simultáneamente.
 Macrovirus: Las macros son programas incluidos en archivos de
diversos programas de aplicación, que antes solamente portaban datos
y por lo tanto no eran susceptibles de infección. A causa de la

47
popularidad del Word y del Excel de Microsoft, sus virus son los más
abundantes. Al abrir un documento en Word (.DOC) o un documento en
Excel (.XLS) infectado, la macro virus se activa y puede infectar otros
archivos limpios.

ANTIVIRUS MÁS CONOCIDOS:

1 - Norton Internet Security: Es el mejor para la seguridad al navegar por


internet. Una de sus principales características es la detección de 'malware', la cual se
basa en el análisis de su comportamiento como una amenaza.
2 - Kaspersky Internet Security: Provee de una adecuada seguridad a los
usuarios mientras se encuentran conectados y desconectados de internet. Tiene un
gran desempeño en la detección de 'malware'.
3 - AVG Internet Security: Es muy confiable en términos de detección de virus y
su desinfección. No es muy costoso pero su punto débil es su complicada interfase que
complica su uso.
4 - PC Tool Internet Security: A pesar de que se han hecho muchas mejoras a
través de los años, aún tiene deficiencias. Carece de términos de control para padres y
de una opción de ayuda en línea.
5 - BitDefender Internet Security: Provee de una fuerte protección a sus
usuarios. A pesar de su alta capacidad para identificar y eliminar amenazas, aún sigue
dejando rastros en su trabajo, lo cual le resta efectividad.
6 - Alwil Avast Internet Security: Posee muy buenas funciones para la
seguridad en internet. Su capacidad disminuye al momento de detectar nuevas
amenazas. No contiene algunas funciones vitales.
7 - McAfee Internet Security: Tiene gráficos únicos y actualizados que lo hacen
mejor que los demás. Es intuitivo pero la desventaja frente al resto es que vuelve más
lento el desempeño del sistema.

48
8 - Panda Internet Security: Provee de todas las funciones básicas de
seguridad. Es muy seguro con los dispositivos USB conectados a la PC y nos da la
posibilidad de tener 2Gb de backup en línea.
9 - Webroot Internet Security: El antivirus viene equipado con un paquete de
antispyware, firewall y antispam. Para los usuarios más frecuentes, este software falla
en las funciones del control parental.
10 - Trend Micro Internet Security: Está totalmente equipado con seguridad
para el escritorio de la PC. La desventaja está en el precio y en su pobre desempeño al
momento de detectar 'malware'.

TIPOS DE COMPUTADORES EXISTENTES

Las computadoras se pueden clasificar según tres criterios diferentes:


Analógicas
Tipo De Procesamiento Digitales
Híbridas
Comerciales
Utilidad Científicas
Científicas-comerciales
Supercomputadoras
Macrocomputadoras (Mainframes)
Capacidad De
Minicomputadoras (PC)
Almacenamiento
Microcomputadoras
Estaciones de trabajo (Workstation)

ORDENADORES ANALÓGICOS: El ordenador analógico es un dispositivo


electrónico o hidráulico diseñado para manipular la entrada de datos en términos de,
por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos

49
numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que
utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la
división y otras funciones. En el típico ordenador analógico electrónico, las entradas se
convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de
circuito de diseño especial. Las respuestas se generan continuamente para su
visualización o para su conversión en otra forma deseada.

ORDENADORES DIGITALES: Todo lo que hace un ordenador digital se basa


en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto
o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de
sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de
números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto
tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las
velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo.
Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante
representativa de un microordenador o microcomputadora, es capaz de ejecutar 100
millones de operaciones discretas por segundo. Las microcomputadoras de las
compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo,
mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de
defensa alcanzan velocidades de miles de millones de ciclos por segundo.
La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún
más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica
sólo un conmutador cada vez, dicho conmutador puede representar solamente
dos comandos o números. Así, ON simbolizaría una operación o un número, mientras
que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores
enlazados como una sola unidad, el ordenador aumenta el número de operaciones que
puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos
conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar
en cada ciclo una de las cuatro operaciones, una para cada uno de los
siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON

50
(3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8
conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí
el término bit de datos en cada ciclo. Un grupo de ocho bits se denomina byte y cada
uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración
equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de
dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por
ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el
número decimal 210 (véase Sistemas numéricos), o bien estar indicando al ordenador
que compare los datos almacenados en estos conmutadores con los datos
almacenados en determinada ubicación del chip de memoria. El desarrollo
de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha
permitido incrementar la velocidad de los ordenadores. La colección completa de
configuraciones reconocibles, es decir, la lista total de operaciones que una
computadora es capaz de procesar, se denomina conjunto, o repertorio, de
instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de
los conjuntos de instrucciones, continúa incrementándose a medida que avanza el
desarrollo de los ordenadores digitales modernos.

ORDENADORES HÍBRIDOS: La computadora híbrida es una computadora


digital que procesa señales análogas que han sido convertidas a forma digital. Es
utilizada para control de procesos y en robótica.

SUPERORDENADORES. Es el tipo de ordenador más potente y más rápido


que existe. Estas máquinas están diseñadas para procesar enormes cantidades de
información en poco tiempo y son dedicadas a una tarea específica. Asimismo son
las más caras. Cuentan con un control de temperatura especial, para disipar el calor
que algunos componentes alcanzan a tener. Unos ejemplos de tareas a las que son
expuestos los superordenadores son los siguientes:
 Búsqueda y estudio de la energía y armas nucleares.
 Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.

51
 El estudio y predicción de tornados.
 El estudio y predicción del clima de cualquier parte del mundo.
 La elaboración de maquetas y proyectos de la creación de aviones,
simuladores de vuelo. Etc.

MACROORDENADORES. Son también conocidos como Mainframes. Son


sistemas grandes, rápidos y caros capaces de controlar cientos de usuarios
simultáneamente, así como cientos de dispositivos de entrada y salida. De alguna
forma los mainframes son más poderosos que los superordenadores porque
soportan más programas simultáneamente. Pero los superordenadores pueden
ejecutar un sólo programa más rápido que un mainframe. En el pasado, los
mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio,
hoy en día, un mainframe es parecido a una hilera de archivadores en algún cuarto
con piso falso para ocultar los cientos de cables de los periféricos y su temperatura
tiene que estar controlada.

MINIORDENADORES. En 1960 surgió el miniordenador, una versión más


pequeña del macroordenador. Al ser orientado a tareas específicas, no necesitaba
de todos los periféricos que necesita un Mainframe, lo que ayudó a reducir el precio
y costos de mantenimiento. Los miniordenadores, en tamaño y poder de
procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En
general, un miniordenador, es un sistema multiproceso capaz de soportar de 10
hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes
bases de datos, automatización industrial y aplicaciones multiusuario.

MICROORDENADORES. Los microordenadores u ordenadores personales


(PC´s) tuvieron su origen con la creación de los microprocesadores. Un
microprocesador es "un ordenador en un chip", es decir, un circuito integrado
independiente. Los PC´s son ordenadores para uso personal y relativamente son
baratos y actualmente se encuentran en las oficinas, escuelas y hogares. El término

52
PC tiene su origen en el año 1981, cuando IBM comercializó su modelo "IBM PC"
que se convirtió en un tipo de ordenador ideal para uso "personal". IBM dejó abierta
la arquitectura de su PC para que cualquier fabricante pudiera copiarla y construir
ordenadores iguales al PC de IBM. El término "PC" se estandarizó y los clones que
sacaron posteriormente otras empresas fueron llamados "PC compatibles", usando
procesadores del mismo tipo que el PC de IBM, pero a un costo menor y pudiendo
ejecutar el mismo tipo de programas. Existen otros tipos de microordenadores, como
el Macintosh, que no son compatibles con los IBM.

ESTACIONES DE TRABAJO O WORKSTATIONS. Las estaciones de


trabajo se encuentran entre los miniordenadores y los macroordenadores (por el
procesamiento). Las estaciones de trabajo se utilizan para aplicaciones que
requieran capacidad de procesamiento moderado y capacidades de gráficos de alta
calidad. Son usadas para aplicaciones de ingeniería CAD (diseño asistido por
ordenador), CAM (manufactura asistida por ordenador) y publicidad. También se
utiliza la palabra "workstation" o "estación de trabajo" para referirse a cualquier
ordenador que está conectado a una red de área local.

QUE ES EL ESCRITORIO

El escritorio de Windows es aquella interface de software que ha sido originalmente


creada con el objetivo de generar un espacio de cómodo y fácil acceso a los programas
y operaciones disponibles de una computadora. Es la pantalla principal que
podemos observar una vez que se inicia el sistema, pantalla que contiene los íconos de
muchos de los programas que utilizamos más frecuentemente.

53
El mismo se caracteriza además por mostrar un fondo de pantalla capaz de ser
elegido por el usuario. Esta visión además incorpora una barra de tareas, que
generalmente está en la zona inferior, pero que puede desplazarse a los laterales o
también a la zona superior. El escritorio de Windows puede entenderse como el
elemento mediante el cual el usuario trabaja más frecuentemente, es decir, en donde
tiene los accesos a distintas funcionalidades del sistema operativo.
Es una interface gráfica en la cual se pueden disponer de diferente modo
numerosos íconos, accesos, carpetas, archivos, barras de herramientas y programas.
Todos ellos pueden haber sido previamente seleccionados y organizados por el usuario
de acuerdo a sus necesidades específicas.

CARACTERÍSTICAS DEL ESCRITORIO:

Barra de tareas: La barra de tareas aparece en la parte inferior de la pantalla.


Cuando se abre un programa, aparecerá un botón para dicho programa en la barra de
tareas. Haga clic en los botones de programa para cambiar rápidamente de un
programa a otro. Puede minimizar rápidamente todas las ventanas abiertas y ver el
escritorio si hace clic en el botón Mostrar escritorio de la barra de tareas.
Mis Documentos: Esta carpeta es la ubicación
de almacenamiento predeterminada de documentos, gráficos y otros archivos, incluidas
las páginas Web guardadas. Mis documentos contienen la carpeta Mis imágenes, que
puede utilizar para almacenar imágenes descargadas del escáner o la cámara digital.
Mi PC: Utilice esta carpeta para ver rápidamente el contenido de discos duros,
disquetes, unidad de CD-ROM y unidades de red asignadas. Desde Mi PC también
puede abrir el Panel de control, en el que puede configurar muchos valores del equipo.
Mis sitios de red: Utilice esta carpeta para buscar recursos compartidos en la
red a la que está conectado el equipo. También puede crear accesos directos
a servidores de red, Web y FTP mediante el Asistente para agregar sitio de red.
Papelera de reciclaje: La Papelera de reciclaje almacena los archivos, las
carpetas, los gráficos y las páginas Web eliminados. Estos elementos permanecen en

54
la Papelera de reciclaje hasta que se vacía. Si desea recuperar un elemento que haya
eliminado, puede hacerlo en la Papelera de reciclaje.
Internet Explorer: Mediante una conexión a Internet y Microsoft Internet
Explorer puede explorar el World Wide Web y la intranet local.
Uno de los elementos más importantes del Escritorio es la Barra de Tareas. Mediante
esta puede acceder a los Programas instados en la PC como así también crear
Accesos Rápidos dentro de ella para tener una ejecución más ágil de las aplicaciones
más utilizadas.

La Barra de Tareas se puede dividir en tres secciones principales:


 El Botón Inicio: que puede utilizar para iniciar rápidamente un programa,

buscar un archivo, tener acceso a la Ayuda o apagar el equipo.


 La parte central de la Barra de Tareas: en donde se muestran los botones de

los programas que se están utilizando y en donde se pueden agregar o quitar


Barras de Herramientas, como la de Inicio Rápido que le da acceso a los
programas más utilizados.
 El área derecha de la Barra de Tareas: aquí encontrará el Reloj del sistema y

los íconos de las aplicaciones que se cargan cuando inicia Windows.

QUE ES UN ÍCONO Y TIPOS DE ÍCONOS

Un icono o ícono, es en informática, un pictograma que es utilizado para


representar archivos, carpetas, programas, unidades de almacenamiento, etc. en
un sistema operativo gráfico. En el uso moderno, el icono puede representar cualquier
cosa que los usuarios quieran: cualquier comando o proceso, o cualquier otro
indicador. Se utiliza para la identificación de todo tipo de programas (software) o
diversas funciones que pueden desarrollarse con un ordenador u otro dispositivo.

55
Un icono informático generalmente está situado en el rango entre 16 por 16
pixeles hasta 128 por 128 pixeles. Algunos sistemas operativos ofrecen iconos de
hasta sopor por 250 pixeles. Los usuarios con problemas de visión (debido a
condiciones como la iluminación pobre, ojos cansados, impedimentos médicos, fondos
brillantes) pueden necesitar el ajuste del tamaño del icono.

TIPOS DE ÍCONOS:

 Acceso Directo: Son aquellos iconos que sirven para copiar el icono que ya
existe presente en el archivo original de modo que presentan un atajo, a
menos que el usuario se decida a cambiarlo o eliminarlo. Se diferencia de
los iconos «originales» porque junto a su representación gráfica aparece un
recuadro con una flecha en una de sus esquinas.
 Programas: Los programas suelen tener iconos que han sido creados por
los desarrolladores de la aplicación. Estos no suelen modificarse a no ser
que sufran algún cambio por parte de aquellos que ya los crearon y que se
suelen reflejar cada vez que se hace una actualización de la aplicación o del
programa.
 Carpetas: Las carpetas se suelen representar por un icono de una carpeta
son siempre iguales y nos llevan a los documentos que contienen. Son los
usuarios los que les dan nombres para diferenciarlas entre sí.
 Documentos: Los Documentos cuentan con un icono que hace una clara
referencia hacia el programa o suite de aplicaciones que representa y se
encarga de mostrarlo al usuario con su propia interfaz gráfica que tampoco
es modificable por el usuario.

56
EN QUÉ CONSISTE EL PANEL DE CONTROL

El Panel de Control, es una parte de la interfaz gráfica del sistema Microsoft


Windows, la cual permite a los usuarios ver ajustes y controles básicos del sistema,
tales como agregar nuevo hardware, gestionar las cuentas de usuario de Windows,
tener acceso a opciones de accesibilidad, entre otras opciones de sonido y pantalla.
Otras Aplicaciones adicionales pueden ser proporcionadas por software de terceros.
El Panel de Control ha sido una parte inherente del sistema operativo
de Microsoft Windows desde su lanzamiento en Windows 1.0, con muchos de los
applets actuales agregados en las últimas versiones. El Panel de Control es un
programa independiente, no una carpeta como aparece, que se puede acceder desde
el menú inicio (hasta Windows 7), y se almacena en el directorio system32.
En Windows 10, el Panel de Control es parcialmente reemplazado por la
aplicación "Configuración", la cual se incluyó por primera vez en Windows 8, y que
posteriormente fue mejorada, trayendo configuraciones del panel de control a dicha
app.
Se utilizada para efectuar cambios sobre casi todo aspecto del sistema
operativo.
Éste incluye funciones de teclado y ratón, usuarios y contraseñas,
configuraciones de redes, administración de energía, fondos de escritorio,
sonido, hardware, instalación y eliminación de programas, reconocimiento de idioma,
control parental, etc.

El panel de control cuenta con varias aplicaciones, de las cuales se destacan:

 Barra de tareas: Tiene como fin, configurar y deshabilitar las opciones de la

barra de tareas, como Mostrar Inicio Rápido, ocultar los íconos, cambiar los
atributos (hay dos opciones que son el Clásico y el Moder Windows XP)
o Vista. En Windows 7, se eliminó el menú inicio clásico.

57
 Centro de Seguridad: introducido en la versión de Windows XP Service Pack

2 para mantener la seguridad frente a virus, gusanos y troyanos. Fue


reemplazado en Windows 7 como el "Centro de actividades".
 Firewall de Windows: un cortafuego que no permite que ningún programa

salga de la red. Sin embargo, aunque el cortafuego es muy seguro, un usuario


experto puede aprovechar hasta el punto más débil del sistema. En Windows
7, fue renombrado como Centro de Actividades.
 Actualizaciones Automáticas: Windows Update quien tiene como propósito

mantener las aplicaciones al día. En la versión SP2, Actualizaciones


automáticas viene activado cómo por defecto.
 Modo pantalla o muestre mensajes, fotos o diseños al azar:

o Pantalla: se puede cambiar la resolución de la pantalla y la cantidad de


colores que muestra.
o Configuraciones adicionales: se puede configurar la barra de inicio.
o Opciones de las carpetas: permite configurar la forma de cómo se ven
las carpetas.
 Impresoras y otro hardware: En esta sección se pueden configurar varios

dispositivos externos que se conectan a la computadora como son:


controladores de video juegos, teclados, “mouse”, módem, impresoras,
escáner, cámaras, etc.
 Conexiones de red e Internet: En esta sección se puede configurar todo lo

relacionado con redes:


o Conexiones por cables
o Conexiones inalámbricas
o Opciones de Internet Explorer
o Asistente de conexión a internet
o Firewall de Windows
o Crear nuevas conexiones

58
 Cuentas de usuario: Se pueden agregar, borrar o modificar las cuentas de

los usuarios. Entre las modificaciones que se pueden realizar en esta sección
están:
o Cambiar la imagen que identifica al usuario
o Cambiar clave
o Cambiar el tipo de usuario (cuenta limitada o de administrador)
o Habilitar o deshabilitar la cuenta de “Invitado” para dar acceso a
personas que ocasionalmente utilicen la computadora
 Agregar o quitar programas: Como dice su nombre, permite agregar o quitar

programas instalados en la computadora, al entrar en esta sección, aparecerá


una lista de los programas instalados, cuánto ocupan en el disco y con qué
frecuencia se utiliza. Adicionalmente se pueden agregar o quitar componentes
de Windows como Messenger, MSN Explorer o Outlook Express. En Windows
Vista y Windows 7, fue renombrado por Programas y características.
 Opciones de idioma, fecha y hora: Esta categoría le brinda la disponibilidad

al usuario de cambiar la fecha y la hora de la computadora; adicionalmente,


se puede seleccionar el país e idioma que desee utilizar en Windows para uso
del teclado, sistema de medidas y monedas.
 Sonido, voz y equipo de audio: en esta categoría aparecerán las

propiedades de los dispositivos de sonido, altavoces y equipos especiales de


voz. Inclusive, si la computadora dispone de otros equipos de sonido
adicionales a los que están incorporados en la computadora, también se
pueden administrar en esta sección.
 Opciones de accesibilidad: Adecua varias de las opciones de Windows para

que puedan utilizarlo personas con alguna discapacidad especial. Entre los
ajustes que se pueden hacer en esta sección están:
o Teclado: Se pueden realizar cambios para que el usuario escuche tonos
al tocar las teclas de mayúsculas y detectar cuando el usuario deja
oprimida alguna tecla por error.

59
o Sonido: Opciones para generar avisos visuales cuando ocurren sonidos
y otros cambios.
o Pantalla: ajusta los tipos de letras y colores para que personas con
deficiencias visuales puedan ver mejor.
o Mouse: Permite realizar cambios en Windows para que la persona
pueda utilizar algunas teclas para mover el mouse.
o General: En esta sección se pueden hacer ajustes generales de las
características de accesibilidad.
 Rendimiento y mantenimiento: En esta sección se pueden realizar cambios

más completos en el funcionamiento del hardware en Windows, como el


manejo de los discos duros y ajuste del uso energético de la computadora.
 Control de cuentas de usuario (UAC): Esta opción fue incluida a partir

de Windows Vista. Su objetivo es mejorar la seguridad de Windows al impedir


que aplicaciones maliciosas hagan cambios no autorizados en el ordenador, a
su vez permite visualizar las acciones de las cuentas para chequeo de
accesibilidad.

QUE ES WORD Y PARA QUÉ SIRVE

Microsoft Word es un software informático destinado al procesamiento de texto,


de los más utilizados a la hora de trabajar con documentos digitales en la actualidad.
Word surgió Word como un programa de tratamiento de texto que nació de la mano de
IBM alrededor del año 1981, está prácticamente presente en todos los equipos de las
personas que tengan computadora a su disposición siendo éste un procesador
bastante simple. Este programa pertenece al Paquete Office de todas las
computadoras que tengan instalado Microsoft Windows como sistema operativo.
Cuenta con un completo paquete de herramientas que permite modificar el
formato de un escrito. Estas permiten modificar desde el tipo o tamaño de la fuente al

60
diseño de la página, pasando por la inclusión de elementos gráficos como imágenes o
tablas. Permite añadir archivos multimedia de vídeo y sonido pero no es de gran
utilidad si la finalidad del documento es imprimirlo.
Dispone de un formato de archivo nativo, DOC, que es cerrado. Se ha convertido
en poco menos que un estándar gracias a la amplia difusión del programa, haciendo
que prácticamente cualquier aplicación cuya finalidad es la de leer o editar textos sea
compatible con él. No obstante también es posible guardar los trabajos en otros
formatos como RTF, XPS o XML, además de contar con una herramienta para
exportarlos a formato PDF.
La aplicación fue creada por la empresa Microsoft y actualmente viene incluida
por defecto en el paquete ofimático de Microsoft Office. Fue ideada a partir de 1981 y
desarrollada por los programadores Richard Brodie y Charles Simonyi bajo el nombre
de Multi-Tool Word para sistemas Xerox, posteriormente para ordenadores IBM que
corrían con sistema operativo MS-DOS en el año 1983… Después se crearon varias
versiones para Apple Macintosh, AT&T Unix PC, Atari ST y por fin Microsoft Windows
en 1989. Es en Windows y en sus diferentes sistemas operativos donde ha tenido
mayor relevancia en los últimos años, y pese a surgir en este momento no cobró
relevancia hasta el lanzamiento de Windows 3.0.
Con Microsoft Word se puede ver, editar y crear documentos de texto para
guardarlos en el dispositivo o compartirlos con quien sea de mil formas diferentes. Es el
software más potente del mercado, líder indiscutible en el sector de los procesadores
de texto. El programa permite cambiar de formatos e imprimir documentos de manera
profesional, así como realizar distintas tareas para la presentación de la información:
automatización de tareas, detección y corrección de errores ortográficos y
gramaticales.
A nivel profesional, Word se ha convertido en la herramienta más utilizada
para crear currículos, trabajos, presentaciones, informes o para escribir cartas. La
edición de texto es muy sencilla y su apariencia lo hace aun más fácil de manejar, con
tan sólo unos conocimientos básicos se puede utilizar sin problemas. Además,
Microsoft Word permite visualizar el resultado final antes de ser enviado o impreso.

61
QUE ES UNA LETRA CAPITAL

En una obra escrita o publicada, una letra capital o letra capitular o


simplemente capitular es una letra que aparece al inicio de la obra, de un capítulo o de
un párrafo y que tiene un tamaño mayor que las del resto del texto.
La capitular tiene su origen en los escritos medievales. Siglos después, han
perdurado y siguen apareciendo en libros y publicaciones modernas.
El vocablo capitular proviene de la palabra latina capita que, literalmente,
significa “cabeza”, “capítulo” o “comienzo”. Por tanto, su etimología se remite a su uso
en el comienzo de distintos capítulos y párrafos de manuscritos y libros.
La capitular puede ocupar el espacio de dos o tres líneas del texto. En textos
antiguos solía ocupar varios renglones más. Incluso podía sobresalir sobre del margen
izquierdo y hasta ocupar el alto de la columna entera. Con capitular o se denomina a
las letras de gran formato al inicio de los textos. También se la llama letra
capital, aunque cualquier mayúscula lo es.

ESCRIBE UN PÁRRAFO Y UTILIZA LA LETRA CAPITAL

L
a grafología es una parte de la psicología que estudia al ser humano a
través de su escritura, descifrando el carácter a través de los trazos; y
también cómo la escritura y por lo tanto el carácter, son afectados por
los estados de ánimo, la salud y la enfermedad; en su aspecto más
práctico, permite descubrir si dos escrituras o firmas semejantes pertenecen a la misma
persona, o si alguna es una falsificación. Para esto, toman en cuenta aspectos como la
presión al momento de escribir, la velocidad o la alineación.

62
QUE ES EXCEL Y PARA QUÉ SIRVE

Excel es un programa que forma parte de la suite ofimática Microsoft Office,


un software de hojas de cálculo empleado esencialmente en tareas matemáticas y
financieras. Sirve para realizar todo tipo de cálculos numéricos o matemáticos. Permite
elaborar tablas que incluyan cálculos matemáticos, resueltos mediante operadores
matemáticos o automáticamente mediante fórmulas llamadas funciones que se pueden
configurar manualmente. Además de permitir la visualización de los datos, por ejemplo,
a través de diferentes tipos de gráficos. La finalidad de estos puede ser diferente según
las necesidades del usuario y las posibilidades que permite este software de cálculo
son extremadamente amplias. Se pueden llegar a realizar desde simples sumas a
integrales, pasando por la creación de gráficos, la generación de informes o la
organización de información no numérica.
De hecho, aunque en origen estaba diseñado para satisfacer las necesidades
del ámbito administrativo y contable, sus funciones se han extendido a diferentes
campos, incluyendo el de las bases de datos. Por eso es posible llevar múltiples
registros y controles de particularidades que no tengan que ver en ningún momento con
cálculos y se compongan esencialmente de texto.

Con Microsoft Excel se pueden llevar a cabo las siguientes tareas:

 Elaborar tablas de consulta de información.

 Crear gráficos a partir de datos numéricos introducidos en la hoja de cálculo.

 Resolver operaciones matemáticas sencillas.

 Elevar números a potencias.

 Hacer calendarios especializados.

 Hacer facturas.

 Diseñar todo tipo de horarios.

 Generar informes contables.

63
 Elaborar presupuestos detallados.

 Editar hojas de cálculo de programas similares.

 Llevar una libreta de direcciones.

 Llevar un registro de clientes, usuarios, empleados… o cualquier otro en el

que se funcione mediante líneas y columnas.


 Crear calendarios varios.

 Llevar la contabilidad de una empresa, un comercio o incluso un hogar.

Gracias a sus características es utilizado en el ámbito de la empresa pero


también en entornos domésticos para llevar contabilidad básica, ya que ofrece un
sencillo acceso a sus funciones más elementales y cualquiera con un mínimo interés
por el software puede hacer uso de ella. Al igual que el resto de programas que
conforman el paquete Office, Microsoft Excel se ha convertido en un estándar de
facto pese a su licencia comercial y, por tanto, no ser gratis. No en vano, otros
paquetes ofimáticos tradicionales o en la nube como OpenOffice, LibreOffice o Google
Docs, cuentan con aplicaciones de hojas de cálculo que han desarrollado para ser
totalmente compatibles con el software de Microsoft, siendo en gran medida idénticas
en muchas de sus funciones. Porque el lenguaje que emplea se ha convertido
prácticamente en el estándar, siendo el conocimiento y la documentación abundante en
Internet.
Los orígenes de este programa se remontan a principios de la década de los 80,
cuando la empresa estadounidense presentó Multiplan, que no tuvo particular
relevancia en MS-DOS frente a Lotus 1-2-3. La idea se siguió desarrollando hasta que
tomó forma como Excel en 1985 para Mac y ya en 1987 para Windows. A partir de
1993 pasa a formar parte de Office con la versión 5.0. Desde entonces se han sucedido
las versiones en paralelo al lanzamiento de la suite ofimática de los de Redmond.

64
QUE ES POWER POINT Y FUNCIONES BÁSICAS

Forma parte del paquete ofimático Microsoft Office y sus orígenes se remontan a
mediados de la década de 1980. Dos programadores desarrollaban un software para
presentaciones gráficas para Mac cuyo nombre era Presenter que fue rechazado por
Apple. Sin embargo Bill Gates y Microsoft sí mostraron interés y acabaron adquiriendo
el software en 1987 y lanzando su primera versión ese mismo año, la 1.0. Desde
entonces ha ido evolucionado, versión tras versión, para adaptarse a las diferentes
necesidades que los usuarios han ido requiriendo.
Power Point o PowerPoint es el nombre de uno de los programas más populares
creados por Microsoft, es ampliamente utilizado en distintos campos de la enseñanza,
los negocios, entre otros.
Se trata de un software que permite realizar presentaciones a través de
diapositivas. El programa contempla la posibilidad de utilizar textos, imágenes, música,
animaciones. Se le pueden aplicar distintos diseños de fuente, plantilla y dibujos. De
este modo, la creatividad del usuario resulta decisiva para que las presentaciones sean
atractivas y consigan mantener la atención del receptor.
Microsoft Power Point es un programa de presentación desarrollado para la
empresa Microsoft para sistemas operativos Windows, macOS y últimamente
para Android y iOS. Viene integrado en el paquete ofimático llamado Microsoft
Office como un elemento más, que puede aprovechar las ventajas que le ofrecen los
demás componentes del equipo para obtener un resultado óptimo.
Con PP y los dispositivos de impresión adecuados se pueden realizar muchos
tipos de resultados relacionados con las presentaciones: transparencias, documentos
impresos para las asistentes de presentación, notas y esquemas para el presentador, o
diapositivas estándar de 35mm.

Sobre este programa tenemos que decir que viene a girar en torno a tres
funciones fundamentales:

65
 Un editor, que sirve no sólo para escribir texto sino también para darle el

formato deseado (tamaño, tipografía, color, alineación).


 Un sistema que se encarga de poder insertar tanto fotografías como audios e

incluso archivos de vídeo. Elementos todos estos que complementan y


refuerzan el contenido textual.
 Un sistema que procede a mostrar todo el contenido, sea del tipo que sea, de

manera absolutamente continua.

QUÉ DIFERENCIA TIENE EL MS-DOS CON WINDOWS FUNDAMENTE SU


RESPUESTA

MS DOS y MS Windows son los sistemas operativos que Microsoft Corporation


ha desarrollado. En los nombres de ambos sistemas, MS es una forma abreviada de
Microsoft. DOS es sinónimo de sistema operativo de disco, mientras que el nombre
Windows es una referencia a las pantallas del sistema operativo de esta última visión
de la interfaz o ventanas. La principal diferencia entre MS DOS y MS Windows es que
el primero es un sistema operativo utilitario que no es compatible con múltiples tareas,
mientras que el segundo es más avanzado y fácil de usar sistema operativo que
soporte multitarea.
En 1980, Microsoft comenzó el desarrollo de un sistema informático compatible
con IBM operativo, que podía correr hardware al mismo tiempo que la reducción de la
brecha de conectividad entre el hardware y programas de software.
En 1981, Microsoft lanzó MS DOS. Mientras que algunos consideran que el
sistema efectivo, otros estaban desconcertados por el texto de sólo interfaz del
sistema. Como solución, Microsoft comenzó el desarrollo de un proyecto conocido
como Interface Manager en 1983. En 1985, la compañía lanzó el terminado proyectado
bajo el nombre de Windows 1.0. El sistema operativo permite a los usuarios administrar
archivos con MS DOS, mientras que también proporciona aplicaciones como un

66
calendario, un reloj, una calculadora, un generador de gráficos: Pintura, un procesador
de textos: Bloc de notas, y un juego: Reversi.
MS DOS se basa en una interfaz de usuario que es totalmente basado en texto.
Para el sistema operativo para llevar a cabo una función, el usuario debe teclear
comandos con el teclado y pulse la tecla enter o la tecla return. Cuando se inicia un
usuario de un ordenador DOS, el sistema operativo proporcionará un sistema, como
por ejemplo C:.> Entrando en un código textual específico después de la indicación
iniciará una tarea específica, en cuyo punto que se hará cargo de la tarea en la
operación del equipo. En contraste con MS DOS, MS Windows utiliza una interfaz
gráfica. Los usuarios pueden iniciar tareas sin el uso de un teclado, seleccionando
íconos y opciones de menú en el escritorio de una pantalla. Al hacer clic en los íconos y
opciones de menú abre ventanas y estas ventanas pueden ejecutar diferentes
programas simultáneamente.
La interfaz de complejo de MS Windows, y su capacidad para ejecutar
programas al mismo tiempo, significa que el sistema operativo pone un drenaje mucho
más alta en los recursos de un ordenador en comparación con MS DOS. MS DOS se
basa en pocas o ninguna conductores, recursos de vídeo y un mínimo de memoria
convencional mínima. Además, MS DOS, a diferencia de Windows, no hace un amplio
uso de archivos temporales o de intercambio de disco.

Sistema Operativo MS-DOS Sistema Operativo Windows


 Trabaja con comandos en modo texto  Toda la información presentada al
formados por órdenes difíciles de usuario es gráfica.
recordar.  Es un sistema operativo que permite
 Sólo se puede ejecutar un programa ejecutar varias aplicaciones a la vez.
en cada momento.  Define una forma homogénea de
 La capacidad de aumentar el espacio utilizar los recursos de la
de su disco duro, un antivirus, una computadora, lo cual permite
nueva versión del programa de apoyo compartir datos entre las distintas
y recuperación de datos, que por aplicaciones, así como utilizar con

67
años no fue mejorado, capacidad de facilidad los elementos Hardware ya
intercambiar datos entre instalados.
computadoras por medio de un cable,  Windows es un sistema operativo
optimización del uso de la Memoria diseñado y desarrollado por
RAM. Microsoft Cooperation. Hoy en día,
 DOS significa Sistema operativo de es uno de los sistemas operativos
disco. Proporciona un sistema de más populares del mundo. El motivo
archivos para organizar, leer y escribir de la popularidad de Windows es su
archivos en el disco de interfaz gráfica de usuario. Permite a
almacenamiento. Es principalmente los usuarios acceder a las
un sistema operativo de un solo aplicaciones fácilmente. Hay varias
usuario. Los sistemas DOS siguen versiones de Microsoft Windows.
varias actividades para el correcto Windows 95, XP, Vista, Windows 7,
funcionamiento del sistema. Realiza Windows 8, Windows 10 son algunos
la gestión de archivos, permite cargar de ellos.
y ejecutar programas, asignar  El sistema operativo Windows
recursos y controlar dispositivos de proporciona múltiples características.
hardware. El usuario puede crear fácilmente
 DOS no proporciona una interfaz carpetas y organizar archivos en
gráfica de usuario. Tiene una interfaz consecuencia. Puede usar el botón
de línea de comandos. Cuando el de inicio para encontrar los
usuario escribe los comandos en la programas instalados en el sistema.
línea de comandos, interpreta esos Además, puede usar el botón de
comandos para realizar la tarea inicio para ir al panel de control y
requerida. Algunos comandos para acceder a ayuda y soporte.
comunes son BORRAR, BORRAR, También es posible personalizar el
IMPRIMIR y COPIAR. escritorio con varios temas. Puede
 Hay dos tipos de comandos de DOS agregar fondos, colores y
llamados comandos internos y salvapantallas.
externos. El archivo COMMAND.COM  Windows proporciona muchas

68
almacena los comandos internos. aplicaciones útiles como MS Word,
Estos comandos son comandos Excel y PowerPoint. La palabra MS
regulares básicos. Estos comandos permite crear documentos. MS Excel
se cargan automáticamente en la ayuda a realizar cálculos y
memoria cuando el usuario inicia la almacenar detalles financieros. MS
computadora. CLS, TYPE y EXIT PowerPoint permite crear
pocos ejemplos para comandos presentaciones. En general,
internos. El comando CLS borra la Windows es un sistema fácil de usar
pantalla. El comando TIPO muestra el que permite realizar las tareas de
contenido de un texto. El comando manera fácil y eficiente.
SALIR se usa para salir de la línea de
comandos.
 El otro tipo de comandos de DOS se

llama comandos externos. No se


utilizan con frecuencia. Estos
comandos se cargan en la memoria
solo cuando es necesario. COMP y
SYS son dos ejemplos de comandos
externos. COMP compara un conjunto
de dos archivos y SYS se usa para
crear una unidad de arranque.

DOS es un sistema operativo que puede usar un dispositivo de almacenamiento


en disco, como un disquete, una unidad de disco duro o un disco óptico. Windows es
un grupo de familias gráficas de sistemas operativos que Microsoft desarrolla,
comercializa y vende.
DOS utiliza una línea de comandos o una interfaz basada en texto. Windows
tiene una interfaz gráfica de usuario (GUI) y una interfaz de línea de comandos.
El usuario debe conocer los comandos para utilizar DOS de manera efectiva.
Puede ser difícil para un principiante. Por otro lado, en Windows, el usuario puede

69
acceder fácilmente a las aplicaciones utilizando la GUI. También proporciona
compatibilidad de software y hardware, opciones de ayuda, etc.
Los sistemas DOS no son ampliamente utilizados ahora. Fue popular entre 1980
y 1995. Sin embargo, a veces se usa DOS para el desarrollo de sistemas integrados.
Windows es un sistema operativo popular. Tiene usuarios en todo el mundo.
DOS requiere pocos megabytes para funcionar, mientras que Windows requiere
gigabytes para funcionar.
MS DOS, PC –DOC, FreeDOS, PTS-DOS, ROM-DOS, OpenDOS, 86-DOS, DR-
DOS, Novell DOS son algunas versiones de DOS. Windows 95, XP, Vista, Windows 7,
Windows 8, Windows 10 son algunas versiones de Windows.

QUÉ ES EL SOFTWARE LIBRE Y SU DIFERENCIA CON WINDOWS FUNDAMENTE


SU RESPUESTA

El software libre es todo software cuyo código fuente puede ser estudiado,
modificado, y utilizado libremente con cualquier fin y redistribuido con cambios o
mejoras o sin ellas. Su definición está asociada al nacimiento del movimiento de
software libre, encabezado por el activista y experto informático
estadounidense Richard Stallman y la fundación que presidía en 1985, la Free Software
Foundation, una organización sin ánimo de lucro que coloca la libertad del usuario
informático como propósito ético fundamental.
Un software es libre si otorga a los usuarios de manera adecuada las
denominadas cuatro libertades: libertad de usar, estudiar, distribuir y mejorar, de lo
contrario no se trata de software libre. Existen diversos esquemas de distribución que
no son libres, y si bien podemos distinguirlos sobre la base de cuánto les falta para
llegar a ser libres, su uso bien puede ser considerado contrario a la ética en todos los
casos por igual.

70
La expresión «software libre» proviene de la expresión del inglés free software,
que presenta ambigüedad entre los significados «libre» y «gratis» asociados a la
palabra free. Por esto es que suele ser considerado, de manera errónea, 45
como software gratuito y no en su acepción más precisa como software que puede ser
modificado y compartido sin infringir la licencia. El software libre suele estar disponible
gratuitamente, o al precio de coste de la distribución a través de otros medios, sin
embargo no es obligatorio que sea así, por lo tanto no hay que asociar software «libre»
a «gratuito» (denominado usualmente freeware), ya que, conservando su carácter de
libre, puede ser distribuido comercialmente. Análogamente, el software gratis o gratuito
incluye en ocasiones el código fuente; no obstante, este tipo de software no es «libre»
en el mismo sentido que el software libre, a menos que se garanticen los derechos de
modificación y redistribución de dichas versiones modificadas del programa. En este
sentido, es importante conocer las implicaciones jurídicas que emanan del uso del
software libre.
Tampoco debe confundirse software libre con «software de dominio público».
Este último es aquel que no requiere de licencia, pues sus derechos de explotación son
para toda la humanidad, porque permite el acceso a todos por igual. Cualquiera puede
hacer uso de él, consignando su autoría original. Este software sería aquel cuyo autor
lo dona a la humanidad o cuyos derechos de autor han expirado. Si un autor condiciona
su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.

Las cuatro libertades esenciales de un programa de software libre:


 Libertad 0: La libertad de ejecutar el programa como se desee, con cualquier

propósito (privado, educativo, público, comercial, militar, etc.).


 Libertad 1: La libertad de estudiar cómo funciona el programa, y adaptarlo a

tus necesidades. El acceso al código fuente es una condición necesaria para


ello.
 Libertad 2: La libertad de redistribuir copias para ayudar a otros.

 Libertad 3: La libertad de mejorar el programa y hacer públicas las mejoras a

terceros, esto le permite ofrecer a toda la comunidad la oportunidad de

71
beneficiarse de las modificaciones. El acceso al código fuente es una
condición necesaria para ello.

Distribuciones o presentaciones más populares del mundo del Software Libre:


 GNU/Linux: Uno de los programas más importantes histórica y popularmente,

encabezó el esfuerzo por un software de código abierto en el mundo de la


Internet desde 1983.
 Chrome OS: Basado en el kernel de Linux, este sistema operativo
actualmente en desarrollo por la empresa Google Inc. empleará el explorador
Google Chrome como su interfaz principal y se basa 100% en la nube.
 VALO-CD: Se trata de un CD con software de código abierto diseñado para

operar bajo el entorno de Microsoft Windows, desarrollado por programadores


Finlandeses en 2008.
 OpenDisc: Otro conjunto de herramientas de código abierto diseñadas para

funcionar en Microsoft Windows, creados en 2007 para educar a los usuarios


en el uso de Linux.
 Ubuntu: Es una distribución libre de GNU/Linux que
emplea tecnología GNOME como su entorno virtual de escritorio, cuya
empresa creadora sobrevive ofreciendo soporte técnico a sus usuarios.

Diferencia entre el Software libre y Windows:

 Instalación del Sistema Operativo: Para instalar Linux hay que realizar

relativos esfuerzos, aunque cada vez es una tarea más sencilla, pero puedes
personalizar completamente la instalación. A la hora de
instalar Windows prácticamente no puedes configurar nada (cuatro cosas
básicas). Eso sí, la instalación de Windows es muy fácil y cómoda.
 Compatibilidad con el Hardware: Windows es generalmente más
compatible con todo tipo de hardware que Linux. No obstante, cada vez se
acercan más ambos a la compatibilidad total, que sería lo deseable. Gracias a

72
que Linux goza de alta popularidad, ofrece una alta compatibilidad a pesar de
no estar detrás de ninguna casa comercial. Además ofrece actualizaciones de
forma frecuente. Windows forma parte de Microsoft, y debido a su gran poder
económico intenta ofrecer un elevado número de drivers, ya que las empresas
de hardware crean sus propios drivers.
 Software: Linux cuenta con menos software en algunos sectores, y tiene una

menor aceptación en el mundo empresarial, aunque gracias a apoyos de


empresas como Sun Microsystems (adquirida en 2009 por Oracle) o IBM se
consiguieron avances importantes en los últimos tiempos. Windows posee
una gran cantidad de software, ya que es el sistema operativo más utilizado
en las empresas (principalmente por su facilidad de uso) y esto hace que los
desarrolladores se centren más en él.
 Linux siempre se ha caracterizado por la robustez de su sistema, ya que por

ejemplo podemos estar meses (incluso años) sin la necesidad de apagar o


reiniciar el equipo. Por otra parte, si una aplicación falla, no se bloquea
totalmente el equipo. En Windows siempre (tarde o temprano) es necesario
reiniciar el sistema cuando se modifica o actualiza alguna configuración del
mismo. Además, se puede bloquear al ejecuta alguna operación
aparentemente sencilla, obligándonos a reiniciar el equipo.

73
CONCLUSIÓN

Al concluir este proyecto pude reafirmar mis conocimientos sobre los distintos
tipos de computadoras, como nace, el uso de cada una, como se han desarrollado con
el pasar de los años, y como se va aplicando tecnológicamente a nivel de redes y
computadores individuales.
La informática está presente prácticamente en toda actividad humana, directa o
indirectamente. Por eso, ha adquirido tanta relevancia que es imprescindible la
preparación de los niños y jóvenes, no sólo en el uso de la computadora y en el
desarrollo de ciertas habilidades prácticas en este campo, sino en la comprensión de
su funcionamiento y en la valoración de su potencial, así como en el conocimiento de
sus limitaciones y los riesgos que le acompañan.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo
del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos
tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos
informáticos han abierto una nueva era en la fabricación gracias a
las técnicas de automatización, y han permitido mejorar los sistemas modernos
de comunicación. Son herramientas esenciales prácticamente en todos los campos
de investigación y en tecnología aplicada.
En la actualidad vemos como la informática crece cada día más y se apodera de
las actividades que hacemos a diario, la computadora se ha convertido en un
instrumento indispensable para las actividades del hombre. Es por ello que resulta
indispensable conocer a fondo la computadora y sus diversos componentes. Entre sus
componentes encontramos el hardware y el software.
El hardware es la parte física del computador lo que podemos ver y tocar. Ejemplos de
ellos son el monitor, CPU, teclado, ratón, cornetas entre otros.
Una de las formas de clasificar el Hardware es en dos categorías: por un lado, el
"básico", que abarca el conjunto de componentes indispensables necesarios para
otorgar la funcionalidad mínima a una computadora, y por otro lado,

74
el Hardware "complementario", que, como su nombre lo indica, es el utilizado para
realizar funciones específicas (más allá de las básicas), no estrictamente necesarias
para el funcionamiento de la computadora.
La computadora es una máquina electrónica capaz de ordenar procesar y elegir
un resultado con una información. En la actualidad, dada la complejidad del mundo
actual, con el manejo inmenso de conocimientos e información propia de esta época de
crecimiento tecnológico es indispensable contar con una herramienta que permita
manejar información con eficiencia y flexibilidad, esa herramienta es la computadora.
Las computadoras cuentan con diversas herramientas para realizar varias acciones
tales como procesadores de palabras que permiten crear documentos, editarlos y
obtener una vista preliminar del mismo antes de imprimirlo si esa es la necesidad,
también cuenta con hojas de cálculo que permiten realizar operaciones de cálculo de
tipo repetitivas o no, también permite crear nóminas, balances, auditorias y demás
operaciones resultando herramientas muy útiles en muchas áreas de desenvolvimiento
cotidiano.
Estas herramientas necesitan de una plataforma en la cual ejecutarse. Este es el
papel del sistema operativo de una máquina computacional, que permite gestionar
ficheros, llamadas al sistema, entre otras acciones. Siendo Linux un sistema operativo
muy eficiente constituyéndose en una alternativa muy viable a la hora de escoger un
determinado sistema operativo, ya que combina la eficiencia, rapidez y potencia de los
sistemas UNIX con la facilidad de uso de un sistema gráfico como MS Windows.

75
BIBLIOGRAFÍAS

 Julián Pérez Porto y Ana Gardey. Publicado: 2008. Actualizado: 2020.


Definicion.de: Definición de informática (https://definicion.de/informatica/)
 "Informática". Autor: María Estela Raffino. De: Argentina. Para: Concepto.de.
Disponible en: https://concepto.de/informatica/.
 (Prieto et al., 2001) Prieto, A., Lloris, A., Torres, J.C. Introducción a la
Informática. 3ª edición, McGraw-Hill, 2001.
 (Breton, 1989) Breton, P. Historia y Crítica de la Informática. Ed. Cátedra.
Madrid 1989.
 (Arroyo, 91) Arroyo, L. 200 Años de Informática. Ed. Espasa-Calpe. Madrid
1991.
 Historia de la Informática. www.maxmon.com/history.htm. http://www-
etsi2.ugr.es/alumnos/mlii/. www.perantivirus.com/historia.
 Atanasoff y Berry: ABC. www.cs.iastate.edu/jva/jva-archive.shtml.
 Aiken: MARK I.
 http://www.groups.dcs.standrews.ac.uk/~history/Mathematicians/Aiken.html.
 Mauchly y Eckert: ENIAC.
 http://ei.cs.vt.edu/~history/ENIAC.Richey.HTML.
 John Von Newman
 http://wwwgap.dcs.stand.ac.uk/~history/Mathematicians/Von_Neumann.html.
 Von Neumann, Eckert y Mauchly
 http://www.library.upenn.edu/exhibits/rbm/mauchly/jwm9.html.
 Eckert y Mauchly : UNIVAC I
 www.library.upenn.edu/special/gallery/mauchly/jwm11.html
 http://www-1.ibm.com/ibm/history/exhibits/701/701_intro.html
 http://www.columbia.edu/acis/history/650.html
 www.users.nwark.com/~rcmahq/jclark/ibm650.htm
 Bob Metcalfe: ETHERNET
76
 http://www.ethermanage.com/ethernet/
 Conceptodefinicion.de, Redacción. (Última edición:17 de julio del 2019).
Definición de Monitor. Recuperado de: //conceptodefinicion.de/monitor/.
 Pérez, Mariana. (Última edición:29 de abril del 2020). Definición de Teclado.
Recuperado de: //conceptodefinicion.de/teclado/.
 Julián Pérez Porto y María Merino. Publicado: 2009. Actualizado: 2009.
Definicion.de: Definición de teclado (https://definicion.de/teclado/)
 ANTONIO L., (2002). Aula Siglo XXI. Computación y
Tecnología. Madrid, España.
 Mail.umc.edu.ve/opsu/contenidos/dispositivosdeuncomputador_computador.ht
m
 ALZOLAY, Albanik; ROMERO, Ruth; TOLEDO, Morrys. UNIVERSIDAD
NACIONAL EXPERIMENTAL DE GUAYANA. VICE-RECTORADO
ACADÉMICO DEPARTAMENTO GENERAL DE INFORMÁTICA. PROYECTO
DE CARRERA: ING. EN INFORMÁTICA. PUERTO ORDAZ, MARZO DE
2006.
 María Estela Raffino. De: Argentina. Para: Concepto.de. Disponible en:
https://concepto.de/mouse/.
 Definición de Impresora. Recuperado de: //conceptodefinicion.de/impresora/.
 Julián Pérez Porto y María Merino. Publicado: 2012. Actualizado: 2014.
Definicion.de: Definición de impresora (https://definicion.de/impresora/)
 Orozco Guzmán, Martha Angélica y otros. (2002). Taller de Programación y
Cómputo. Teoría y Práctica. Ed. Thomson.
 CD-ROM con parte del contenido que se presenta en esta Guía Instruccional
y los Tutoriales necesarios para realizar los ejercicios.
 Guillem Alsina González | Sitio: Definición ABC | Fecha: febrero. 2009 | URL:
https://www.definicionabc.com/tecnologia/escritorio-de-windows.php
 “Escritorio de Windows” (s/f.). En DeSignificados.com. Disponible en:
https://designificados.com/escritorio-de-windows/
 Fuente: https://designificados.com/escritorio-de-windows/
77
 "Microsoft Word". Autor: María Estela Raffino. De: Argentina.
Para: Concepto.de. Disponible en: https://concepto.de/que-es-word/.
 http://paraquesirven.com/para-que-sirve-microsoft-excel/
 http://www.cavsi.com/preguntasrespuestas/para-que-sirve-excel/
 "Software Libre". Autor: María Estela Raffino. De: Argentina.
 Para: Concepto.de. Disponible en: https://concepto.de/software-libre/.
Fuente: https://concepto.de/software-libre/#ixzz6UfCEvwYO
 "Software libre". En: Significados.com. Disponible en:
https://www.significados.com/software-libre/
 http://metodosestadisticos.unizar.es/asignaturas/10234/lasala/apuntesintro.pdf
 https://elvex.ugr.es/decsai/java/pdf/1B-Historia.pdf
 http://museo.inf.upv.es/wp-
content/uploads/2016/12/Un%20viaje%20a%20la%20historia%20de%20la%2
0inform%C3%A1tica.pdf
 https://jofillop.files.wordpress.com/2011/03/breve-historia-de-la-informatica-
amgnb.pdf
 http://www.saber.ula.ve/bitstream/handle/123456789/36650/otras_investigacio
nes03.pdf?sequence=1&isAllowed=y

78
79
ÁBACO

REGLA DE CÁLCULO

MÁQUINA DE PASCAL
80
TELAR DE JACQUARD

MÁQUINA DIFERENCIAL DE CHARLES BABBAGE

81
TABULADORA DE HOLLERITH

COMPUTADOR ENIAC, PRIMER ORDENADOR ELECTRÓNICO

82
PARTES DEL COMPUTADOR

83
84
TECLADO

UNIDAD DE ALMACENAMIENTO

EVOLUCIÓN DEL MOUSE

85
EVOLUCIÓN DE LA IMPRESORA

TIPOS DE COMPUTADORAS

86
ESCRITORIO E ÍCONOS

PANEL DE CONTROL

WORD, EXCEL Y POWER POINT

87
LETRA CAPITAL O CAPITULAR

MS-DOS Y WINDOWS

SOFTWARE LIBRE

88

También podría gustarte