Está en la página 1de 30

UNIVERSIDAD TECNOLOGICA DEL SUR

(UTESUR)

Nombre: Madelin Masiel


Apellidos: Beltré
Matricula: 2018-0092

Maestro: Ricardo Antonio Montilla Sencion


Asignatura: Introducción a la Informática
Práctica: #1

Sección: A-301
Fecha de entrega: 21/05/2020
1) ¿Qué es la informática?
Informática es el tratamiento automático de la información. Como tal, la
informática designa a un conjunto de conocimientos teóricos y prácticos,
relativos al ámbito de la ciencia y de la tecnología, que se combinan para
posibilitar el tratamiento racional y automático de la información mediante
sistemas informáticos o computadoras.
Es un dispositivo o máquina que puede procesar cierto material para
convertirlo en información.

2) ¿Que un sistema?
Es el que permite almacenar y procesar información; es el conjunto de partes
interrelacionadas: hardware, software y personal informático.

3) ¿Qué es una computadora?


Una computadora es un dispositivo informático que es capaz de recibir,
almacenar y procesar información de una forma útil.
Una computadora es un sistema digital con tecnología microelectrónica capaz
de procesar datos a partir de un grupo de instrucciones denominado programa.

4) ¿Hable de la 1,2,3,4,5,6 generación de la computadora?


 PRIMERA GENERACIÓN (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar
información. Los operadores ingresaban los datos y programas en código
especial por medio de tarjetas perforadas. El almacenamiento interno se
lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de
lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos
eran mucho más grandes y generaban más calor que los modelos
contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era
Generación formando una compañía privada y construyendo UNIVAC I, que el
Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el
monopolio de los equipos de procesamiento de datos a base de tarjetas
perforadas y estaba teniendo un gran auge en productos como rebanadores de
carne, básculas para comestibles, relojes y otros artículos; sin embargo no
había logrado el contrato para el Censo de 1950.
Comenzó entonces a construir computadoras electrónicas y su primera entrada
fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la
IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en
1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM
disfruta hoy de una gran parte del mercado de las computadoras. La
administración de la IBM asumió un gran riesgo y estimó una venta de 50
computadoras. Este número era mayor que la cantidad de computadoras
instaladas en esa época en E.U. De hecho, la IBM instaló 1000 computadoras.
El resto es historia. Aunque caras y de uso limitado las computadoras fueron
aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad
de los años 50 IBM y Remington Rand se consolidaban como líderes en la
fabricación de computadoras.

 SEGUNDA GENERACIÓN (1959-1964)


Transistor Compatibilidad Limitada
El invento del transistor hizo posible una nueva Generación de computadoras,
más rápidas, más pequeñas y con menores necesidades de ventilación. Sin
embargo, el costo seguía siendo una porción significativa del presupuesto de
una Compañía. Las computadoras de la segunda generación también
utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el
almacenamiento primario. Estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían almacenarse
datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL (Como


Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya
disponible comercialmente, este representa uno de os más grandes avances
en cuanto a portabilidad de programas entre diferentes computadoras; es decir,
es uno de los primeros programas que se pueden ejecutar en diversos equipos
de cómputo después de un sencillo procesamiento de compilación. Los
programas escritos para una computadora podían transferirse a otra con un
mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia
inventado el primer compilador fue una de las principales figuras de CODASYL
(Comité on Data SYstems Languages), que se encargó de desarrollar el
proyecto COBOL El escribir un programa ya no requería entender plenamente
el hardware de la computación. Las computadoras de la 2da Generación eran
sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para
nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas,
control de tráfico aéreo y simulaciones para uso general. Las empresas
comenzaron a aplicar las computadoras a tareas de almacenamiento de
registros, como manejo de inventarios, nómina y contabilidad.
La marina de E.U. utilizó las computadoras de la Segunda Generación para
crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el
primer competidor durante la segunda generación de computadoras.
Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de
IBM durante los 60s se conocieron como el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistores fueron la
IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y
7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido
modelo CDC16O4, y muchas otras, que constituían un mercado de gran
competencia, en rápido crecimiento. En esta generación se construyen las
supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).
 TERCERA GENERACIÓN (1964-1971)
Circuitos Integrados, Compatibilidad con Equipo Mayor,
Multiprogramación, Minicomputadora.

Las computadoras de la tercera generación emergieron con el desarrollo de los


circuitos integrados (pastillas de silicio) en las cuales se colocan miles de
componentes electrónicos, en una integración en miniatura. Las computadoras
nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor
y eran energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero
Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que
realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors,
acerca de los circuitos integrados, dieron origen a la tercera generación de
computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban
diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos
cosas. Los circuitos integrados permitieron a los fabricantes de computadoras
incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos
integrados, podía realizar tanto análisis numéricos como administración ó
procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta
la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology).
Esta máquina causó tal impacto en el mundo de la computación que se
fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora
CDC 6600, que se consideró como la más poderosa de las computadoras de la
época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones
por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas
magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas
todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras
de tarjetas ya alcanzan velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño
y podían todavía correr sus programas actuales. Las computadoras trabajaban
a tal velocidad que proporcionaban la capacidad de correr más de un programa
de manera simultánea (multiprogramación).
Por ejemplo, la computadora podía estar calculando la nómina y aceptando
pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo
360 IBM acaparó el 70% del mercado, para evitar competir directamente con
IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos
hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar
que las computadoras grandes, las minicomputadoras se desarrollaron durante
la segunda generación, pero alcanzaron sumador auge entre 1960 y 70.
 CUARTA GENERACIÓN (1971 a 1981)
Microprocesador, Chips de memoria, Microminiaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta
generación: el reemplazo de las memorias con núcleos magnéticos, por las de
chips de silicio y la colocación de Muchos más componentes en un Chip:
producto de la microminiaturización de los circuitos electrónicos. El tamaño
reducido del microprocesador y de chips hizo posible la creación de las
computadoras personales (PC)

En 1971, intel Corporation, que era una pequeña compañía fabricante de


semiconductores ubicada en Silicon Valley, presenta el primer microprocesador
o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2
250 transistores. Este primer microprocesador que se muestra en la figura 1.14,
fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de
San Francisco que, por su gran producción de silicio, a partir de 1960 se
convierte en una zona totalmente industrializada donde se asienta una gran
cantidad de empresas fabricantes de semiconductores y microprocesadores.
Actualmente es conocida en todo el mundo como la región más importante
para las industrias relativas a la computación: creación de programas y
fabricación de componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de
microcomputadoras o computadoras personales, que utilizando diferentes
estructuras o arquitecturas se pelean literalmente por el mercado de la
computación, el cual ha llegado a crecer tanto que es uno de los más grandes
a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes
avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances
tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las
primeras microcomputadoras, entre las cuales, las más famosas fueron las
fabricadas por Apple Computer, Radio Shack y Commodore Busíness
Machines. IBM se integra al mercado de las microcomputadoras con su
Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el
nombre de PC, y lo más importante; se incluye un sistema operativo
estandarizado, el MS- DOS (MicroSoft Disk Operating System).
Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías
con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o
Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple
Computer, con sus Macintosh y las Power Macintosh, que tienen gran
capacidad de generación de gráficos y sonidos gracias a sus poderosos
procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último
microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced
Instruction Set Computing), por Apple Computer Inc., Motorola Inc. e IBM
Corporation, conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la
posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar
las interfaces gráficas de usuario (Graphic User Interface, GUI), que son
pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las
tareas de comunicación entre el usuario y la computadora, tales como la
selección de comandos del sistema operativo para realizar operaciones de
copiado o formato con una simple pulsación de cualquier botón del ratón
(mouse) sobre uno de los iconos o menús.
 QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque los grandes avances y nuevos descubrimientos ya no
nos sorprenden como sucedió a mediados del siglo XX. Hay quienes
consideran que la cuarta y quinta generación han terminado, y las ubican entre
los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran
que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de
computación e informática, podemos puntualizar algunas fechas y
características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de
microelectrónica y computación (software) como CADI CAM, CAE, CASE,
inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos,
algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década
de los años ochenta se establecieron las bases de lo que se puede conocer
como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como
parámetro para el inicio de dicha generación: la creación en 1982 de la primera
supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy
Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que
funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno
japonés del proyecto "quinta generación", que según se estableció en el
acuerdo con seis de las más grandes empresas japonesas de computación,
debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen
la capacidad de trabajar simultáneamente con varios microprocesadores.
Aunque en teoría el trabajo con varios microprocesadores debería ser mucho
más rápido, es necesario llevar a cabo una programación especial que permita
asignar diferentes tareas de un mismo proceso a los diversos
microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los
requerimientos de los procesadores al mismo tiempo. Para solucionar este
problema se tuvieron que diseñar módulos de memoria compartida capaces de
asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más
avanzados para no quedar atrás de Japón, la característica principal sería la
aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las
computadoras de esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes.
También tienen la capacidad de comunicarse con un lenguaje natural e irán
adquiriendo la habilidad para tomar decisiones con base en procesos de
aprendizaje fundamentados en sistemas expertos e inteligencia artificial.

El almacenamiento de información se realiza en dispositivos magneto ópticos


con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video
Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y
sonido; la capacidad de almacenamiento de datos crece de manera
exponencial posibilitando guardar más información en una de estas unidades,
que toda la que había en la Biblioteca de Alejandría. Los componentes de los
microprocesadores actuales utilizan tecnologías de alta y ultra integración,
denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale
Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología
moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta
generación. Personalmente, no hemos visto la realización cabal de lo expuesto
en el proyecto japonés debido al fracaso, quizás momentáneo, de la
inteligencia artificial.

El único pronóstico que se ha venido realizando sin interrupciones en el


transcurso de esta generación, es la conectividad entre computadoras, que, a
partir de 1994, con el advenimiento de la red Internet y del Word Wide Web, ha
adquirido una importancia vital en las grandes, medianas y pequeñas empresas
y, entre los usuarios particulares de computadoras.

El propósito de la Inteligencia Artificial es equipar a las Computadoras con


"Inteligencia Humana" y con la capacidad de razonar para encontrar
soluciones. Otro factor fundamental del diseño, la capacidad de la
Computadora para reconocer patrones y secuencias de procesamiento que
haya encontrado previamente, (programación Heurística) que permita a la
Computadora recordar resultados previos e incluirlos en el procesamiento, en
esencia, la Computadora aprenderá a partir de sus propias experiencias usará
sus Datos originales para obtener la respuesta por medio del razonamiento y
conservará esos resultados para posteriores tareas de procesamiento y toma
de decisiones.
 SEXTA GENERACIÓN 1990 HASTA LA FECHA
Como supuestamente la sexta generación de computadoras está en marcha
desde principios de los años noventa, debemos por lo menos, esbozar las
características que deben tener las computadoras de esta generación. También
se mencionan algunos de los avances tecnológicos de la última década del
siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta
generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con
cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han
creado computadoras capaces de realizar más de un millón de millones de
operaciones aritméticas de punto flotante por segundo (teraflops); las redes de
área mundial (Wide Área Network, WAN) seguirán creciendo desorbitadamente
utilizando medios de comunicación a través de fibras ópticas y satélites, con
anchos de banda impresionantes. Las tecnologías de esta generación ya han
sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia /
artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores
ópticos.

5) ¿Por qué se caracterizó cada una de las generaciones de la


computadora?
Cada una de las generaciones del computador se caracteriza por un desarrollo
tecnológico importante ya que tuvo un cambio innovador en la manera como
operan las computadoras.
¿6) ¿Hable de la clasificación de la computadora según su tipo
(digital, analógica, hibrida)?
Análogas.
Son las computadoras que utilizan dispositivos mecánicos o eléctricos para
buscar soluciones a problemas industriales, recibiendo valores, cálculos y
señales. Su naturaleza de circuitos hace que sean rápidas y eficientes.
Hibridas.
Son sistemas que unen las funciones de las computadoras análogas y
digitales, mostrando así sus mismas características, y hacen que ambos tipos
desarrollen su trabajo conjuntamente.
Digitales.
Estas son las que operan con números y mayormente hacen el trabajo lógico
de las empresas; estas deben ser programadas antes de ser utilizadas y
poseen una memoria interna lo suficientemente amplia para introducir
información y así poder comenzar con el conteo funcional. Estas, al igual que
las análogas, resuelven internamente los problemas dando resultados precisos.
El costo de estos tres tipos de computadoras no varía, es decir, cuestan lo
mismo, puesto que las tres se utilizan para diferentes áreas del mercado y
poseen características de igual importancia para cualquier empresa.

7) ¿Hable de clasificación de la computadora según su capacidad?


Macrocomputadoras.
Son las más caras y grandes del mercado, pero sin ninguna duda las más
potentes, certeras y rápidas; las utilizan en grandes industrias y empresas
como la Nasa, empresas encargadas de estudiar cambios atmosféricos, climas,
huracanes, tornados, también las usan en proyectos de aviación,
automovilísticos, petrolíferos y mineros; son capaces de procesar gran cantidad
información y realizar cálculos en milisegundos, además permite la
interconexión de miles de usuarios sin hacer tardío el sistema.

Microcomputadoras.
También son grandes y costosas, pero en cantidades más accesibles, se
utilizan como servidores inteligentes, usados en empresas medianas, bancos,
industrias y aerolíneas. Procesan gran cantidad de información de diferentes
temas y deben de mantenerse en un cuarto frio para mantener su temperatura
adecuada.
Minicomputadoras.
Son medianamente costosas y más pequeñas que las macrocomputadoras,
pudiendo ocupar solo un rincón de un cuarto; ella hace las mismas funciones
que la macrocomputadora solo que en cantidades más reducidas, siendo
utilizadas para empresas sin mucho movimiento.
Microcomputadoras.
Estas son las más pequeñas y de menor adquisición económica; las que
mantenemos en nuestros hogares y para uso personal; estas utilizan un
microprocesador que también nos ayuda fácilmente a almacenar información y
programas. Están dentro de este grupo; las computadoras de escritorio, las
laptops, tables y computadoras de mano.

8) ¿Cuáles son los componentes de una computadora?


Los componentes de una computadora pueden clasificarse en dos:
Hardware, Software.

9) ¿Qué es un hardware?
Hardware es la parte física de un ordenador o sistema informático.

10) ¿Qué es un software?


Software es un término informático que hace referencia a un programa o
conjunto de programas de cómputo, así como datos, procedimientos y pautas
que permiten realizar distintas tareas en un sistema informático.

11) ¿Qué es un dispositivo de entrada?


Los dispositivos de entrada, que son aquellos mediante los cuales el usuario
incorpora información al ordenador.
Son aquellos que sirven para introducir datos a la computadora para su
proceso. Los datos se leen de los dispositivos de entrada y se almacenan en la
memoria central o interna. Los dispositivos de entrada convierten la información
en señales eléctricas que se almacenan en la memoria central.

12) ¿Cuáles son los dispositivos de entrada?


Teclado:
Un teclado se compone de una serie de teclas agrupadas en funciones es un
periférico de entrada o dispositivo, en parte inspirado en el teclado de las
máquinas de escribir, que utiliza una disposición de botones o teclas, para que
actúen como palancas mecánicas o interruptores electrónicos que envían
información a la computadora

Mouse:
Dispositivo que mueve un puntero electrónico sobre una pantalla que facilita la
interacción usuario-máquina.

Micrófono:
Es un transductor electroacústico (dispositivo que transforma la electricidad en
sonido, o viceversa). Su función es la de traducir las vibraciones debidas a la
presión acústica ejercida sobre su cápsula por las ondas sonoras en energía
eléctrica, lo que permite por ejemplo grabar sonidos de cualquier lugar o
elemento.

WebCam:
Es una pequeña cámara digital conectada a una computadora, la cual puede
capturar imágenes y transmitirlas a través de Internet, ya sea a una página web
o a otra u otras computadoras de forma privada.

Lápiz óptico:
Es un periférico de entrada para computadoras, tomando en la forma de una
varita fotosensible, que puede ser usado para apuntar a objetos mostrados en
un monitor. Este periférico es habitualmente usado para sustituir al mouse.
Está conectado a un cable eléctrico y requiere de un software especial para su
funcionamiento. Haciendo que el lápiz toque el monitor el usuario puede elegir
los comandos de los programas (el equivalente a un clic del mouse), bien
presionando un botón en un lado del lápiz óptico o presionando éste contra la
superficie de la pantalla.

Escaner:
Se utiliza para introducir imágenes de papel, libros, negativos o diapositivas.
Estos dispositivos ópticos pueden reconocer caractéres o imágenes, y para
referirse a este se emplea en ocasiones la expresión lector óptico (de
caracteres).

Escáner de código de barras:


Escáner que por medio de un láser lee un código de barras y emite el número
que muestra el código de barras, no la imagen
Hay escáner de mano y fijos, como los que se utilizan en las cajas de los
supermercados.

Joystick:
Es un dispositivo de control de dos o tres ejes que se usa desde una
computadora o videoconsola para ejecutar los movimientos.

13) ¿Qué es un escáner?


El escáner es un dispositivo o periférico de computadora que ha
sido diseñado para permitirnos digitalizar una imagen impresa para
transferirla a nuestra computadora con el fin de procesarla a través
de programas como Photoshop o GIMP, o incluirla en algún
proyecto de diseño gráfico o documento de otro tipo.

14) ¿Qué es un dispositivo de salida?


Los dispositivos de salida son aquellos periféricos que se adosan a
un ordenador y que tienen como finalidad comunicar información al
usuario. Los dispositivos de salida muestran información que ya ha
sido ingresada y procesada, información que es devuelta al mundo
real.
15) ¿Cuáles son los dispositivos de salida?
Monitor.
Es el más común entre los periféricos. Es el dispositivo por el cual
los usuarios pueden recibir datos necesarios al convertir la
programación del sistema en información visual. Esta imagen
mostrada consta de pixeles los cuales deben cambiar de un color o
tonalidad a otra en milisegundos de modo que las actividades, como
ver películas, sean lo más cómoda posible. Este aparato consiste
en unos tubos de rayos catódicos, al igual que en los televisores.

Impresora.
Es lo opuesto al escáner. Este dispositivo transforma un documento
ya sea un texto o una imagen, almacenados en el PC, de su forma
digital a su apariencia tangible: impresa en papel utilizando
cartuchos de tinta. Pueden ser inalámbricas, de tina o de láser.

Auriculares.
Son los audífonos. Son dispositivos que transmiten los sonidos
procedentes de la computadora para que solo puedan ser
escuchados en privado por los oídos del usuario. Su volumen es
regulado desde el mismo CPU.
Proyector.
También conocido como Video Beam. El proyector recibe una señal
de video desde la computadora para proyectarla y agrandar las
imágenes correspondientes en la pantalla de proyección.
Altavoces.
Son aquellos que magnifican y proyectan los sonidos mediante la
conversión de la energía eléctrica en energía mecánica para luego
ser transformada en energía acústica que son las ondas sonoras
transmitidas a través del aire.
DVD.
Las siglas de DVD significan Disco Versátil Digital. Es un disco
óptico de almacenamiento de datos, audio o video. Tienen una
capacidad de almacenamiento mayor que el CD, aunque ambos
son dispositivos de salida.
16) ¿Qué es un CPU?
CPU (Unidad de Proceso Central), El CPU es el cerebro del
ordenador, nos referimos a la parte de la computadora en la que se
controlan y originan comandos directos que generan las diferentes
funciones de la CPU, los cálculos del código binario de la
computadora. En general, es la parte más importante del sistema.

17) ¿Cuál es el primer procesador y quien lo fabrico?


el Intel 4004, Federico Faggin, Ted Hoff y Stanley Mazor
18) ¿Qué es USB?
USB es la sigla de Universal Serial Bus (Bus Universal en Serie, en
castellano). Se trata de un concepto de la informática para nombrar
al puerto que permite conectar periféricos a una computadora.

19) ¿Qué es memoria RAM?


La memoria RAM es la memoria principal de un dispositivo donde
se almacena programas y datos informativos. Las siglas RAM
significan “Random Access Memory” traducido al español es
“Memoria de Acceso Aleatorio”.
20) ¿Qué es memoria ROM?
La memoria ROM es el medio de almacenamiento de programas o
datos que permiten el buen funcionamiento de los ordenadores o
dispositivos electrónicos a través de la lectura de la información sin
que pueda ser destruida o reprogramable. El significado de
memoria ROM es “Read Only Memory” traducido al español
“Memoria de solo lectura.”

21) ¿Qué es memoria de CACHE?


La memoria caché o la caché es una memoria auxiliar, de gran
velocidad y eficiencia, en la cual se almacenan copias de los
archivos y datos a los que el usuario accede con mayor frecuencia,
bien sea a través del ordenador o de un dispositivo móvil.

22) ¿Cuantos tipos de memoria CACHE existe?


Memoria Cache L1
La L es de “leve” o en castellano nivel. En este caso se divide la
memoria en varios bloques. Existe un controlador el cual se encarga
de poner la información que más se usa más cerca del procesador.
Esto es debido a que el tiempo que tarda el procesador en acceder
a la memoria de nivel uno siempre es menor que a la de nivel dos y
así sucesivamente.

Normalmente este primer nivel se divide en dos partes una para


datos y otra para instrucciones. De esta forma se intenta conseguir
que el procesador este alimentado al menos con instrucciones sin
ningún problema.

Memoria Cache L2
Normalmente es por núcleo y no distingue entre datos e
instrucciones. Se tarda más en acceder a la cache de L1 pero es
mucho más grande.

El tiempo que tardas en encontrar un determinado dato en estas


memorias es proporcional al tamaño de estas. Debido a esto las
caches aumentan de tamaño según subimos a la jerarquía.

Memoria Cache L3
Se tarda más en acceder a la cache de L2, pero es mucho más
grande. Normalmente los fabricantes sólo te dan el tamaño de la
última memoria la que se llama Last Level Cache que suele ser la
de nivel dos o tres.

Suele tener varios un tamaño de varios megas es decir miles de


veces más pequeña que la memoria RAM.

23) ¿Que es hard drive?


es un dispositivo de almacenamiento de datos que emplea un
sistema de grabación magnética para almacenar y recuperar
archivos digitales.

24) ¿Qué es video card (tarjeta de video)?


Una tarjeta de video es un tipo de tarjeta de expansión para el
procesamiento de datos que provienen del CPU para transformarlos
en salida hacia un dispositivo como un monitor o un televisor.

25) ¿Qué es un byte, y ha cuanto equivale?


es la unidad de información de base utilizada en computación y en
telecomunicaciones, y que resulta equivalente a un conjunto
ordenado de ocho bits.

26 ¿Qué es un megabyte, y ha cuanto equivale?


es una unidad de información. Es múltiplo del byte u octeto y
equivale a 106 B (un millón de bytes).

27) ¿Qué es un Gigabyte, y ha cuanto equivale?


Se llama “gigabyte” a una de las unidades de almacenamiento
informático, equivalente a 1000000000 de bytes.

28) ¿Qué es un terabyte y ha cuanto equivale?


Un Terabyte es una unidad de medida de memoria (2 elevado a 12)
aproximadamente igual a un trillón de bytes (realmente
1.099.511.627.776 bytes).

29) ¿En qué año se construyó el primer ordenador y para que fines?
el UNIVAC I compitió por ser el primer ordenador de uso general
vendido comercialmente,
El primer UNIVAC fue entregado a la Oficina de Censos de los
Estados Unidos (United States Census Bureau) el 31 de marzo de
1951 y fue puesto en servicio el 14 de junio de ese año [1]. El
quinto, construido para la Comisión de Energía Atómica
30) ¿Quién fue blas pascal y cuáles fueron sus aportes a la
informática?
fue un polímata, matemático, físico, teólogo católico, filósofo y
escritor francés. Sus contribuciones a la matemática y a la historia
natural incluyen el diseño y construcción de calculadoras
mecánicas, aportes a la teoría de la probabilidad, investigaciones
sobre los fluidos y la aclaración de conceptos tales como la presión
y el vacío. La pascalina fue la primera calculadora que funcionaba a
base de ruedas y engranajes, inventada en 1642 por el filósofo y
matemático francés Blaise Pascal (1623-1662). El primer nombre
que le dio a su invención fue «máquina de aritmética». Luego la
llamó «rueda pascalina», y finalmente «pascalina». Este invento es
el antepasado remoto del actual ordenador.

31) ¿Quién fue carles Babbage, ¿cuáles fueron sus aportes a la


informática?
Charles Babbage fue un matemático de origen británico nacido en
Teignmouth Inglaterra el 26 de diciembre de 1791. Especialista en
el área de la matemática y la computación, fue conocido por el
diseño y creación de la máquina diferencial y el diseño de la
máquina analítica para generar programas de computación que
representan las bases para la creación de las computadoras. Para
muchos Charles Babbage es conocido como el padre de la
computación y algunos de sus inventos se exhiben en el Museo de
Ciencias de Londres. La máquina analítica se considera como la
primera computadora de la historia. Muere en Londres el 18 de
octubre de 1817. Actualmente parte de su cerebro se exhibe en el
Royal College of Surgeons of England.

En el mundo de la informática Charles Babbage es uno de los


personajes que más se destaca por sus aportes en el desarrollo de
calculadoras programables y otros inventos entre los que se
destacan la máquina diferencial y el diseño de máquina analítica.

32) ¿Quién fue considerado el padre de la informática?


Alan Turing.

33) ¿Quién fue Hermann Hollerith?


Herman Hollerith (Buffalo, Nueva York, 29 de febrero de 1860-
Washington D. C., 17 de noviembre de 1929) fue un inventor que
desarrolló un tabulador electromagnético de tarjetas perforadas
para ayudar en el resumen de la información y, más tarde, la
contabilidad. Fue el fundador de la compañía de máquinas de
tabulación que se fusionó (a través de adquisición de acciones) en
1911 con otras tres compañías para formar una quinta parte de la
empresa, la Computing Tabulating Recording Company, más tarde
llamada International Business Machines (IBM).
Es considerado una de las figuras seminales en el desarrollo de
procesamiento de datos. Su invención de la máquina de tarjetas
perforadas de tabulación marcó el comienzo de la era de la
semiautomáticas de procesamiento de datos de sistemas, y su
concepto de que dominaba el paisaje durante casi un siglo. Está
considerado como el primer informático, es decir el primero que
logra el tratamiento automático de la información (Informática=
Información + automática). También está dentro de los creadores de
la primera computadora en el mundo.

34) ¿Qué maquina se usó para realizar el primer censo, y en qué


año?
La Maquina Tabuladora, en 1890.

35) ¿Quién fue Leonardo Torres Quevedo?


Leonardo Torres Quevedo (28 de diciembre de 1852 – 18 de
diciembre de 1936) ingeniero de caminos, matemático e inventor.
Nació en Santa Cruz del Valle de Iguña, España. Nació el 28 de
diciembre de 1852, en Santa Cruz de Iguña, en Molledo, Cantabria.
Su padre, Luis Torres Vildósola y Urquijo, fue quien lo influenció en
su carrera como ingeniero de caminos, ya que trabajó en la estación
de ferrocarriles de Bilbao. Su padre también dirigió la construcción
del puente del ferrocarril de Santander a Alar del Rey. Su madre fue
Valentina de Quevedo y Maza. Durante su infancia estuvo largos
periodos de tiempo separado de sus padres debido a sus labores.
Por ello fue cuidado por las señoritas de Barrenechea, que lo
declararon heredero de sus bienes.

Torres Quevedo, patentó un sistema de camino funicular aéreo de


alambres múltiples. Logró un alto nivel de seguridad para el
transporte de personas. La mecánica era la liberación de un punto
fijo de apoyo del cable por el que discurre la barquilla y
reemplazarlo por una polea con pesos, asegurando la tensión
correcta en dichos cables a lo largo de todo el trayecto; como los
cables eran múltiples, en caso de rotura de uno de ellos la tensión
se distribuía equitativamente entre el resto. El español construyó
varias máquinas de calcular. El gobierno español lo apoyó con la
creación del Laboratorio de Mecánica Aplicada.

36) ¿Quién fue Ada Byron?


Ada Augusta Byron, también llamada Lady Lovelace, fue uno de los
personajes más interesantes de la historia de la computación.
Nació en Londres, el 10 de diciembre de 1815. Fue hija del famoso
poeta romántico Lord Byron y de la matemática Annabella Milbanke.
Fue siempre una niña muy enfermiza y transcurrió largos períodos
de su niñez tendida en la cama por causa de diferentes
enfermedades de diagnóstico dudoso. A los 14 años quedó
paralítica de las piernas lo cual hizo de ella una niña que, en lugar
de jugar, dedicara largas horas al estudio y la lectura. La
adolescente Ada se sintió muy pronto fascinada por la ciencia, lo
que le llevó a estudiarla, a idear, a investigar y a frecuentar sus
ambientes.
Con 17 años Ada conoció a Mary Sormerville que la animó en sus
estudios matemáticos. En 1833 con ocasión de una conferencia
sobre la Máquina Analítica, entra en contacto con Charles Babbage.
La admiración mutua que se despertó en aquel encuentro sería el
marco de una colaboración estrecha y sincera.
La labor de Ada no fue reconocida hasta que finalmente John von
Neumann y Alan M. Turing, matemáticos fundamentales en el
desarrollo de la moderna computadora electrónica digital, crearon el
lenguaje llamado Ada. Es un lenguaje de propósito general entre
cuyas principales características destaca la posibilidad de realizar
programación concurrente, manejar excepciones, definir tipos de
datos abstractos, etc. Este lenguaje es muy utilizado en la industria
aeroespacial, militar y nuclear. Muchos de los lenguajes de
programación aparecidos con posterioridad a Ada se han visto
influidos por este heredando algunas de las cualidades integradas
desde un principio en el ingenioso desarrollo de Jean chabih y sus
colaboradores.

37) ¿Quién fue John William Mauchly?


fue un físico estadounidense que, junto con la ENIAC, hizo el primer
programa y ordenador digital electrónico de propósito general, así
como el EDVAC, el Binac y el UNIVAC I, el primer ordenador
comercial hecho en los Estados Unidos.
Junto con John Presper Eckert empezaron la primera compañía de
ordenadores, la Eckert-Mauchly Computer Corporation y fueron
precursores en algunos conceptos fundamentales de los
ordenadores, incluyendo el “programa almacenado”, las subrutinas
y los lenguajes de programación. Su trabajo, tal y como se expone
su primer borrador del informe del EDVAC (1945) y tal y como se
explica en las “Moore School Lectures” (1946) influenció una
explosión en el desarrollo de ordenadores a finales de los 40 en
cualquier parte del mundo.

38) ¿Quién fue Jack St. Clair Kilby?


Jack St. Clair Kilby (8 de noviembre de 1923 - 20 de junio de 2005)
fue un ingeniero eléctrico y físico estadounidense que formó parte
en la invención del circuito integrado1 mientras trabajaba en Texas
Instruments (TI) en 1958. Fue galardonado con el Premio Nobel de
Física en el año 2000. Está reconocido (junto con Robert Noyce)
como el inventor del circuito integrado o microchip.2 También es el
inventor de la calculadora de bolsillo y la impresora térmica.
La investigación de Kilby condujo a la producción de los
microprocesadores y creó los cimientos conceptuales y técnicos
para todo el campo de la microelectrónica.
En su carrera, Kilby patentó más de 60 inventos que se han
incorporado a la industria para el consumo, la industria militar y las
aplicaciones comerciales de la tecnología de microprocesadores.

39) ¿Quién fue John Berners-lee y cuáles fueron sus aportes?


(Londres, Reino Unido, 8 de junio de 1955), conocido como Tim
Berners-Lee, es un científico de la computación británica, conocido
J
Estableció la primera comunicación entre un cliente y un servidor
usando el protocolo HTTP en noviembre de 1989. En octubre de
1994 fundó el Consorcio de la World Wide Web (W3C) con sede en
el MIT, para supervisar y estandarizar el desarrollo de las
tecnologías sobre las que se fundamenta la Web y que permiten el
funcionamiento de Internet.
Ante la necesidad de distribuir e intercambiar información acerca de
sus investigaciones de una manera más efectiva, Berners-Lee
desarrolló las ideas fundamentales que estructuran la web. Él y su
grupo crearon lo que por sus siglas en inglés se denomina Lenguaje
HTML (Hyper Text Markup Language) o lenguaje de etiquetas de
hipertexto, el protocolo HTTP (HyperText Transfer Protocol) y el
sistema de localización de objetos en la web URL (Uniform
Resource Locator).
Es posible encontrar muchas de las ideas plasmadas por Berners-
Lee en el proyecto Xanadú (que propuso Ted Nelson) y el memex
(de Vannevar Bush).

40) ¿Quién fue Tim Paterson?


Nacimiento:1 de junio de 1956 (63 años) de Nacionalidad
Estadounidense Educado en universidad de Washington,
Ocupación: Programador, informático teórico y empresario
Empleador, Microsoft, Web Paterson en 1980, a sus 24 años,
mientras trabajaba en la empresa Seattle Computers Products creó
un sistema operativo llamado 86-DOS; conocido durante su fase de
desarrollo como QDOS -Quick and Dirty Operating System-.
También en 1980 IBM comenzó a desarrollar su propia
computadora personal y contrató a Microsoft para que les
proporcionara un sistema operativo. A Microsoft se le terminaba el
plazo de entrega estipulado y no disponía aún del software, por lo
que Bill Gates y Paul Allen decidieron comprar los derechos del
sistema creado por Paterson y contratar a éste para su adaptación
al microprocesador usado en el IBM-PC, el 8088 de Intel.
De esta combinación surgió el PC-DOS vendido a IBM y más tarde
comercializado como MS-DOS a los ordenadores que surgirían tras
el éxito de IBM-PC.
Tim volvió a trabajar para Microsoft durante distintos periodos de su
vida y participó en la creación de Visual Basic. Actualmente tiene
una compañía de hardware llamada Paterson Tech.

41) ¿Quién fue Richard Stallman, y cuáles fueron sus aportes?


Richard Stallman
Nombre de nacimiento
Richard Matthew Stallman
16 de marzo de 1953 (67 años)
Manhattan (Estados Unidos)
Residencia
Boston
Nacionalidad
Estadounidense
Lengua materna
Inglés
Programador, informático teórico, conferenciante, bloguero,
desarrollador de software, cuentista, columnista, investigador,
escritor de ciencia ficción, investigador de la inteligencia artificial,
ingeniero e inventor.
Richard Matthew Stallman (Manhattan, Nueva York, 16 de marzo de
1953), con frecuencia abreviado como «rms»,1 es un programador
estadounidense y fundador del movimiento del software libre, del
sistema operativo GNU y de la Free Software Foundation
(Fundación para el Software Libre).
Entre sus logros destacados como programador se incluye la
realización del editor de texto GNU Emacs,2 el compilador GCC,3 el
depurador GDB,4 y el lenguaje de construcción GNU Make;5 todos
bajo la rúbrica del Proyecto GNU. Sin embargo, es principalmente
conocido por el establecimiento de un marco de referencia moral,
político y legal para el software libre: un modelo de desarrollo y
distribución alternativo al software privativo. Es también inventor del
concepto de copyleft (aunque no del término): un método legal para
licenciar obras contempladas por el derecho de autor, de tal forma
que su uso y modificación (así como de sus derivados)
permanezcan siempre permitidos.
Su innovador trabajo y activismo en torno al software libre y los
derechos digitales le han merecido numerosas distinciones;
incluyendo más de una docena de doctorados y profesorados
honoríficos, la prestigiosa beca de la Fundación MacArthur, el
premio Pioneer de la Electronic Frontier Foudation y varios premios
de la ACM. Es miembro del salón de la fama de Internet.

Richard Matthew Stallman es fundador del Movimiento del Software


Libre, creador del proyecto GNU y actualmente Stallman realiza
conferencias y charlas difundiendo su ideología del Software Libre.
En 1971 ingresa a la Universidad de Harvard a estudiar Física y se
convierte en hacker del laboratorio de Inteligencia Artificial (AI Lab)
del Instituto Tecnológico de Massachusetts (MIT). En los años de
trabajo en AI Lab, Stallman consideró la posibilidad que todo
software podría ser libre.

42) ¿Quién fue Steven paul Jobs, menciones sus aportaciones?


Steve Paul Jobs (San Francisco, 1955 – Palo Alto, California, 2011)
fue un destacado informático y empresario estadounidense.
Creador del primer ordenador personal y fundador de Apple
Computer, una empresa innovadora en el sector de la informática.
Se caracterizó por tener ideas visionarias en el campo de los
ordenadores personales, la telefonía móvil y la música digital.
Revolucionó el sector durante más de tres décadas a través de sus
productos.
Tenía solo doce años cuando se unió al Hewlett-Packard Explorer
Club, asociación juvenil en la que los ingenieros de la compañía
Hewlett-Packard enseñaban a niños y jóvenes las últimas
creaciones en el terreno de la informática.
Estudió en el Instituto Homestead de Mountain View y
posteriormente Steve Jobs ingresó en la Reed College, una
universidad situada en Portland (Oregón), pero abandonó los
estudios universitarios un semestre más tarde.
En aquella época coqueteó con las drogas y se interesó por
asignaturas como filosofía, llegando a viajar a la India en la
búsqueda de un sentido espiritual.
En aquella época se convirtió en socio del ingeniero Stephen
Wozniak. Comenzó a fijarse en el potencial Jobs del ordenador
doméstico en el que trabajaba su amigo y en el garaje crearon su
primera oficina.
Pusieron en marcha una placa base y luego un ordenador completo,
el Apple I, considerado el primer ordenador personal de la historia.
En 1976, con el dinero obtenido de la venta de su furgoneta
Volkswagen, fundaron la empresa Apple Computer, con sede en el
garaje de la familia de SteveJobs.
Eligió el nombre Apple como un homenaje a su fruta favorita, la
manzana.
A partir de entonces crearon diferentes versiones de Apple, siendo
más potentes que su antecesor. En el año 1985 decidieron poner
punto final a su colaboración. Ya que Stephen Wozniak quedó
relegado a un segundo plano tras un accidente, aunque se rumorea
que fue debido al carácter complicado de Steve Jobs.

El resultado de ambos conflictos fue que Wozniak se marchó de


Apple en 1985. Ese mismo año fueron despedidos mil doscientos
empleados a raíz de una amplia reestructuración en la empresa.
Jobs se vio forzado a dimitir. Pero esto no le impidió volver a
emprender en solitario una nueva andadura empresarial.
Fundó una nueva compañía informática, NeXT Computer en el año
1985. A continuación, compró al director cinematográfico
estadounidense George Lucas, por diez millones de dólares, la
división de animación de la productora del cineasta, Lucasfilm
Limited.
En 1986 nacieron los estudios de animación Pixar, centrados en la
producción por ordenador de películas de dibujos animados. Steve
Jobs participó activamente en la creación de la película «Toy
Story».
En 1989, NeXT Computer lanzó su primer ordenador, repleto de
funciones, pero que no resultó rentable por su elevado precio y su
incompatibilidad con la mayoría de los sistemas existentes en el
mercado. Steve Jobs cerró la división de ordenadores en 1993.
Su vuelta a Apple
En 1996 Apple decidió comprar NeXT Computer. Suponía la vuelta
de Steve Jobs a la empresa fundada por él con un cargo de asesor
interino (por el que Jobs, voluntariamente, no recibía ningún
salario).
Nueve meses después, la dimisión del presidente de Apple provocó
que Steve Jobs volviese a la presidencia. En agosto de 1997, Jobs
anunció un acuerdo con la corporación rival, Microsoft, que decidió
invertir 150 millones de dólares en Apple. Las dos compañías se
necesitaban y se complementaban, pues Microsoft era el principal
fabricante de programas para Macintosh, y Apple uno de los
principales testigos en el juicio antimonopolio que la justicia
norteamericana había incoado contra la empresa de Bill Gates.
En 1998, volvió a revolucionar el mercado informático con el
lanzamiento del iMac, un ordenador compacto integrado en el
monitor, que además de su espectacular diseño vanguardista
estaba preparado para navegar por Internet. Su éxito de ventas
colocó a Apple entre los cinco mayores fabricantes de ordenadores
personales de Estados Unidos y acarreó una revalorización del 50%
de las acciones de la compañía.
43) ¿Quiénes Bill Gates, y sus aportaciones a la informática?
Bill Gates nació el 28 de octubre de 1955 en Seattle, Washington.
Hijo de William Henry Gates Jr. y Mary Maxwell. Tiene ascendencia
inglesa, alemana, escocesa e irlandesa.
Su padre fue socio destacado de una de las firmas de abogados
más poderosas de la ciudad, y su madre perteneció a la junta
directiva de First Interstate BancSystem y el United Way.
A los trece años se matriculó en la Lakeside School, una escuela
preparatoria privada.

Cuando estaba en el octavo grado, el Club de Madres de la escuela


usaron fondos para comprar un Teletype Model 33 ASR y una
computadora General Electric para los estudiantes de la escuela.
Gates, se interesó en la programación del sistema de GE en BASIC
y fue excusado de clases de matemáticas para formarse en
computación.

Escribió su primer programa de ordenador en este equipo una


implementación de tic-tac-toe que permitía a los usuarios jugar
contra el ordenador.

Vendió su primer programa de software —un sistema de


calendarización para la escuela— por 4.200 dólares a los 17 años.
Se graduó de la Escuela de Lakeside, en 1973 como National Merit
Scholar. Se matriculó en la Universidad de Harvard en el otoño de
1973, donde conoció a Steve Ballmer, que fue el director ejecutivo
de Microsoft desde enero 2000 a febrero 2014.

Fundador de Microsoft en 1975 junto con Paul Allen, compañero de


estudios y socio en la creación de lenguajes de programación.

Microsoft en 1975, cuando fue fundada, contaba apenas con tres


empleados (uno de ellos era Gates) y obtenía ingresos por apenas
16 .000 dólares. En Harvard, durante el año 1975, se asoció con
Allen para desarrollar una versión del lenguaje de programación
BASIC para el Altair, el primer ordenador o computadora personal.

En el año 1977 abandonó Harvard para dedicarse por completo a


Microsoft. En los primeros ochenta, Microsoft evoluciona de
desarrollador de lenguajes de programación a la diversificación de
software, produciendo sistemas operativos, aplicaciones y
herramientas de programación. Así fue desde 1981 con la
introducción del MS-DOS, un sistema operativo para los nuevos
ordenadores personales de International Business Machines
Corporation (IBM PC) además de otros fabricantes de PC que
estandarizaron el MS-DOS, facilitando así la compatibilidad del
software.

Microsoft además creó procesadores de texto, como Microsoft Word


para los PC de IBM. También desarrollaron una aplicación de
software para Apple Macintosh antes de que en 1984 saliera al
mercado el primer Mac.

Criticado por sus tácticas comerciales que fueron consideradas


anticompetitivas, fue penalizado por numerosas sentencias
judiciales.

El Departamento de Justicia de la Unión Americana encontró


culpable a Microsoft de prácticas monopólicas en el caso antitrust
más importante de la era digital. En cuanto se supo el temido fallo,
las acciones de Microsoft sufrieron una dramática depreciación del
orden de los 79 mil millones de dólares, provocando también el
derrumbe de las acciones de otras empresas del ramo en la Bolsa
de Valores de Nueva York. El juicio fue el resultado de la querella
presentada por procuradores de 19 estados de la Unión Americana
en 1998 contra Microsoft por haber integrado a su sistema operativo
Windows el navegador Explorer con el fin de aventajar en el acceso
a Internet a la empresa Netscape, creadora del Navigator. La
compañía comandada por Gates se defendió argumentando que
separar el Explorer de Windows no era posible, dado que formaba
parte de un mismo producto. El fallo del juez Jackson también
señaló que Microsoft es culpable de presionar a los fabricantes de
computadoras para que incluyeran el Explorer en los sistemas
operativos preinstalados y no el Netscape Navigator.

El 16 de junio de 2006 hace pública su intención de abandonar sus


labores diarias al frente de su empresa. El 27 de junio de 2008 deja
su puesto al frente de Microsoft cediendo el control de la empresa a
Steve Ballmer para dedicarse a la Fundación Bill y Melinda Gates,
dedicada a reequilibrar oportunidades en salud y educación
donando grandes cantidades de dinero a varias organizaciones
caritativas y programas de investigación científica. Fueron
galardonados con el Premio Príncipe de Asturias de Cooperación
Internacional 2006.
44) ¿Quién creo el primer juego para computadora y en qué año?
Spacewar, es considerado el primer juego de computadora en el
1962 por Steve Russell.

45) ¿Qué son los virus informáticos?


Un virus informático es un programa que puede infectar a otros
programas, modificándolos de tal manera que causen daño en el
acto (borrar o dañar archivos) o afectar su rendimiento o seguridad.
Este software constituye una amenaza muy seria; se propaga más
rápido de lo que se tarda en solucionarlo. Por lo tanto es necesario
que los usuarios se mantengan informados acerca de los virus,
huyendo de la ignorancia que les han permitido crecer hasta llegar a
ser un grave problema.

46) ¿Cuántas clases de virus informáticos existen?


De acuerdo con los daños que causan en las computadoras, existen
los siguientes tipos de virus:
 Worm o gusano informático: es un programa maligno que
reside en la memoria de la computadora y se caracteriza por
duplicarse en ella, sin la asistencia de un usuario. Consumen
banda ancha o memoria del sistema en gran medida. Ver más
en: http://es.ccm.net/contents/755-gusanos-informaticos
 Caballo de Troya: este virus se esconde en un programa
legítimo que, al ejecutarlo, comienza a dañar la computadora.
Afecta a la seguridad de la PC, dejándola indefensa y también
capta datos que envía a otros sitios, como por ejemplo
contraseñas.
 Bombas lógicas o de tiempo: se activan tras un hecho puntual,
como por ejemplo con la combinación de ciertas teclas o bien
en una fecha específica. Si este hecho no se da, el virus
permanecerá oculto.
 Hoax: carecen de la posibilidad de reproducirse por sí mismos
y no son verdaderos virus. Son mensajes cuyo contenido no
es cierto y que incentivan a los usuarios a que los reenvíen a
sus contactos. El objetivo de estos falsos virus es que se
sobrecargue el flujo de información mediante el e-mail y las
redes. Aquellos e-mails que hablan sobre la existencia de
nuevos virus o la desaparición de alguna persona suelen
pertenecer a este tipo de mensajes.
 De enlace: estos virus cambian las direcciones con las que se
accede a los archivos de la computadora por aquella en la que
residen. Lo que ocasionan es la imposibilidad de ubicar los
archivos almacenados.
 De sobreescritura: esta clase de virus genera la pérdida del
contenido de los archivos a los que ataca. Esto lo logra sobre
escribiendo su interior.
 Residente: este virus permanece en la memoria y desde allí
esperan a que el usuario ejecute algún archivo o programa
para poder infectarlo.
47) ¿Qué es el termino brecha digital?
La brecha digital es cualquier distribución desigual en el acceso, en
el uso, o en el impacto de las Tecnologías de la Información y la
Comunicación (TIC) entre grupos sociales. Estos grupos pueden
definirse con base en criterios de género, geográficos o
geopolíticos, culturales, o de otro tipo. Debido al alto costo de las
TIC, su adopción y utilización es muy desigual en todo el mundo.

También podría gustarte