Está en la página 1de 37

Universidad Tecnología de Panamá

Licenciatura en Ingeniería Mecánica


Computadora en Ingeniería
Modulo: Introducción a las Computadoras

Integrantes:

Jose Arosemena 9-755-287


Anelis Asprilla 8-985-1533
Keneth Benavidez 20-53-7089
Mayerly Marquez 8-989-2426
Luis Obando 8-936-1718
Wendy Rodrigues 8-984-413
Rafael Santos 4-823-1932
Luis Vargas 8-941-168

Grupo: 1IM 702

Fecha: 18 de Junio de 2020

Profesora: Ericka Vásquez


Introduccion.
Esta investigación aborda los conceptos generales de las computadoras, puntos como su origen, cómo
evolucionan a lo largo de generaciones, diferentes tipos de computadoras, cómo se clasifican, en qué
sectores se pueden aplicar, cual es su función, su arquitectura, la diversidad. de componentes y su
cuidado.

PÁGINA 1
1. La informantica y la computadora.
b) ¿Qué es informática?
R: Desde los orígenes de las más elementales civilizaciones, el ser humano siempre ha
necesitado hacer cálculos y procesar la información. Para cubrir esa necesidad, a lo largo de
los tiempos lo que ha ido inventando es:
 sistemas numéricos que permitiesen organizar y manejar esos datos de una forma
eficiente.
 tecnologías (máquinas) que trataran esos datos: que fuesen capaces de realizar
cálculos con mayor velocidad y facilidad que el hombre.

Se entiende como el resultado de los términos información y automatización. Trata de la


concepción, realización y utilización de los sistemas para procesamiento de información.
“INFORMÁTICA es la ciencia que estudia el tratamiento automático y racional de la
información.” Se dice que el tratamiento es automático por ser máquinas las que realizan los
trabajos de captura, proceso y presentación de la información, y se habla de racional por estar
todo el proceso definido a través de programas que siguen el razonamiento humano.

Por lo tanto, un “sistema informático” se entiende como una solución completa a un


problema concreto de tratamiento automatizado de información. Esta solución, por lo general
contempla una información física (el Hardware o máquinas con las que trabaja) y una parte
de Software (formada por los programas o utilidades de que se hace uso en la máquina). Por
último, los sistemas informáticos tienen a requerir por lo general de una interacción humana,
que se suele identificar con la demanda de ciertos servicios.

c) ¿Qué es una computadora?


R: Definido gramaticalmente es un dispositivo mecánico o electrónico que realiza cómputos,
o sea, que cuenta o calcula
aritméticamente. Su función fundamental es sumar y restar.
La diferencia entre una computadora y una calculadora es que ésta no sólo cuenta, además
realiza cálculos mucho más complejos como manejo de exponentes, raíz cuadrada, etc. La
comúnmente
denominada “computadora” realiza funciones mucho más complejas que contar y calcular,
además de
trabajar con números también efectúa funciones lógicas, trabaja con datos de otro tipo:
palabras, imágenes, sonidos. Por la tanto la Real Academia de la Lengua la ha titulado como
“ordenador”.
Definida técnicamente podemos decir que es Una computadora es un conjunto de circuitos
electrónicos comprimidos en una pastilla de silicio (llamada chip), que tiene como función
fundamental la de encauzar las señales electromagnéticas de un dispositivo a otro. El
componente más importante de la computadora es el microprocesador, que puede entenderse
como el “cerebro”. Todo lo demás que le rodea y le es conectado no son más que dispositivos
mediante los cuales el cerebro se alimenta de energía e interactúa con el medio ambiente y,
por lo tanto, con los usuarios.

PÁGINA 2
2. Reseña Histórica de la Computadora
La computadora, es una máquina digital programable que ejecuta una serie de comandos para procesar los
datos de entrada, obteniendo convenientemente información que posteriormente se envía a las unidades de
salida. Una computadora está formada físicamente por numerosos circuitos integrados y varios componentes
de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo
el control de un programa (software).
 ANTECENDETES
La historia de la computadora se remonta a las primeras reglas de cálculo y a las primeras máquinas
diseñadas para facilitarle al ser humano la tarea de la aritmética. El ábaco, por ejemplo, fue un importante
adelanto en la materia, creado alrededor de 4.000 a. C. También hubo inventos como la máquina de Blaise
Pascal, conocida como Máquina de Pascal o Pascalina, creada en 1642. Consistía en una serie de engranajes
que permitían realizar operaciones aritméticas. Esta máquina fue mejorada por Gottfried Leibinitz en 1671.
En 1822 fueron la inspiración del inglés Charles Babbage en la creación de una máquina de cálculo
diferencial.
 INVENCIÓN Y DESARROLLO
Las computadoras de la Primera Generación emplearon bulbos para procesar información. Los operadores
ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento
interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura
colocaba marcas magnéticas.

Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con


la IBM 701 en 1953. Después de un lento comienzo la IBM 701 se convirtió en un
producto comercialmente viable.

La computadora más exitosa de la primera generación fue la IBM 650. Esta


computadora que usaba un esquema de memoria secundaria llamado tambor
magnético, que es el antecesor de los discos actuales.

La Segunda Generación representó un cambio importante, ya que se sustituyeron las válvulas de vacío por
transistores, permitiendo hacer las máquinas mucho más pequeñas. El invento del transistor hizo posible una
nueva generación de computadoras, más rápidas, más pequeñas, con menores necesidades de ventilación, y
reducción de su consumo eléctrico.

Estas fueron, también, las primeras máquinas en


disponer de un lenguaje de programación, como
el célebre FORTRAN. Así, pronto se hizo obsoleto
el sistema de las tarjetas perforadas.

Las computadoras de la Tercera Generación emergieron con el desarrollo de los


circuitos integrados (pastillas de silicio), en las cuales se colocan miles de
componentes electrónicos, en una integración en miniatura. Las computadoras
nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y
eran energéticamente más eficientes.

PÁGINA 3
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones
matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes
de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el


ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así
como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de
Fairchild Semiconductors, acerca de los circuitos integrados, dieron
origen a esta nueva generación.

Dos mejoras en la tecnología de las computadoras marcan el inicio de la Cuarta Generación: el reemplazo
de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de muchos más
componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. Gracias a ellos,
las computadoras podían descentralizar sus operaciones lógico-aritméticas. Por ejemplo, reemplazar la
memoria de anillos de silicio por memoria de chips, fue un paso importante hacia la micro computarización.

En 1971, intel Corporation, que era una pequeña compañía


fabricante de semiconductores ubicada en Silicon Valley,
presenta el primer microprocesador o Chip de 4 bits, que en un
espacio de aproximadamente 4 x 5 mm contenía 2250
transistores. Este primer microprocesador que se muestra fue
bautizado como el 4004.

La generación más reciente y vigente hoy en día, presenció la más


enorme diversificación en el ámbito de la computadora de toda su historia. La Quinta Generación hizo
portátil, liviana y cómoda, e incluso expandió sus fronteras de uso gracias a la posibilidad de las redes
informáticas. El computador ya ni siquiera necesita estar fijo en una habitación, sino que puede viajar en
nuestros maletines. Nunca antes la velocidad de procesamiento, la versatilidad y la comodidad convergieron
tanto en el mundo de la computadora, permitiéndole fusionarse con los teléfonos (dando nacimiento al
Smartphone) y con otros muchos formatos diferentes
Hay que mencionar dos grandes avances tecnológicos,
que sirvan como parámetro para el inicio de dicha
generación: la creación en 1982 de la primera
supercomputadora con capacidad de proceso paralelo,
diseñada por Seymouy Cray, quien ya experimentaba
desde 1968 con supercomputadoras, y que funda en
1976 la Cray Research Inc.; y el anuncio por parte del
gobierno japonés del proyecto "quinta generación", que
según se estableció en el acuerdo con seis de las más
grandes empresas japonesas de computación, debería
terminar en 1992.

PÁGINA 4
Poco se sabe de la generación de computadores por venir. Los grandes adelantos en materia de inteligencia
artificial, computación cuántica y algoritmos de aprendizaje prometen un futuro altamente automatizado y
de enormes potenciales industriales. En él la computadora puede dejar de ser un artefacto que nos acompaña
y pasar a estar dentro de nuestros propios cuerpos.

3. Generaciones de la computadora
Primera generación, desde 1940 hasta 1956: Computadoras de válvulas de vacío
Segunda generación, desde 1956 hasta 1963: Computadoras de estado sólido con transistores
Tercera Generación, de 1964 hasta 1971: Computadoras de estado sólido con circuitos Integrados
Cuarta generación, desde 1971 hasta el presente: Computadoras de estado sólido con microprocesadores
Quinta generación, transcurriendo: Computación cuántica. Inteligencia artificial
Sexta, séptima y octava generación: Algunos autores incluso llevan la evolución de las computadoras más
allá de nuestros días. Sin embargo, son escenarios puramente teóricos.

Primera generación, desde 1940 hasta 1956: Computadoras de válvulas de vacío

 En 1943, un proyecto británico, bajo el liderazgo


del matemático Alan Turing, puso en operación
una serie de máquinas más ambiciosas,
las Colossus, pues en vez de relés
electromecánicos, cada nueva máquina usaba
2.000 válvulas electrónicas.

Colossus trabajaba con símbolos perforados en una


argolla de cinta de papel, que era insertada en la
máquina que tenía lectura
fotoeléctrica, comparando el mensaje cifrado con
los códigos conocidos hasta encontrar una
coincidencia. Procesaba 25.000 caracteres por
segundo.

 El 14 de febrero de 1946, nació la ENIAC (Eletronic Numerical Interpreter and Calculator), también


conocida por su traducción al castellano como “Computadora e Integrador Numérico Electrónico”,
proyectada para fines militares por el Departamento de Material de Guerra del Ejército de los EUA,
en la Universidad de Pensilvania.

Era la primera computadora digital electrónica en gran escala y fue proyectada por John W. Mauchly
y J. Presper Eckert. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo
5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble
del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo 17.468 válvulas
electrónicas.

 La sucesora de la ENIAC fue la EDVAC (Electronic Discrete Variable Computer) o “Computadora


Electrónica de Variables Discretas”, traducido al español. La EDVAC fue planeada para acelerar el
trabajo almacenando programas y datos en su expansión de memoria interna.

PÁGINA 5
Podía codificar la información en forma binaria en vez de la forma decimal, reduciendo bastante el
número de válvulas.

 En 1947, John Bardeen, William Shockley y Walter Brattain inventan el transistor, que en pocos
años cambiaría por completo el panorama de las computadoras.
En 1949, surge la EDSAC (Eletronic Delay Storage Automatic Calculator) o “Calculadora
Automática con Almacenamiento por Retardo Electrónico” en español, la cual marcó el último gran
paso en la serie de avances decisivos inspirados por la guerra. En 1951, surge la primera
computadora comercial, la LEO.

 La primera computadora comercial de gran escala fue UNIVAC, (Universal Automatic


Computer), que en español significa “Computadora Automática Universal”, diseñado en EEUU en el
año 1951, el cual era programado tocando cerca de 6.000 llaves y conectando cables a un panel.

Segunda generación, desde 1956 hasta 1963: Computadoras de estado sólido con transistores

 En 1947 Bardeen, Schockley y Brattain inventan el


transístor, y, en 1953 Jay Forrester construye una
memoria magnética. Las computadoras con
transistores surgen en los años 50, pesando 150 kg,
con consumo inferior a los 1.500 W y mayor
capacidad de proceso, velocidad y muchas otras
ventajas con respecto a sus antecesores valvulares.

Ejemplos de las primeras computadoras a transistores


son el IBM 1401 y el Burroughs B 200. En 1954
IBM comercializa el 650, de tamaño medio. La
primera computadora totalmente transistorizada fue
el TRADIC, del Bell Laboratories.

 En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el


cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and
Computer. En enero de 1959 Texas Instruments anuncia al mundo una creación de Jack Kilby: el
circuito integrado.

Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de
diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un
ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera
generación en menos tiempo aún.

PÁGINA 6
Tercera Generación, de 1964 hasta 1971: Computadoras de estado sólido con circuitos Integrados

 El Burroughs B-2500 fue uno de los primeros. Mientras el


ENIAC podía almacenar veinte números de diez dígitos, estos
podían almacenar millones de números. Surgen conceptos como
memoria virtual, multiprogramación y sistemas operacionales
complejos. Ejemplos de esta época son el IBM 360 y
el Burroughs B-3500.

En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de


esta época el término software. En 1964, la CSC, Computer
Sciences Corporation, creada en 1959 con un capital de 100
dólares, se transformó en la primera compañía de software con
acciones negociadas en bolsa. El primer minicomputador
comercial surgió en 1965, el PDP-5, lanzado por la americana
DEC, Digital Equipament Corporation.

 En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el


microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el
difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la
cuarta generación surge con los chips VLSI, de integración a muy larga escala.

Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el
vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR
8800 en 1974/5.

 En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una
adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation,
para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador
Apple, a RadioShack el TRS-80 y la Commodore el PET. La plantilla Visicalc de 1978/9, primer
programa comercial, de Software Arts.

 En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul
Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE
II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más
vendidos en 1982.

El Sinclair ZX81/ZX Spectrum fue un ordenador minúsculo concebido por John Sinclair, profesor en
la Universidad de Cambridge en U.K. Inicialmente concebido para la utilización de los estudiantes
de la bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA.

PÁGINA 7
Cuarta generación, desde 1971 hasta el presente: Computadoras de estado sólido con microprocesadores

 Fabricado por IBM en USA alrededor de año 1980,


inició con la versión PC-XT, a la cual le siguió una
versión PC-AT. IBM PC-XT En la década de 80, fue
creado el IC LSI (Integratede Circuit Large Scale
Integration), que en español significa, “Circuito
Integrado en Ancha Escala de Integración”, donde
fueron desarrolladas técnicas para aumentarse cada
vez más el número de componentes en el mismo
circuito integrado. Algunos tipos de IC LSI
incorporaban hasta 300.000 componentes en un único
chip.

 Surge el 286. Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria
cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros
modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.

 El 386, Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible


correr softwares gráficos más avanzados como era el caso del Windows 3.1, su antecesor podía
correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con
placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.

 El 486 DX. A partir de este momento el coprocessador matemático junto con el propio
procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria
de 72 pines, mucho más rápida que su antepasada de 30 pines y de las placas PCI de 32 bits dos
veces más veloces que las placas ISA.

Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones
de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows
95.

Quinta generación, transcurriendo: Computación cuántica. Inteligencia artificial

 Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de
datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y
sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas
necesidades.

Una de las principales características de esta generación es la simplificación y miniaturización del


ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los
precios cada vez más accesibles. La tecnología VLSI fue sustituida por la ULSI (Ultra Large Scale
Integration).

Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición
de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su
performance. Este avance en la velocidad y capacidad de procesamiento están ligados firmemente a
PÁGINA 8
la aparición en el mercado de los procesadores de Intel Pentium, el primero de ellos, el Pentium I en
el año 1997, el Pentium II en 1999 y finalmente el Pentium IV, en el año 2001.

 2019 es el año en que IBM presenta al


mundo la primera computadora cuántica
comercial, llamada IBM Q System One.
Este es considerado como uno de los
saltos más importantes en la historia de la
computación.

Si queremos conocer que es lo que va a


pasar de aquí en adelante con las
computadoras, debajo de estas líneas
encontraremos todos los desarrollos que
se están gestando en este momento. Muchos de los cuáles seguramente en un tiempo no muy lejano
pasarán a ser parte de nuestro día a día.

Sexta, séptima y octava generación: Algunos autores incluso llevan la evolución de las computadoras más
allá de nuestros días. Sin embargo, son escenarios puramente teóricos.

Sexta generación

 Una de las características que definirán a la sexta generación serán las computadoras inteligentes
basadas en redes neuronales artificiales. También llamadas “cerebros artificiales”, estas
supercomputadoras utilizarán materiales semiconductores, que como primera ventaja, permiten
aprovechar toda su energía sin disiparla en calor.

Lamentablemente, todavía falta para que eso se haga realidad, sin embargo se encuentra en pleno
desarrollo, por lo cual seguramente tendremos noticias en pocos años más. De cualquier manera, los
científicos hacen milagros con los procesadores, logrando que sean cada vez más pequeños, potentes
y que requieran menos energía para funcionar.

Séptima generación

 Gracias a todos los fantásticos desarrollos en hardware y software en general conseguidos en todas


las generaciones anteriores, se nos abrió una puert hacia una época de descubrimientos
importantísima.

Por esa ventana dimos el salto hacia el conocimiento, todo para conseguir nuevos avances que nos
permitieran seguir hacia más adelante todavía, pero con más conocimientos y herramientas para
entender mejor lo que tenemos bajo el microscopio.

Según muchos expertos, científicos e investigadores, la séptima generación de computadoras se


definirá por el uso masivo de redes de área mundial, o Wide Area Network. Otro punto por el cual se
conocerá a esta generación de computadoras es por el ya mencionado procesamiento paralelo,
técnica también conocida como computación distribuida.

PÁGINA 9
Esta computación distribuida utilizará arquitecturas combinadas del tipo Paralelo/Vectorial. Esto
básicamente significa que trabajarán simultáneamente cantidades realmente impresionantes de
procesadores, computadoras y otros tipos de hardware diverso.

Todo con el objetivo de llevar a cabo la mayor cantidad de tareas posibles en el menor tiempo
posible.

Octava generación

 A pesar que la tecnología cada día que pasa nos asombra más con sus descubrimientos y avances, lo
cierto es que cada cierto tiempo se llega a un cuello de botella. Este cuello impide que se pueda
seguir avanzando hasta tener todas las respuestas.

Sin embargo, los científicos no dejan de alucinar, y de teorizar. Es por ello que los que veremos a
continuación es posible que sólo lo veamos en una peli de ciencia ficción. Sin embargo, quien diría
en los años 1950 que investigaríamos la superficie de Marte con unos robots a control remoto. Sólo
en una película.

Muchos investigadores y científicos sostienen y coinciden en que la octava generación de


computadoras se caracterizará por la ausencia de medios físicos con los cuales controlar esa
tecnología. Es decir que ya no tendremos ratones, pantallas o interfaces físicas para darle órdenes a
los dispositivos.  Todo esto será reemplazado por implantes de nanotecnología y servicios alojados
en la nube.
Estas teorías se basan en los estudios y avances que se están llevando a cabo en la actualidad con
la tecnología nanométrica.  Esta tecnología, también llamada nanotecnología molecular, se encarga
de estudiar las posibilidades que tenemos de manipular los átomos y moléculas de los materiales a
escala micrométrica.

Esto nos serviría para poder desarrollar y fabricar dispositivos ultra miniatura, que pueden ser usados
en medicina y otros campos de desarrollo.

4. Tipos de computadoras
Computadoras analógicas
Trabajan en base a analogías. Requieren de un proceso físico, un
apuntador y una escala. Estas no computan de manera directa, sino
que perciben constantemente valores, señales o magnitudes
físicas.
Principales características
La programación en estas computadoras no es necesaria; las
relaciones de cálculo son construidas y forman parte de éstas.
Son máquinas de propósitos específicos.
Dan respuestas aproximadas, ya que están diseñadas para
representar electrónicamente algunos conjuntos de daros del mundo real, por lo que sus resultados son
cercanos a la realidad.

PÁGINA 10
Estos se utilizan generalmente para supervisar las condiciones del mundo real, tales como Viento,
Temperatura, Sonido, Movimiento, etc

Computadoras digitales
Son computadoras que operan contando números y
haciendo comparaciones lógicas entre factores que
tienen valores numéricos.
Principales características
Su funcionamiento está basado en el conteo de los
valores que le son introducidos.
Este tipo de computadora debe ser programada antes de
ser utilizada para algún fin específico.
Son máquinas de propósito general; dado un programa,
ellas pueden resolver virtualmente todo tipo de
problemas.
Son precisas, proveen exactamente la respuesta correcta a algún problema específico.
Estas computadoras tienen una gran memoria interna, donde pueden ser introducidos millones de caracteres.
Estas computadoras son las más utilizadas.

5. Clasificación de las computadoras. Según si capacidad o tamaño.


Supercomputadoras.
Macrocomputadoras.
Minicomputadoras.
Microcomputadoras.

Super computadora.
Supercomputadora, supercomputador o superordenador es un dispositivo informático con capacidades de
cálculo superiores a las computadoras comunes y de escritorio, ya que son usadas con fines específicos. Hoy
día los términos de supercomputadora y
superordenador están siendo reemplazados
por computadora de alto rendimiento y ambiente
de cómputo de alto rendimiento, ya que las
supercomputadoras son un conjunto de poderosos
ordenadores unidos entre sí para aumentar su
potencia de trabajo y rendimiento. Al año 2019, los
superordenadores más rápidos funcionaban en
aproximadamente más de 148 petaflops (un
petaflop, en la jerga de la computación, significa
que realizan más de 1000 billones de operaciones
por segundo).1 La lista de supercomputadoras se
encuentra en el ranking TOP500.

PÁGINA 11
Características
Las principales son:
Velocidad de procesamiento: miles de millones de instrucciones de coma flotante por segundo.
Usuarios a la vez: hasta miles, en entorno de redes amplias.
Tamaño: requieren instalaciones especiales y aire acondicionado industrial.
Dificultad de uso: solo para especialistas.
Clientes usuales: grandes centros de investigación.
Penetración social: prácticamente nula.
Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de
procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número π, desarrollar
cálculos de problemas físicos dejando un margen de error muy bajo, etc.
Parques instalados: menos de un millar en todo el mundo.
Hardware: Principal funcionamiento operativo

Principales usos
Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el
mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente
grandes. A continuación, damos algunos ejemplos:
Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y
predicen el clima futuro.
Los científicos que investigan el espacio exterior y sus propiedades utilizan las supercomputadoras para
simular los interiores estelares, simular la evolución estelar de las estrellas (eventos de supernova, colapso
de nubes moleculares, etc.), realizar simulaciones cosmológicas y modelar el clima espacial.
Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una
determinada costa o ciudad.
Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.
Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese
plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis quística y muchos
tipos de cáncer.
Las supercomputadoras se utilizan para modelar explosiones nucleares, limitando la necesidad de verdaderas
pruebas nucleares.

Macrocomputadoras.
Las macrocomputadoras son un tipo de computadora que generalmente es conocida por su gran tamaño,
cantidad de almacenamiento, potencia de procesamiento y alto nivel de confiabilidad. Son computadoras de
ultra alto rendimiento hechas para realizar cómputos de alto volumen y con un uso intensivo del procesador.
Suelen ser utilizadas por grandes empresas y con fines científicos.
Son utilizadas principalmente para aplicaciones de misión crítica que requieren grandes volúmenes de
procesamiento de datos, como censos, estadísticas de la industria y del consumidor, así como planificación
de recursos empresariales.

PÁGINA 12
El término se refería originalmente a los grandes gabinetes llamados “marcos principales o mainframes”,
que albergaban la unidad central de procesamiento y la memoria principal de las primeras computadoras.
Más tarde, este término se usó para distinguir las máquinas comerciales de alta gama de las unidades menos
potentes. La mayoría de las arquitecturas de sistemas informáticos a gran escala se establecieron en la
década de 1960, pero continúan evolucionando.
Coloquialmente se las denomina como “grandes hierros”. Son más grandes y tienen más potencia de
procesamiento que otras clases de computadoras: minicomputadoras, servidores, estaciones de trabajo y
computadoras personales.

CARACTERÍSTICAS

Tamaño
El tamaño de una macrocomputadora depende principalmente de su antigüedad. La mayoría de las
macrocomputadoras producidas antes de 1990 eran gigantescas, pudiendo consistir en 3.000 metros
cuadrados, abarcando un piso en las oficinas de una empresa.
Con la miniaturización de los elementos informáticos, la macrocomputadora moderna es considerablemente
más pequeña, aproximadamente del tamaño de un refrigerador grande.

Procesamiento a gran escala


Las macrocomputadoras se diseñaron para manejar el procesamiento, el almacenamiento de datos y otras
tareas a gran escala, que requerirían demasiados recursos para que una computadora promedio o una red a
pequeña escala lo puedan manejar.
Los procesos manejados tienden a variar según los usuarios, pero generalmente las macrocomputadoras
manejan grandes cantidades de datos, que sobrecargarían a los sistemas más pequeños.
Lo hacen de manera rápida y confiable para facilitar las necesidades de los usuarios a escala empresarial.
Tienen la capacidad de ejecutar múltiples sistemas operativos, aplicaciones y datos simultáneamente.
Utilizando máquinas virtuales, efectúan diversos sistemas operativos como si se estuvieran ejecutando en
diferentes computadoras.
Están diseñadas para manejar un volumen simultáneo muy alto de operaciones de entrada/salida, con una
computación de alto rendimiento, además de una gran capacidad de almacenamiento.

Pocos fabricantes
Debido al costo prohibitivo de desarrollo e implementación, solo unos pocos fabricantes producen y
desarrollan macrocomputadoras. Los principales productores de macrocomputadoras son IBM, Hewlett-
Packard, Unisys, Fujitsu, Hitachi y NEC.
PÁGINA 13
Las macrocomputadoras son una inversión extremadamente costosa: en 2012, IBM lanzó un sistema
mainframe de “bajo precio” a partir de $75.000.

Terminales
Las macrocomputadoras se acceden y se controlan principalmente a través de terminales, que son estaciones
de trabajo parecidas a una computadora estándar, pero que no tienen CPU propia.
En cambio, están conectados en red a la macrocomputadora y actúan como un punto de acceso para los
usuarios.

Sistemas operativos
El sistema operativo instalado en una macrocomputadora varía según el fabricante. La mayoría de los
mainframes usan variantes de Unix, Linux o también versiones del sistema operativo zOS de IBM.
Estos sistemas operativos se configuran para la macrocomputadora específica en la que se ejecutan,
ofreciendo a los usuarios las capacidades de interfaz necesarias.

Computación centralizada versus distribuida


Las macrocomputadoras tradicionales usan un esquema de computación centralizada. Es un sistema aislado
donde solo los terminales conectados directamente a ellas son capaces de acceder a la información.
A medida que la operación de Internet ha ganado prevalencia, las macrocomputadoras centralizadas se han
vuelto cada vez más abiertas hacia un esquema informático distribuido.
Se puede acceder a las macrocomputadoras distribuidas desde computadoras fuera del mainframe, lo que
permite a los usuarios acceder al material desde sus hogares o a través de Internet.

USOS

E-Business y comercio electrónico


Instituciones bancarias, casas de bolsa, agencias de
seguros y compañías Fortune 500 son algunos ejemplos de
los sectores público y privado que transfieren datos a
través de macrocomputadoras.
Ya sea que se procesen millones de pedidos de clientes, se
realicen transacciones financieras, o se realice un
seguimiento de la producción y el inventario, una
macrocomputadora es la única que tiene la velocidad, el
almacenamiento y la capacidad para ejecutar actividades
exitosas de comercio electrónico.
Casi todos han usado una macrocomputadora en algún
momento. Por ejemplo, cuando se utiliza un cajero automático para interactuar con una cuenta bancaria.
Aunque otras formas computacionales se utilizan ampliamente en diversas empresas, la macrocomputadora
ocupa un lugar codiciado en el actual entorno de negocios electrónicos.

Cuidado de la salud
Cada vez que se va al médico, se programa una cirugía, se renueva un récipe o se pregunta acerca de los
beneficios del seguro de salud, lo más probable es que se accede a esta información desde una
macrocomputadora.
Con ellas, los médicos pueden acceder a los resultados de las pruebas de mamografías, resonancias
magnéticas y electrocardiogramas de forma rápida y sencilla. Esto acelera el diagnóstico y el tratamiento de
los pacientes.

PÁGINA 14
Uso militar
Todas las ramas de las fuerzas armadas usan macrocomputadoras para la comunicación entre barcos,
aviones y tierra, para la predicción de patrones climáticos, y también para rastrear posiciones estratégicas
utilizando sistemas de posicionamiento global.
Los satélites continúan operando macrocomputadoras en sus esfuerzos de inteligencia y espionaje.

Uso académico e investigación


Las bibliotecas públicas y privadas, así como los colegios y universidades, utilizan macrocomputadoras para
el almacenamiento de datos críticos.
La Biblioteca del Congreso brinda una gran cantidad de recursos a través de sus bases de datos de
mainframe. Ofrece acceso a grabaciones de sonido, imágenes en movimiento, impresiones, mapas, además
de documentos.
Las instituciones académicas superiores almacenan datos de los estudiantes, incluyendo calificaciones,
transcripciones e información sobre títulos.

Transacciones web
Muchos de los sitios web más activos almacenan sus bases de datos de producción en una
macrocomputadora.
Los nuevos productos de mainframe son ideales para transacciones web, porque están diseñados para
permitir que un gran número de usuarios y aplicaciones accedan rápida y simultáneamente a los mismos
datos.
Esta seguridad, escalabilidad y confiabilidad es crítica para la operación eficiente y segura del
procesamiento de información contemporáneo.

Minicomputadoras.
Las minicomputadoras son una clase de computadora que poseen la mayoría de las capacidades y
características de una macrocomputadora, pero son más pequeñas en tamaño físico. Una minicomputadora
también se puede llamar como computadora de rango medio.
Principalmente se utilizan como servidores de rango medio o pequeño, donde pueden operar aplicaciones
científicas y comerciales de tamaño promedio. Sin embargo, ha disminuido el uso del término
minicomputadora y se ha fusionado con el de servidor.

PÁGINA 15
Cuando aparecieron los microprocesadores de CPU de un solo chip, comenzando con el Intel 4004 en 1971,
el término minicomputadora se convirtió en una máquina que se encuentra en el rango medio del espectro
informático, entre las macrocomputadoras más pequeñas y las microcomputadoras.
Una minicomputadora llena el espacio existente entre la macrocomputadora y la microcomputadora. Es más
pequeña, menos costosa y menos potente que la primera, pero más grande, más costosa y más potente que la
segunda. Puede operar con numerosos usuarios simultáneamente.

Características
Las minicomputadoras fueron diseñadas para una fácil conexión a instrumentos científicos y otros
dispositivos de entrada/salida, con una arquitectura simple, se construyeron utilizando transistores rápidos y
se programaban en lenguaje ensamblador, con poco soporte para lenguajes de alto nivel.

Accesibilidad
Aunque el crecimiento inicial de las minicomputadoras se debió a su uso como controladores de
instrumentos científicos y registradores de datos, su característica más atractiva resultó ser su accesibilidad.
Los científicos e investigadores ahora podían comprar su propia computadora y ejecutarla ellos mismos en
sus propios laboratorios.
Además, tenían acceso total a las partes internas de la máquina. La arquitectura simplificada hacía posible
que un estudiante inteligente reconfigurara la minicomputadora para que hiciera algo que el fabricante no
había contemplado.
Los investigadores comenzaron a usar las minicomputadoras para todo tipo de nuevos propósitos. Los
fabricantes adaptaron las versiones posteriores de estas máquinas a las demandas cambiantes del mercado.

Multiprocesamiento
Las minicomputadoras pueden contener uno o más procesadores, admitir multiprocesamiento y multitareas,
y generalmente son resistentes a altas cargas de trabajo.
Cada persona que usa una minicomputadora tiene su propio terminal conectado por un cable o por módem a
la computadora. Un terminal no es una computadora, es básicamente un teclado y un monitor.
La minicomputadora pasa cierto tiempo en la tarea de una persona, luego pasa a la siguiente tarea, y así
sucesivamente, haciendo malabarismos con el trabajo, en función de las tareas que considere que son las
más importantes para realizar.
Si solo un usuario utiliza la minicomputadora, esta puede ser una máquina rápida. Sin embargo, cuando
muchos usuarios están en el sistema, se comienza a ralentizar: se puede escribir algo y luego esperar un
minuto antes de ver una respuesta en la pantalla.

Tamaño
Las minicomputadoras fueron diseñadas para ser menos complejas que
las macrocomputadoras, pero aun así proporcionan múltiples terminales
para múltiples usuarios.
Aunque son más pequeñas que las macrocomputadoras, las
minicomputadoras son más potentes que las computadoras personales.
Por lo general, ocupan pocos gabinetes de rack de 19 pulgadas, en
comparación con las grandes macrocomputadoras que podían llenar una
habitación.
Sin embargo, en comparación con las macrocomputadoras, muchos de
estos sistemas eran más lentos, tenían menos memoria y no podían
integrarse en redes más grandes.

PÁGINA 16
USOS
Las minicomputadoras se utilizan para computaciones científicas y de ingeniería, procesamiento de
transacciones comerciales, manejo de archivos y administración de bases de datos. A menudo se las conoce
ahora como servidores pequeños o medianos.

Tareas funcionales
Las minicomputadoras se utilizaban en los distintos sectores de las empresas para así poder descargar las
múltiples tareas realizadas por las macrocomputadoras.
También fueron pioneras y crearon la informática departamental dentro de las organizaciones más grandes.
Grupos más pequeños podían comprar, instalar y mantener sus propias computadoras para usos particulares.
De esta manera, la computación comenzó a migrar de ser una operación en una sola computadora central
grande al uso basado en las necesidades funcionales, definidas por los departamentos individuales dentro de
un gobierno, corporación o universidad.
Se puede crear una red de minicomputadoras para permitir que una gran biblioteca con sus diferentes ramas
construya su propia red interna. Esta red es más poderosa que la que maneja una macrocomputadora. Esto
proporciona flexibilidad e innovación en todos los niveles.

Programación
Quizás la contribución más importante de las minicomputadoras fue la diversificación de la programación
misma.
Hicieron posible que más personas se involucraran en la programación, aumentando así la tasa de
innovación en el arte del software, incluyendo la mejora de las interfaces de usuario necesarias para la
informática personal.

Control de procesos
Las minicomputadoras son utilizadas principalmente por las empresas para el control del proceso de
fabricación, diseño de ingeniería, experimentos científicos, sistemas de comunicación y muchos más. El
control de procesos tiene dos funciones principales: la adquisición de datos y la retroalimentación.
Por ejemplo, las fábricas utilizan minicomputadoras para controlar el proceso de fabricación. Si aparece
algún problema en alguna parte del proceso, reconoce el cambio y realiza los ajustes necesarios.

Gestión de datos
Las minicomputadoras que se utilizan para la gestión de datos pueden realizar cualquier tarea relacionada
con los datos, ya que pueden tomar, restaurar o generar datos.

Comunicación
Las minicomputadoras actúan como una interfaz entre el operador humano y un procesador más grande.
Con la ayuda de una minicomputadora el usuario puede ejecutar operaciones como la comprobación de
errores y luego puede usar el dispositivo para realizar también ajustes.

Microcomputadora.
Las microcomputadoras, también denominadas microcomputadores o microordenadores, son computadoras
que poseen un microprocesador como unidad central de proceso, y que están configuradas para cumplir con
funciones específicas. Del microprocesador dependen aspectos como: la complejidad del sistema, la
potencia, el sistema operativo, la normalización, la versatilidad y el precio del equipo, entre otros.

PÁGINA 17
Básicamente, las microcomputadoras constituyen un sistema completo para uso personal, que contiene
además del microprocesador, una memoria y una serie de componentes de entrada y salida de información.

Finalmente, es importante aclarar que aunque las microcomputadoras suelen confundirse con las
computadoras personales, no son lo mismo. Podría más bien decirse que las segundas forman parte de la
clasificación general de las primeras.

CARACTERÍSTICAS
Las microcomputadoras son un tipo de computadoras que poseen las siguientes características:

 Su componente central es el microprocesador, lo cual no es más sino un circuito integrado.


 Su arquitectura es clásica, construida sobre un flujo de control de operaciones y un lenguaje de
procedimientos.
 Presenta tecnología incorporada, que permite la intercomunicación de sus componentes.
 Debido a su diseño compacto, es de fácil empaquetado y traslado.

¿CÓMO FUNCIONAN LAS MICROCOMPUTADORAS?


Las microcomputadoras son capaces de ejecutar operaciones de entrada, salida, cálculo y lógica, a través del
siguiente procedimiento básico:
 Recibimiento de los datos que van a ser procesados.
 Ejecución de comandos programados para el procesamiento de la información.
 Almacenamiento de la información, antes y después de su transformación.
 Presentación de los resultados del procesamiento de los datos.
Dicho de otra manera, las microcomputadoras emplean un formato de instrucciones que le permiten,
mediante la decodificación de las mismas, realizar las microoperaciones necesarias para dar respuesta a las
solicitudes de los usuarios.
Así pues, el formato de instrucciones incluye un código de operación, a través del cual indica el
direccionamiento de cada operando, es decir, define a un bit de una instrucción, de los diferentes elementos
que la conforman.
Por su parte, las microoperaciones son las operaciones funcionales del microprocesador, responsables del
reordenamiento de las instrucciones y de la ejecución secuencial de un programa.
Mientras que a través de la temporización, la microcomputadora logra coordinar los eventos de la red de
líneas de comunicación que conectan los elementos del sistema.
Por último, es importante aclarar lo que significa la decodificación. Decodificar es el proceso mediante el
cual se interpretan las instrucciones, a fines de identificar cuál es la operación que hay que realizar y la
manera de obtener los operandos sobre los cuales se deben ejecutar dichas órdenes.

PÁGINA 18
6. Aplicaciones de las computadoras en:
 Aplicaciones Comerciales: Las computadoras han dado gran ventaja en el ámbito comercial ya que
han proporcionado una gran ventaja en cuanto al mercado nacional e internacional de las empresas,
lo cual ha dado gran cabida al nuevo “e-comers” el cual es el mercado electrónico. Cabe agregar que
de igual forma proporcionan una gran organización en cuanto a registros de archivos, documento,
pedidos, agendas, etc. ya que hacen eficiente la contante actualización de estos y al mismo tiempo se
puede obtener la información de primera mano.
La autosuficiencia y la rentabilidad de igual forma han sido de gran ayuda con la presencia de las
computadoras, dado a que ya no es necesario hacer algunos procedimientos que se realizaban de
forma externa en las empresa, como lo eran la declaración de impuestos, la creación de contenido de
marketing, los pagos de impuestos, las capacitaciones de personal, entre otros; dado que las
computadoras han proporcionado cierta libertad a las empresas de realizar estos procesos y
procedimientos de forma autónoma y manteniendo la información relevante dentro de la misma.

La eficiencia y el desarrollo de las ventas también son impulsadas como resultado de todo lo antes
mencionado; esto da paso a que una empresa pueda crecer progresivamente teniendo en cuenta
estudios analíticos del mercado y así obtener las mejores estrategias económicas posibles, lo cual se
ve reflejado en sus ganancias y en la rapidez con la cual pueden realizar cambios o modificaciones
en sus estrategias de
venta.

 Aplicaciones
Científicas y tecnológicas: En el ámbito
científico e investigativo, las computadoras han
jugado un papel importante en la eficacia para la
recopilación y conservación de datos y archivos
que son de gran importancia para el
conocimiento humano, ya que el acto de
investigar, estudiar, analizar y sustentar alguna
teoría se realiza de forma eficaz y eficiente con
la ayuda de la tecnología y las computadoras,
haciendo menos tedioso el proceso para
desarrollar nuevas teorías o publicar nuevos artículos con relación a enfermedades o estudios
realizados.

En cuanto a cuando tecnología se trata, las computadoras son el epicentro de este gran fenómeno que
se ha producido en la actualidad, dado que avances tecnológicos han sido de gran importancia en
todos los aspectos del desarrollo del día a día de las actividades humanas, ya que estos pueden ir
desde la producción de alimentos y el cuidado de huertos, hasta actividades técnicas como el dibujo
asistido por computadora en el ámbito ingenieril o apoyo para el estudio en el ámbito científico;
puesto que conforme la necesidad de una población especifica o general esta puede se puede acoplar
y actualizada para adaptarse a dichas necesidades.

PÁGINA 19
 Aplicaciones Industriales: en el ámbito
industrial las computadoras son conocidas por
el gran apoyo que han proporcionado en esta
área en cuanto a procesos como la
automatización y control digital directo de las
maquinas, lo cual proporciona mayor
maleabilidad y dominio sobre objetos o
herramientas de trabajos que anteriormente
requerían ser manipulados de forma directa y
técnica.

El computador igualmente permite la


implantación de avanzados algoritmos de control mucho más complejos como pueden ser el control
óptimo o el control adaptativo; cuyo objetivo en un principio fue sustituir y mejorar los reguladores
analógicos, pero este objetivo se fue ampliando dada las capacidades de los computadores en realizar
un control integral de las plantas de fabricación, abarcando de igual forma la gestión de la
producción.
Las ventajas del uso del computador en el control de procesos son múltiples, entre las cuales se
destaca una mayor eficacia en las operaciones, mayor seguridad y una reducción drástica de las
operaciones manuales.

 Aplicaciones en Educación: Las


computadoras han proporcionado un gran
apoyo a la población estudiantil tanto
primaria como superior a nivel mundial,
ya que junto con el desarrollo de la
tecnología y el acceso a recursos como lo
es el internet se han podido realizar el
desarrollo de plataformas para el apoyo de
la educación a distancia, así como también
se proporciona el acceso a información
para la realización de investigaciones o
deberes.

De igual forma se han desarrollado nuevos métodos que poco a poco van remplazando algunas
ambigüedades como lo son los libros escolares y diccionarios de forma física, las clases presenciales, el
desarrollo de problemas matemáticos de forma manual, los escritos a mano, entre otros; ya que
actualmente existen paginas o aplicaciones que pueden realizar esto de forma automática o al menos
proporcionar asistencia de forma remota tanto para estudiantes como educadores, ya que para
educadores existen también aplicaciones que les permiten mantener sus actividades de forma
ordenada, los ayuda en las planificaciones de material, les proporciona mayor libertad en métodos de
enseñanza y trabajo, entre otros.

PÁGINA 20
7. ¿Como funciona una computadora?
El sistema operativo es el programa más importante, porque controla el funcionamiento del computador y el
de los demás programas.

 
 
 
 
 
 
 
 

 
 
Los computadores actuales no tienen en su interior mecanismos o ruedas con dientes, sino un laberinto de
microscópicos transistores que reaccionan ante los impulsos eléctricos que pasan por sus circuitos y que
tienen solo dos posiciones, que corresponden a las cifras empleadas por el sistema binario, ceros y unos.
Si bien las instrucciones en las primeras máquinas debían ser ingresadas en ceros y unos, los computadores
actuales son capaces de transformar las palabras, números e instrucciones que ingresamos a bits (dígitos
binarios). Así, cada computador debe traducir uno o más lenguajes en código binario para poder funcionar.
Los programas o softwares son el conjunto de instrucciones que le dicen al computador qué debe hacer. Sin
ellos, el computador es una máquina inútil. Hay diferentes clases de programas. Las dos principales
categorías son los sistemas operativos y el software aplicativo o aplicaciones.
El sistema operativo es el programa más importante, porque controla el funcionamiento del computador y el
de los demás programas.
Las aplicaciones son todos los programas que permiten al usuario realizar tareas: procesadores de palabras
para escribir, juegos para divertirse, hojas de cálculo para trabajo financiero, browsers para navegar por la
red.
El sistema operativo establece las reglas y parámetros para que el software aplicativo interactúe con el
computador, ya que en lugar de hablar directamente con el hardware (elementos físicos que componen el
computador), las aplicaciones hablan con el sistema operativo y este actúa como su intérprete. Si no existiera
el sistema operativo, cada empresa desarrolladora de softwares tendría que crear su propio método para que
las aplicaciones graben archivos en el disco duro, desplegar textos y gráficos en la pantalla, enviar texto a la
impresora e infinidad de funciones más.
PÁGINA 21
Los sistemas operativos se diseñan para que funcionen sobre una familia particular de computadores. Por
ejemplo, los sistemas operativos MS DOS y Windows trabajan en PC basados en procesadores de Intel o
Athlon. El sistema operativo Macintosh corre solo en PC Macintosh, los cuales usan procesadores Power PC
(anteriormente usaban Motorola 680×0). Estos sistemas no son compatibles entre sí.
Las aplicaciones deben corresponder al sistema operativo instalado para poder funcionar.
Los sistemas operativos y las aplicaciones son los principales programas, pero no son los únicos. Existe otra
categoría importante, el lenguaje de programación, que es el software que se usa para escribir los programas
en el lenguaje de la máquina, el único que el procesador del computador entiende, el código binario.
Los PC tienen cuatro elementos básicos: el teclado, para introducir la información; la memoria, que
almacena la información y el programa; la unidad de proceso (CPU), que lleva a cabo las instrucciones
contenidas en el programa; y una pantalla para ver los resultados del trabajo realizado.
Los programas se instalan mediante compac disc o cd. Los datos pueden introducirse de la misma manera o
bien a través del teclado o alguna otra vía, como son los archivos que llegan a través del correo electrónico o
la información que se pueda obtener desde Internet.
Los resultados de estos procesos de ejecución y análisis de los datos se pueden observar en la pantalla -en
forma de palabras, números e imágenes-, impresos en papel o como sonidos emitidos por un altavoz, y
pueden almacenarse en el disco duro o cd’s.

Que es el hardware?
El hardware (pronunciado [xard.wer]), equipo o soporte físico en informática se refiere a las partes físicas,
tangibles, de un sistema informático, sus componentes eléctricos, electrónicos, electromecánicos y
mecánicos. Los cables, así como los muebles o cajas, los periféricos de todo tipo, y cualquier otro elemento
físico involucrado, componen el hardware o soporte físico; contrariamente, el soporte lógico e intangible es
el llamado software.
El término es propio del idioma inglés, y su traducción al español no tiene un significado acorde, por tal
motivo se lo ha adoptado tal cual es y suena. La Real Academia Española lo define como «Conjunto de los
componentes que integran la parte material de una computadora». El término, aunque sea lo más común, no
solamente se aplica a las computadoras, también es a menudo utilizado en otras áreas de la vida diaria y la
tecnología. Por ejemplo, hardware también se refiere a herramientas y máquinas, y en
electrónica hardware se refiere a todos los componentes electrónicos, eléctricos, electromecánicos,
mecánicos, cableados y tarjetas de circuitos impresos.
Otros ejemplos donde se aplica el término hardware son, en relación a los robots, así como en relación a
los teléfonos móviles, las cámaras fotográficas, los reproductores digitales, o cualquier otro dispositivo
electrónico. Cuando dichos dispositivos también procesan datos, poseen firmware y/o software además
de hardware.
La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada
por un cambio tecnológico de importancia. Una primera delimitación podría hacerse
entre hardware principal (véase figura), como el estrictamente necesario para el funcionamiento normal del
equipo, y el «complementario», como el que realiza funciones específicas.
El hardware principal de un computador se compone de una unidad central de procesamiento (CPU),
encargada de procesar los datos; una memoria rápida de trabajo para almacenamiento temporal; una unidad
de almacenamiento fija para mantener software y datos así como extraerlos de ella; uno o
varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de
salida, que posibilitan dar salida (normalmente en forma visual, impresa o auditiva) a los datos procesados.

PÁGINA 22
Evolución del hardware
Desde la aparición de las primeras máquinas computacionales en la década de los 40 hasta la actualidad, la
creación de hardware ha evolucionado para adaptarse a las nuevas tecnologías y usuarios. De esta serie de
cambios, se distinguen 4 generaciones de hardware:
 Primera generación de hardware (1945-1956): uso de tubos de vacío en máquinas de cálculo.
 Segunda generación de hardware (1957-1963): los tubos al vació fueron sustituidos por
transistores.
 Tercera generación de hardware (1964- actualidad): creación de componentes basados en
circuitos integrados impresos en una pastilla de silicio.
 Cuarta generación de hardware (futuro): todo hardware elaborado con nuevos materiales y
formatos distintos al silicio, y que aún están en fase de investigación, diseño, desarrollo o implementación.

Clasificación del hardware


El hardware se clasifica en 6 categorías, según el desempeño de sus componentes.
Hardware de procesamiento
Corresponde a la Unidad Central de Procesamiento o CPU, el centro de operaciones lógicas de la
computadora, en donde se interpretan y ejecutan las tareas necesarias para el funcionamiento del resto de los
componentes.
Hardware de almacenamiento
Como indica su nombre, hace referencia a todos los componentes cuya función es resguardar la información
para que el usuario pueda acceder a ella en cualquier momento. El dispositivo principal en este caso es la
memoria RAM (Random Access Memory), pero también está conformada por memorias secundarias, como
los discos duros o las memorias SSD o USB.
Hardware gráfico
Está compuesto principalmente por las tarjetas gráficas que poseen memoria y CPU propios, y son las
encargadas de interpretar y ejecutar las señales dedicadas a la construcción de imágenes. El hecho de que
esta función no recaiga en el CPU tiene que ver con la eficiencia, ya que al liberar de esas funciones a la
memoria principal, el sistema funciona de manera óptima.
Dispositivos periféricos
Es todo el hardware que permite que la información pueda ingresar a la computadora, o salir al exterior. Se
subdividen en tres categorías.
 Periféricos de entrada: son los que permiten el acceso de datos a la computadora. Por ejemplo, el
teclado, el micrófono, la cámara web, etc.
 Periféricos de salida: a través de ellos, el usuario puede extraer la información, como los escáneres,
las impresoras, las consolas y los parlantes o altavoces.
 Periféricos de entrada y salida o mixtos: son capaces de introducir o extraer la información. Las
pantallas táctiles entran en esta categoría, al igual que los lectores de DVD o BlueRay y las memorias flash.
Estas últimas, son esencialmente memorias secundarias, pero se usan como periféricos mixtos.

¿Cómo interactúa el hardware con el software?


Como sabemos, al conjunto de dispositivos físicos que conforman un ordenador se le denomina hardware.
Existe una relación indisoluble entre éste y el software, ya que necesitan estar instalados y configurados
correctamente para que el equipo funcione.
El software e se ejecutará sobre los dispositivos físicos.

PÁGINA 23
La primera arquitectura hardware con programa almacenado se estableció en 1946 por John Von Neumann:
Esta relación software-hardware la podemos poner de manifiesto desde dos puntos de vista:
Desde el punto de vista del sistema operativo
El sistema operativo es el encargado de coordinar al hardware durante el funcionamiento del ordenador,
actuando como intermediario entre éste y las aplicaciones que están corriendo en un momento dado.
Todas las aplicaciones necesitan recursos hardware durante su ejecución (tiempo de CPU, espacio
en memoria RAM, tratamiento de interrupciones, gestión de los dispositivos de Entrada/Salida, etc.). Será
siempre el sistema operativo el encargado de controlar todos estos aspectos de manera "oculta" para las
aplicaciones (y para el usuario).

Desde el punto de vista de las aplicaciones


Ya hemos dicho que una aplicación no es otra cosa que un conjunto de programas, y que éstos están escritos
en algún lenguaje de programación que el hardware del equipo debe interpretar y ejecutar.
Hay multitud de lenguajes de programación diferentes (como ya veremos en su momento). Sin embargo,
todos tienen algo en común: estar escritos con sentencias de un idioma que el ser humano puede aprender y
usar fácilmente. Por otra parte, el hardware de un ordenador sólo es capaz de interpretar señales eléctricas
(ausencias o presencias de tensión) que, en informática, se traducen en secuencias de 0 y 1 (código binario).
Esto nos hace plantearnos una cuestión: ¿Cómo será capaz el ordenador de "entender" algo escrito en un
lenguaje que no es el suyo?
Como veremos a lo largo de esta unidad, tendrá que pasar algo (un proceso de traducción de código) para
que el ordenador ejecute las instrucciones escritas en un lenguaje de programación.

¿Que es el sistema Binario?


Un sistema de numeración es una serie de símbolos que se utilizan, de
acuerdo a ciertas reglas, para construir aquellos números que se
consideran válidos. Entre los diferentes sistemas de numeración,
encontramos el sistema binario.

Antes de avanzar en la definición, podemos analizar a qué se refiere la


noción. Un sistema es un conjunto de componentes que interactúan y están interrelacionados entre
sí. Binario, por su parte, es aquello que está formado por dos componentes o unidades.
El sistema binario, de este modo, emplea sólo dos dígitos o cifras: el cero (0) y el uno (1). Distinto es el
caso, por ejemplo, del sistema decimal, que utiliza diez dígitos (del cero al nueve), o del hexadecimal, con
PÁGINA 24
sus dieciseis elementos (del cero al nueve, y luego de la ‘A’ a la ‘F’). Si bien el sistema decimal es el más
conocido por todos, dado que es el primero que nos enseñan en la escuela y el que usamos para los cálculos
básicos de la vida cotidiana, los otros dos tienen una gran importancia en diferentes campos, tales como la
informática.
En la actualidad, la popularidad del sistema binario radica en que es el empleado por
los ordenadores (computadoras o computadores, según la región). Como estos equipos, a nivel interno,
funcionan con dos grados diferentes de voltaje, apelan al sistema binario para indicar el apagado,
desenergizado, «cero voltios» o inhibido (representado con el 0) o el encendido, energizado, +5 o +12
voltios (1).
Aunque puede parecer extraño, cualquier número del sistema decimal (el más empleado en la vida cotidiana)
puede expresarse a través del sistema binario. Sólo hay que seguir alguno de los métodos establecidos para
encontrar la equivalencia. Existen algunos casos especiales para los cuales no es necesario recurrir a ningún
procedimiento; por ejemplo, el 0 y el 1, que se mantienen iguales en ambos sistemas.
El método más común consiste en dividir la cantidad del sistema decimal por 2: el número entero que da
como resultado se divide nuevamente por 2, de forma sucesiva hasta que el dividendo resulta inferior al
divisor. Hecho esto, los restos de cada división se ordenan desde el último resto hasta el primero.

De este modo, si queremos expresar el número 34 en el sistema binario, haremos lo siguiente:


34 / 2 = 17 (resto = 0)
17 / 2 = 8 (resto = 1)
8 / 2 = 4 (resto = 0)
4 / 2 = 2 (resto = 0)
2 / 2 = 1 (resto = 0)
1 / 2 = 0 (resto = 1)
De este modo, podemos determinar que el número decimal 34 es
equivalente al número binario 100010. Otro método para la
conversión de un número decimal a binario se asemeja al usado
para factorizar números primos, y también consiste en realizar
divisiones sucesivas. En este caso, la idea es dividir por 2 el
número inicial y colocar un 0 si es par o un 1 si es impar; antes de
continuar, si el resultado de la división es impar, debemos restarle
1. Y esto debe aplicarse a cada paso, hasta llegar al 1, al cual
siempre le corresponde un 1 como dígito binario. Finalmente, se
deben tomar todos los unos y ceros y ordenarlos de abajo hacia
arriba, para formar el número binario correspondiente al decimal
dado.
A continuación, se demuestra este método, también con el número decimal 34:
34/2 = 17 (dígito binario: 0, ya que 34 es par)
* restamos 1 a 17, dado que es impar
16/2 = 8 (dígito binario: 1, ya que 17 es impar)
8/2 = 4 (dígito binario: 0)
4/2 = 2 (dígito binario: 0)

PÁGINA 25
2/2 = 1 (dígito binario: 0)
1/1 = 1 (dígito binario: 1)
Finalmente, ordenamos de abajo hacia arriba, y obtenemos el número binario 100010, al igual que con el
método anterior.
Si, en cambio, deseamos convertir un número del sistema binario al decimal, los posibles procedimientos
son un tanto diferentes. El más usado de los métodos consiste en tomar cada uno de los dígitos del número
binario, comenzando desde la derecha, y multiplicarlo por 2 elevado a la potencia correspondiente, siendo 0
el primer exponente. Una vez hecho esto, se deben sumar todos los resultados, para obtener el número
decimal equivalente. Veamos la conversión de 100010 en 34:
0 x 20 + 1 x 21 + 0 x 22 + 0 x 23 + 0 x 24 + 1 x 25 = 34

¿Qué es el código ASCII?


ASCII es el acrónimo que corresponde a la expresión inglesa American
Standard Code for Information Interchange. Dicha frase puede traducirse
como Código Estándar Americano para el Intercambio de Información.
Se trata de un patrón de codificación que se emplea en el ámbito de la
informática.
El ASCII es, básicamente, un código de caracteres que tiene su base en el
alfabeto romano o latino. Esto quiere decir que el ASCII sirve para convertir, a través de una serie de reglas,
un carácter que forma parte de un lenguaje natural (como una letra de un alfabeto) en un símbolo que
pertenece a otra clase de sistema representativo.
La creación del ASCII se produjo en 1963 a partir de la reformulación de los códigos que se empleaban en
la telegrafía. Cuatro años después, se añadieron las letras minúsculas y se cambiaron ciertos códigos.
La compañía americana de telecomunicaciones conocida como AT&T, de popularidad internacional, por
ese entonces se denominaba Bell, y proveía los servicios de datos que impulsaron el código ASCII. En un
principio, Bell tenía pensado utilizar tan sólo seis bits, pero tras unirse a la Agencia de Estándares
Estadounidenses, cuya sigla era ASA, esto cambió y se agregó el séptimo bit.
Para la representación de caracteres, el ASCII usa 7 bits. El código permite definir 32 caracteres que no son
imprimibles, seguidos por 95 caracteres imprimibles. Al tratarse de un código de 7 bits, apela a cadenas de
bits que pueden representarse con siete dígitos binarios, los cuales en base decimal se encuentran entre 0 y
127.
Cuando apareció por primera vez el código ASCII, lo más común era el uso de grupos de ocho bits en los
ordendores como la mínima unidad posible de información; el último bit, el cual se conocía con el nombre
de bit de paridad, solía ser utilizado para controlar los errores en las líneas de comunicación, aunque
también podía destinarse a otras funciones, según el dispositivo en cuestión.
Por lo general, los ordenadores que no utilizaban dicha comprobación de errores asignaban un cero a este
bit; sin embargo, la serie Prime de computadoras, entre otras, colocaban un uno en el octavo bit. Es

PÁGINA 26
importante resaltar que el código ASCII no toma en cuenta datos como la apariencia o la estructura del
texto, ya que para todo esto existen ciertos lenguajes específicos, como ser los de etiquetas, sino que se
enfoca en los caracteres y algunos códigos de control que aprovechan los procesadores de textos.
En concreto, el ASCII establece una correspondencia entre estas
cadenas y los símbolos que representa (como letras y números). Esto
hace que se facilite el almacenamiento y el procesamiento de
información en una computadora (ordenador) y la comunicación entre
diferentes aparatos digitales.
El uso de un código de caracteres en particular resulta
extremadamente útil para evitar la pérdida de información como
consecuencia de la incompatibilidad entre diferentes programas; en
otras palabras, si sabemos en qué código se encuentra basado un
documento de texto, siempre podremos interpretarlo. Claro que esto
ocurre de forma automática para la mayoría de los usuarios, ya que el sistema operativo y los procesadores
de texto no resaltan la importancia de la codificación ni brindan opciones accesibles para manipularla.
Así como sucede con la mayoría de los temas específicos del mundo de la tecnología, los usuarios
avanzados utilizan software que sí les permite cambiar éste y otros muchos aspectos de sus documentos,
aunque muchas veces deben realizar ciertos pasos extras para acomodar las aplicaciones a sus necesidades.
Se conoce como arte ASCII a las manifestaciones artísticas que usan este código para crear imágenes. Al
desarrollar dibujos con los caracteres ASCII, los artistas logran un efecto óptico muy particular.

¿Como medir la cantidad de información?


La información, al igual que ocurre con el peso o con el volumen, se puede medir. Dependiendo de si
tenemos más o menos cantidad de información usaremos unas u otras de las siguientes unidades de medida:
bit (b): Es la unidad más pequeña de información. La palabra bit proviene de Binary digIT , es decir dígito
binario en castellano.Los únicos valores de información que puede contener son 0 y 1.Como vimos en la
sección anterior un bit de información almacenado por ejemplo en la memoria RAM equivaldría a un
transistor con voltaje bajo si tiene almacenado un 0 o con voltaje normal si tiene almacenado un 1:

Gráfico de dos bits de memoria con valores 0 y 1 (Fuente:Elaboración propia)


Un bit en un disco duro equivaldría a cada zona de su superficie con cargas magnéticas:

PÁGINA 27
Gráfico de dos bits de disco duro con diferentes valores (Fuente: Elaboración propia)
En un DVD equivaldría a cada zona de su superficie donde hay un valle (cero) o una cumbre (uno):

Gráfico de dos bits con valores cero y uno en la superficie de un DVD (Fuente: Elaboración propia)
 
Byte (B): Equivale a 8 bits, y es la cantidad necesaria de bits para almacenar un carácter. Por ejemplo, un
archivo de texto con 10 caracteres ocuparía en memoria 10 bytes o lo que es lo mismo 80 bits.
1 B = 8 bits
Kilobyte (KB): Un Kilobyte es igual a 1024 Bytes. Esta unidad de medida se usa para expresar las
cantidades pequeñas de información.
1 KB=1024 Bytes= 210 Bytes
Megabyte (MB):Un Megabytes es igual a 1024 Kilobytes. Se usa para cantidades medianamente grandes de
información, por ejemplo, para expresar lo que ocupa un archivo de música.
1 MB= 1024 KB= 220 Bytes
Gigabyte (GB): Un Gigabye son 1024 Megabytes. Esta unidad se usa para cantidades grandes de
información como por ejemplo para expresar la capacidad de un disco duro.
1 GB= 1024 MB= 230 Bytes
Terabyte (TB): El Terabyte equivale a 1024 GB. Se utiliza para cantidades enormes de información como
para medir la capacidad de almacenamiento de una supercomputadora o de algunos discos duros actuales.
1 TB= 1024 GB= 240 Bytes
 En el siguiente esquema vemos un resumen en forma de escalera de cómo hacer las conversiones entre las
diferentes unidades de medida de la información, para pasar de una unidad más grande a otra más
pequeña,es decir bajar escalones, multiplicaremos y para pasar de una más pequeña a otra mayor, es decir
subir escalones, dividiremos:

PÁGINA 28
Escalera de conversión entre las diferentes unidades de medida de la información.

PÁGINA 29
8. Arquitectura de la computadora’
La arquitectura de computadoras
es el diseño conceptual y la estructura operacional fundamental de un sistema de computadoras.Es decir, es
un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias
partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU)
trabaja internamente y accede a las direcciones de memoria.
También la arquitectura del computador está basado en tres grandes principios que se aplican a todo
dispositivo o componente del computador, estos tres principios son: velocidad, capacidad y tipo de
conexión.
También suele definirse como la forma de interconectar componentes de hardware, para crear computadoras
según los requerimientos de funcionalidad, rendimiento y costo.
La computadora recibe y envía la información a través de los periféricos, por medio de los canales. La CPU
es la encargada de procesar la información que le llega a la computadora. El intercambio de información se
tiene que hacer con los periféricos y la CPU. Puede considerarse que todas aquellas unidades de un sistema,
exceptuando la CPU, se denomina periférico, por lo que la computadora tiene dos partes bien definidas, que
son:
La CPU (encargada de ejecutar programas y que también se considera compuesta por la memoria principal,
la unidad aritmético lógica y la unidad de control).
Los periféricos (que pueden ser de entrada, salida, entrada/salida, almacenamiento y comunicaciones).
Almacenamiento de operandos en la CPU
La diferencia básica está en el almacenamiento interno de la CPU. Las principales alternativas son:
Acumulador, Conjunto de registros, Memoria, etc.
Pero antes hay que tomar en cuenta que las informaciones procesadas son de suma importancia.

Características
En una arquitectura de acumulador, un operando está implícitamente en el acumulador siempre leyendo e
ingresando datos (por ejemplo, una calculadora estándar).
En la arquitectura de una pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope
de la pila (por ejemplo, calculadora de pila HP).
La arquitectura de registros tiene sólo operandos explícitos (es aquel que se nombra) en registros o memoria.
Ventajas de las arquitecturas
Pila:
Modelo sencillo para evaluación de expresiones (notación polaca inversa).
Instrucciones cortas pueden dar una buena densidad de código.
Acumulador:
Instrucciones cortas.
PÁGINA 30
Minimiza estados internos de la máquina (unidad de control sencilla).
Registro:
Modelo más general para el código de instrucciones parecidas.
Automatiza generación de código y la reutilización de operandos.
Reduce el tráfico a memoria.
Una computadora tiene 32 registros, como estándar.
El acceso a los datos es más rápido y veloz.

Desventajas de las arquitecturas


Pila:
A una pila no se puede acceder aleatoriamente.
Esta limitación hace difícil generar código eficiente.
También dificulta una implementación eficiente, ya que la pila llega a ser un cuello de botella es decir que
existe dificultad para la transferencia de datos en su velocidad MK.
Acumulador:
Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es el más alto en esta
aproximación.
Registro:
Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.

Diferencias entre sistema digital y sistema analógico 


hacen referencia a las dos categorías en la que se clasifican los circuitos electrónicos.
Sistema digital es cualquier sistema que pueda generar, procesar, transmitir o almacenar señales mediante
dígitos y que solo admite valores discretos, es decir, que solo admite un conjunto limitado de números o
valores.
Sistema analógico es cualquier sistema cuyas señales se representan con valores continuos, es decir, que
admite números o valores infinitos.
La principal diferencia entre sistema digital y sistema analógico radica en que el primero es mucho más
preciso y la información se puede almacenar de manera más eficiente y en mayor cantidad que en un sistema
analógico.

PÁGINA 31
Sistema digital Sistema analógico

Definición Sistema de manipulación de datos Sistema de manipulación de datos físicos


mediante dígitos (números). representados en valores continuos.

Valores de la Valores discretos (finitos). Valores continuos (infinitos).


señal

Ventajas  Menor tamaño.  Instantaneidad.


 Eficiencia.  Economía.
 Precisión.  Fidelidad.
 Diseño.
 Estabilidad

Desventajas  Conversión.  Menor tolerancia al ruido.


 Ancho de banda.  Degradación de la señal.
 Alteración.  Dificultades técnicas.

Ejemplos  Computadoras.  Sistemas de audio y video


 Teléfonos móviles. antiguos.
 Sistemas de grabación de  Fotografía analógica.
audio y video.  Instrumentos de precisión
 Instrumentos de precisión tradicionales.
digitales.
Sistema digital
Un sistema digital es cualquier sistema que permita crear, decodificar, transmitir o guardar información que
se encuentra representada en cantidades tan restringidas que sus señales de entrada y salida solo admiten
valores discretos.
Los valores discretos son variables que no aceptan cualquier valor, sino solo aquellos que pertenezcan a su
conjunto, por tanto, son finitos.
En este sentido, un sistema digital es todo dispositivo que manipule datos mediante dígitos que casi siempre
están representados con el código binario. El sistema binario solo admite ceros (0) y unos (1) como valores,
por lo tanto, se trata de valores discretos.
Actualmente, los sistemas digitales se encuentran incorporados en dispositivos magnéticos, electrónicos y
mecánicos.
Tipos de sistemas digitales
Sistemas digitales combinacionales
En este caso, la transmisión de la señal depende de los valores que admitan las entradas.
Por ejemplo, no se puede ingresar código no binario en un sistema binario.

PÁGINA 32
Sistemas digitales secuenciales
La salida de la señal depende tanto de los valores de la entrada como del estado total del sistema (entrada,
salida, memoria).
Ejemplos de sistemas digitales
 Las grabaciones de audio y video, cuya información se guarda en millones de bits que luego se
pueden almacenar en diferentes tipos de dispositivos.
 Computadoras.
 Teléfonos móviles.
 Las calculadoras, balanzas electrónicas y otros instrumentos digitales de precisión.
Ventajas de los sistemas digitales
Los sistemas digitales tienen las siguientes ventajas:
 Menor tamaño: los dispositivos basados en sistemas digitales tienden a hacerse cada vez más
pequeños.
 Eficiencia: la información digital se almacena rápidamente y en cantidades cada vez más grandes.
 Precisión: como los sistemas digitales solo admiten valores discretos, son mucho más precisos.
 Diseño: los dispositivos basados en sistemas digitales tienden a hacerse cada vez más fáciles de
diseñar
 Estabilidad: los sistemas digitales son menos susceptibles al ruido, es decir, a todas las posibles
perturbaciones de la señal.
Desventajas de los sistemas digitales
Aunque los sistemas digitales han contribuido en gran medida al desarrollo tecnológico, también tienen sus
inconvenientes:
 Conversión: la naturaleza de las variables físicas es analógica (sonido, temperatura, distancia, peso)
por lo tanto, es necesario usar un conversor para transformarlas en datos digitales.
 Ancho de banda: la transmisión de señales en un sistema digital requiere de un ancho de banda
mucho mayor que un sistema analógico.
 Alteración: los sistemas digitales pueden alterarse o manipularse con relativa facilidad con respecto
a los analógicos.
Sistema analógico
Un sistema analógico es aquel cuyas señales pueden admitir valores infinitos que pueden variar de forma
continua.
Los datos que forman parte de la naturaleza son de origen analógico: la temperatura, la distancia, el sonido,
voltaje, imágenes, etc. Si bien todas estas variables se pueden convertir a datos digitales son, originalmente,
analógicas.

Ejemplos de sistemas analógicos


La temperatura ambiental es un ejemplo de un sistema analógico, ya que no tiene valores exactos, sino que
puede fluctuar continuamente. Es decir, cuando hay frío es porque la temperatura descendió de manera lenta
y continua, ya que no pasamos directamente de 30 grados a 10 grados, por ejemplo, sino que se admiten una
serie de valores que van desde los 30 grados a los 10.

PÁGINA 33
Otro ejemplo de sistema analógico es la música digital que se convierte a formato analógico mediante un
proceso llamado conversión, en el que se usan dispositivos que convierten los datos binarios de la
información digital en señales análogas.
Ventajas de los sistemas analógicos
Si bien existe un interés creciente en la transformación digital porque en términos técnicos es superior a la
tecnología analógica, esta también tiene sus ventajas:
 Instantaneidad: en los sistemas analógicos la señal se procesa en tiempo real, por ejemplo, cuando
usamos un parlante o un micrófono.
 Economía: los dispositivos basados en sistemas analógicos son más baratos que los digitales.
 Fidelidad: la calidad de la señal es más fiel a la realidad y no es tan fácil de manipular. Las
grabaciones de audio en antiguos sistemas análogos son un ejemplo de ello.
Desventajas de los sistemas analógicos
Los inconvenientes de utilizar dispositivos basados en sistemas analógicos son:
 Ruido: los sistemas analógicos son más susceptibles a las perturbaciones de la señal, y eso puede
interferir en la calidad de los datos que transmiten.
 Degradación: a medida que se repite la transmisión de los datos, estos van perdiendo calidad.
 Dificultades técnicas: si se presenta alguna falla en un dispositivo analógico es mucho más difícil de
reparar. Además, los sistemas análogos no pueden ser reparados de forma remota.

Componentes de la computadora.
Unidad Central de Proceso.
CPU es la abreviación de Unidad Central de Procesamiento, un componente básico de todo dispositivo que
procesa datos y realiza cálculos matemáticos-informáticos.
Función:
El CPU es la pieza fundamental de todo dispositivo, es considerado el cerebro de un sistema.
En primer lugar, es el encargado de recibir e interpretar datos y ejecutar las secuencias de instrucciones a
realizar por cada programa valiéndose de operaciones aritméticas y matemáticas. El CPU interpreta todos
los datos que provienen del dispositivo, tanto de los programas como la información que envía el usuario a
través de aplicaciones.
Además, controla el buen funcionamiento de cada componente del sistema para que todas las acciones sean
realizadas en tiempo y forma.

PÁGINA 34
Memoria.
La memoria es el dispositivo que retiene, memoriza o almacena datos informáticos durante algún periodo de
tiempo. La memoria proporciona una de las principales funciones de la computación moderna: el
almacenamiento de información y conocimiento.

Periférico de una computadora personal.


Periférico es la denominación genérica para designar al aparato o dispositivo auxiliar e independiente
conectado a la placa base de una computadora.
Se consideran periféricos a las unidades o dispositivos de hardware a través de los cuales el ordenador se
comunica con el exterior, y también a los sistemas que almacenan o archivan la información, sirviendo de
memoria auxiliar de la memoria principal.

De entrada.
Captan y digitalizan los datos introducidos por el usuario o por otro dispositivo y los envían al ordenador
para ser procesados. Los más conocidos son el teclado, el ratón (mouse), escáner, cámara web, cámara
digital, etc.
De salida.
Son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para
informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan
de convertir los impulsos eléctricos en información legible para el usuario.
De almacenamiento.
Se encargan de guardar los datos de los que hace uso la CPU, para que ésta pueda hacer uso de ellos una vez
que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la
computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD.

PÁGINA 35
Conclusión.
Una Computadora es una máquina electrónica que recibe y procesa datos para convertirlos en información
útil. Una tendencia constante en el desarrollo de los ordenadores es la micro miniaturización, iniciativa que
tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Hardware:
corresponde a todas las partes físicas y tangibles de una computadora: sus componentes eléctricos,
electrónicos, electromecánicos y mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y
cualquier otro elemento físico involucrado; Software se refiere al equipamiento lógico o soporte lógico de
una computadora digital, y comprende el conjunto de los componentes lógicos necesarios para hacer posible
la realización de tareas específicas; en contraposición a los componentes físicos del sistema, llamados
hardware.

PÁGINA 36

También podría gustarte