Está en la página 1de 97

La computadora es la máquina de cálculo más avanzada y eficiente inventada.

Historia de la computadora
La historia de la computadora es el recuento de los eventos, innovaciones y
desarrollos tecnológicos del campo de la informática y la automatización,
que dieron origen a las máquinas que conocemos como computadoras,
computadores u ordenadores. Registra además su mejoramiento y actualización
hasta alcanzar las versiones miniaturizadas y veloces del siglo XXI.

Las computadoras, como todos sabemos, son las máquinas de cálculo más
avanzadas y eficientes inventadas por el ser humano. Están dotadas del
suficiente poder de operaciones, la suficiente autonomía y velocidad como para
reemplazarlo en muchas tareas, o permitirle dinámicas de trabajo virtuales y
digitales que nunca antes en la historia habían sido posibles.

La invención de este tipo de aparatos en el siglo XX revolucionó para siempre


la manera en que entendemos los procesos industriales, el trabajo,
la sociedad y un sinfín de otras áreas de nuestra vida. Afecta desde el modo
mismo de relacionarnos, hasta el tipo de operaciones de intercambio de
información a escala mundial que somos capaces de realizar.
Ver además: Microprocesador

Antecedentes de la computadora

Joseph Marie Jacquard inventó en 1802 un sistema de tarjetas perforadas.

La historia de la computadora tiene largos antecedentes, que se remontan a las


primeras reglas de cálculo y a las primeras máquinas diseñadas para facilitarle
al ser humano la tarea de la aritmética. El ábaco, por ejemplo, fue un importante
adelanto en la materia, creado alrededor de 4.000 a. C.

También hubo inventos muy posteriores, como la máquina de Blaise


Pascal, conocida como Máquina de Pascal o Pascalina, creada en 1642. Consistía
en una serie de engranajes que permitían realizar operaciones aritméticas. Esta
máquina fue mejorada por Gottfried Leibinitz en 1671 y se dio inicio a la historia
de las calculadoras.

Los intentos del ser humano por automatizar continuaron desde entonces: Joseph
Marie Jacquard inventó en 1802 un sistema de tarjetas perforadas para
intentar automatizar sus telares, y en 1822 el inglés Charles Babbage empleó
dichas tarjetas para crear una máquina de cálculo diferencial.
Solamente doce años después (1834), logró innovar su máquina y obtener una
máquina analítica capaz de las cuatro operaciones aritméticas y de almacenar
números en una memoria (hasta 1.000 números de 50 dígitos). Por este motivo, a
Babbage se le considera el padre de la computación, ya que esta máquina
representa un salto hacia el mundo de la informática como lo conocemos.

Invención de la computadora
La invención de la computadora no puede atribuirse a una sola persona. Se
considera a Babbage como el padre de la rama de saberes que luego será la
computación, pero no será sino hasta mucho más adelante que se hará la primera
computadora como tal.

Otro importante fundador en este proceso fue Alan Turing, creador de una
máquina capaz de calcular cualquier cosa, y que llamó “máquina universal” o
“máquina de Turing”. Las ideas que sirvieron para construirla fueron las mismas
que luego dieron nacimiento al primer computador.

Otro importante caso fue el de ENIAC (Electronic Numeral Integrator and


Calculator, o sea, Integrador y Calculador Electrónico Numeral), creado por dos
profesores de la universidad de Pensilvania en 1943, considerado el abuelo de los
computadores propiamente dicho. Consistía en 18.000 tubos al vacío que llenaban
un cuarto entero

Fuente: https://www.caracteristicas.co/historia-de-la-computadora/#ixzz6xL9IEfU1

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en


1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de
diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas
estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número
de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz
perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de
utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith
consiguió compilar la información estadística destinada al censo de población de 1890
de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas
sobre contactos eléctricos.
LA HISTORIA DE LA GENERACIÓN DE
COMPUTADORAS
NextU Tecnología de la Información (TI)

FacebookTwitterLinkedInPinterest
Aunque solo a partir de los años 90´ los ordenadores pudieron ser reconocidos por una gran
parte de la población, y en el 2000 empezaron a hacer parte del diario vivir de las personas,
lo cierto es que su historia se remonta a muchos años atrás con una amplia generación de
computadoras que, aún en pleno siglo XXI, todavía las desconocen.

Si bien en 1946 se desarrolla la primera computadora digital electrónica denominada


ENIAC, para el año de 1936, (10 años atrás) ya se estaba dando forma y significado a lo
que hoy se conoce como computadora u ordenador, gracias a la fabricación de la Z1, la que
para muchos es la primera computadora programable de la historia, a pesar de ser
reconocida como una calculadora mecánica binaria.

Desde ordenadores carentes de sistema operativo, construidos con electrónicas de válvulas,


pasando por transistores hasta llegar a microprocesadores, son solo algunas de las
características que destacan a cada generación de computadoras. Pero, ¿cómo eran esas
primeras máquinas y para qué eran utilizadas? ¡Echemos un vistazo atrás para entender
mejor todo esto!

1° Generación de computadoras – 1946 a 1955: para esta época, la tecnología utilizada


eran los tubos al vacío, esos mismos son famosos por haber posibilitado el desarrollo de la
electrónica hacia la mitad del siglo XX. Por esta razón, los ordenadores eran desarrollados
con válvulas electrónicas de vacío. Se caracterizaban principalmente por tener un tamaño
enorme, no disponer de sistema operativo, sino de una tarjeta perforada para almacenar
toda la información y eran utilizados exclusivamente por las fuerzas militares y la industria
científica. De acuerdo con el portal web Wikipedia y las referencias encontradas en la
Enciclopedia Actual de la Informática, las computadoras que marcaron el hito de la primera
generación fueron:

La Zuse Z1: Diseñada por el ingeniero alemán Konrad Zuse en 1936 bajo el sistema
electro-mecánico y con financiamiento propio de su inventor y el de sus allegados. Se dice
que fue construida en el departamento de los padres de Zuse, debido a que el gobierno Nazi
no confiaba en el trabajo de este informático.

La Zuse Z2: Como todo lo que se crea por primera vez no es perfecto, Zuse decidió
mejorar entre los años 1936 y 1939 su gran invento. Gracias a la ayuda de su amigo Helmut
Schreyer, quien lo aconsejó que cambiara el sistema mecánico por tecnología de circuito
electrónico, implementó relés telefónicos para conocer la viabilidad del proyecto,
obteniendo como resultado una máquina un poco más veloz, pero casi imposible de realizar
debido a la escasez de la época de válvulas termoiónicas.

La Zuze Z3: Considerada como la primera máquina automática y programable de la


historia, fue creada también por Zuse en 1941 como resultado de la combinación del trabajo
duro y esfuerzos invertidos en la Z1 y Z2. Uno de sus grandes atributos fue que utilizó el
sistema binario y la tecnología electromecánica basada en relés para llevar a cabo sus
funciones.

ENIAC: Aunque su creación se les amerita a los ingenieros John Presper Eckert y John
William Mauchly en 1944, realmente fue un grupo conformado por 6 mujeres las que
programaron esta computadora. Así como la Z2, la ENIAC se desarrolló como una
máquina meramente experimental y no de producción.

La Z4: Debido a que la computadora Z3 fue destruida en 1943 en un bombardeo realizado


en Berlín durante la Segunda Guerra Mundial, Konrad Zuse diseñó nuevamente una
máquina como resultado final de todas sus anteriores versiones, utilizando tarjetas
perforadas y el sistema de relés. Es conocida como la 1° computadora en ser vendida en
todo el mundo en 1950.

La EDVAC: De toda la generación de computadoras hasta ahora existente, fue la segunda


programable y la primera en usar un programa informático de almacenamiento. Su creación
se le atribuye al laboratorio de investigación de balística de Estados Unidos de la
Universidad de Pensilvania en el año de 1949.

Entre los años 1951 a 1955 se fabricaron y construyeron varios modelos de computadoras
que marcaron el inicio comercial de este gran invento tecnológico. A este selecto grupo
pertenecen La UNIVAC I creada por los mismos inventores de la ENIAC y catalogada
como la primera computadora comercial procreada en Estados Unidos y La Zuse Z22
desarrollada también por Konrad Zuse bajo el sistema de tubos de vació.

2° Generación de computadoras – 1958 a 1964: La gran hazaña de esta generación fue la


sustitución de válvulas de vacío por los transistores, acompañada del uso de memorias de
núcleo de ferritas y tambores magnéticos para almacenar la información, los cuales
permitieron la fabricación de computadoras de menor tamaño, caracterizadas por una mejor
potencia, rapidez y fiabilidad. En este periodo se empezaron a utilizar lenguajes de alto
nivel como ALGOL, FORTRAN y COBOL, siendo estos dos últimos los lenguajes de
programación que ayudó a desarrollar la gran científica de la computación Grace Hopper,
gracias a sus conocimientos sobre FLOW-MATIC. Las computadoras más destacadas
durante este tiempo fueron:

IBM 1401: Fue una computadora de propósito general lanzada en 1959 por IBM que
poseía un sistema basado en transistores y tarjetas perforadas. Debido a la gran cantidad de
ejemplares vendidas (alrededor de 12.000) se consideró como una de las máquinas más
exitosas del momento.
IBM 1620: Fue un ordenador creado principalmente para uso científico y el primero de este
tipo en ser estimado como económico. Poseía una memoria de núcleo magnético y se lanzó
al mercado en 1959.

3° Generación de computadoras – 1964 a 1971: Con la invención del circuito cerrado o


chip por parte de los ingenieros estadounidenses Jack S. Kilby y Robert Noyce se
revoluciona por completo el diseño de las computadoras. Aparecen los primeros discos
magnéticos y los componentes electrónicos se integran en una sola pieza o chip que
albergan en su interior condensadores, transistores y diodos, los cuales ayudan a aumentar
notablemente la velocidad de carga y a reducir el consumo de energía eléctrica. En esta
generación las computadoras se caracterizan por tener mayor flexibilidad y fiabilidad, ser
de menor tamaño y ocupar poco espacio. Las máquinas más sobresalientes de la época
fueron:

CDC 6600: Fue creado en el año 1965 por el estadounidense Seymour Cray y se le destinó
un uso principal para la investigación de la física de alta energía nuclear.
IBM 360: Diseñada por la empresa IBM, fue una de las computadoras que influyó en el
desarrollo de toda la 3ra generación de ordenadores.

4° Generación de computadoras – 1971 a 1981: A partir de esta etapa las computadoras


personales se convierten en las protagonistas de la informática. Todos los elementos que
conforman la CPU ahora se almacenan en un circuito integrado conocido como
microprocesadores y empiezan a surgir una gran gama de estos elementos fabricados por la
compañía Intel, reconocida en la actualidad como la mayor fabricante de circuitos
integrados del mundo. El primer microprocesador denominado 4004 lo desarrolla Intel en
1971 y en 1974 se presenta al mercado el primero diseñado para uso general. Es en esta
generación donde aparece el disquete.

5° Generación de computadoras – 1982 a 1989: Dos hechos históricos marcan el inicio


de esta etapa. Por un lado el proyecto 5ta generación comando por Japón en 1982, cuya
finalidad principal era construir ordenadores con tecnología más avanzada bajo lenguajes
de programación más potentes para las máquinas y menos complejos para los usuarios. Por
otro, la construcción del primer superordenador con capacidad de proceso paralelo por
parte de Seymour Cray y su compañía Control Data Corporation denominado CDC 6600.
En esta generación las computadoras empiezan a realizar tareas que aún en la actualidad
predominan, como la traducción automática de una lengua a otra. Asimismo, el
almacenamiento de información digital se procesa en gigabytes y surge el DVD.

6° Generación de computadoras – 1990 hasta la actualidad: Aunque se presentan


algunos desacuerdos sobre la existencia de una 6ta generación de computadoras, lo cierto es
que la informática no se ha detenido y cada día avanza a mayor escala. La inteligencia
artificial, la arquitectura vectorial y paralela de los ordenadores y la incorporación de chips
de procesadores especializados para llevar a cabo ciertas tareas, predominan en la
actualidad. Sin embargo, aún queda un largo camino por recorrer para la tecnología digital
y de acuerdo con expertos de la industria como el gran Stephen Hawking, la próxima
generación estará marcada por el máximo desarrollo de la informática cuántica y su puesta
en marcha.

“La construcción de un ordenador cuántico no supone ningún problema… Sabemos cómo


juntar las cadenas de las operaciones cuánticas sobre el papel y la forma en que acabarán
proporcionándonos un ordenador cuántico, el problema está en trasladarlo al hardware real”
Stephen Hawking.

Aprende más sobre el funcionamiento y gestión de las tecnologías de la información.


¡Impulsa tus habilidades tecnológicas!

Las computadoras de las primeras generaciones eran mucho más grandes que las actuales.

Generaciones de las computadoras


En la historia de la computación, se habla de generaciones para referirse a
las diversas etapas en la historia de su evolución tecnológica, a medida que
se fueron haciendo más complejas, más potentes y, curiosamente, más diminutas.
Existen cinco generaciones de computadoras identificadas, aunque la sexta
generación podría estar desarrollándose ahora mismo a inicios del siglo XXI.

A continuación detallamos las características de cada una.

Puede servirte: Informática
Primera Generación de Computadoras

ENIAC fue una de las primeras computadoras de la historia.

Esta es la generación inicial, que se extiende desde 1940 hasta 1952. Comienza
con la invención de las primeras máquinas de cálculo automáticas que podemos
comenzar a llamar “computador” propiamente. Se basaban en la electrónica de
válvulas y tubos al vacío.

Muchas de estas computadoras se programaban con un conjunto de instrucciones


simples que debían suministrarse al sistema como tarjetas perforadas de papel o
cartón.

Uno de los modelos más famosos de esta generación fue la ENIAC de 1946,
que pesaba varias toneladas y consumía unos cuántos Kwatts con cada simple
operación de hasta cinco mil sumas por segundo. Otro modelo importante fue la
Univac I de 1951, la primera diseñada con fines comerciales.

Segunda Generación de Computadoras


Comienza en 1956 y se extiende hasta 1964. El cambio de la primera a esta
segunda generación lo representó la sustitución de las válvulas de vacío
por transistores, haciéndolas mucho más pequeñas y reduciendo también su
consumo eléctrico. Estas fueron las primeras máquinas que disponían de
un lenguaje específico para programarlas, como el célebre FORTRAN.
Uno de los modelos más conocidos de esta generación fue la IBM 1401
Mainframe. Era una máquina voluminosa y costosa que aún leía tarjetas
perforadas, pero que era tan exitosa que se vendieron 12.000 unidades, todo un
éxito de mercado para el momento (1959).

Por otro lado, se destacó la System/360, también de IBM, de la que se vendieron


14.000 unidades en 1968, perteneciente a toda una gama de modelos bastante
exitosos para uso individual.

Tercera Generación de Computadoras

Los circuitos integrados permitieron una generación de computadoras más pequeñas.

Desde 1965 hasta 1971 se extiende esta tercera generación, que vino
determinada por la invención de los circuitos integrados.
Esta tecnología revolucionaria permitió aumentar a capacidad de procesamiento
de las máquinas, a la par que reducía sus costos de manufacturación.

Estos circuitos se imprimen en pastillas de silicio, añadiendo pequeños


transistores y valiéndose de la tecnología de los semiconductores. Fue el primer
paso hacia la miniaturización de las computadoras, además de ser
aprovechado en la manufacturación de radios, televisores y otros artefactos
semejantes.

Algunos de los modelos más populares de esta generación fueron las PDP-8 y
PDP-11, que eran ejemplares en su manejo de la electricidad, su capacidad de
multiproceso y su fiabilidad y flexibilidad. Con esta generación de computadores
se calculó el número de pi (π) con 500 mil decimales.
Cuarta Generación de Computadoras

La generación de computadoras personales nació gracias al microprocesador.

La cuarta generación se fabricó entre 1972 y 1980. La integración de los


componentes electrónicos pronto permitió la invención del microprocesador, un
circuito integrado que reúne todos los elementos fundamentales de la máquina y
que se pasó a denominar chip.

Gracias a la incorporación de chips, las computadoras podían diversificar sus


funciones lógico-aritméticas y reemplazar, por ejemplo, la memoria de anillos de
silicio por memoria de chips, dando otro paso importante hacia la
microcomputarización.

Así es como nacieron las computadoras personales o PC, concepto que aún
hoy perdura. El primer microprocesador de esta generación fue el Intel 4004,
fabricado en 1971, inicialmente para una calculadora electrónica. Los
computadores populares de esta generación fueron muchos, clasificados entre PC
(IBM) y “clones” (de otras empresas).

Quinta Generación de Computadoras


Las computadoras actuales son tan portátiles que se encuentran incluso en los teléfonos.

Esta generación es la más reciente, comenzó en 1983 y aún sigue vigente en la


actualidad. La computación se diversificó enormemente, se hizo portátil, liviana y
cómoda. Gracias a Internet, expandió sus fronteras de uso hasta límites nunca
antes sospechados.

Aparecieron las computadoras laptop o portátiles, revolucionando el mercado e


imponiendo la idea de que el computador ya no necesita estar fijo en una
habitación, sino que es un aditamento más de nuestros maletines.

Hubo también un intento japonés por construir una FGCS (Fifth Generation
Computer Systems, Sistemas Computarizados de Quinta Generación) que sería
un nuevo diseño de computadores fuertemente basados en la inteligencia artificial.
Sin embargo, luego de once años de desarrollo, el proyecto no dio los resultados
esperados.

De todos modos, nunca antes la velocidad de procesamiento, la versatilidad y


la comodidad convergieron en el mundo de la computadora hasta esta reciente
generación.

Sexta Generación de Computadoras


La investigación tecnológica no se detiene, y las computadoras contemporáneas
están siendo diseñadas para emplear circuitos de aprendizaje neuronal, “cerebros”
artificiales. Es decir que se apunta a crear las primeras computadoras
inteligentes de la historia.
Esto sería posible empleando la tecnología de los superconductores, para ahorrar
enormemente en electricidad y en calor, haciendo sistemas altamente eficaces y
de enorme potencia, 30 veces más que la que tenemos en la actualidad
empleando metales comunes.

Se trata de una tecnología aún en desarrollo pero que posee el potencial de dar


nacimiento a una sexta generación de computadoras

Fuente: https://concepto.de/generaciones-de-las-computadoras/#ixzz6xLFyWp00

Generaciones de la computadora
Enviado por antonio ariza

1. Primera generación (1951 a 1958)


2. Segunda generación (1959-1964)
3. Tercera generación (1964-1971)
4. Cuarta generación (1971 a 1981)
5. Quinta generación y la inteligencia artificial (1982-1989)
6. Sexta generación (1990 hasta la fecha)

PRIMERA GENERACIÓN (1951 A 1958)


Las computadoras de la primera Generación emplearon bulbos para procesar información.
La programación se realizaba a través del lenguaje de máquina. Las memorias estaban
construidas con finos tubos de mercurio líquido y tambores magnéticos. Los operadores
ingresaban los datos y programas en código especial por medio de tarjetas perforadas.
El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un
dispositivo de lectura/escritura colocaba marcas magnéticas.
Estos computadores utilizaban la válvula de vacío. Por lo que eran equipos sumamente
grandes, pesados y generaban mucho calor.
La Primera Generación se inicia con la instalación comercial del UNIVAC construida por
Eckert y Mauchly. El procesador de la UNIVAC pesaba 30 toneladas y requería el espacio
completo de un salón de 20 por 40 pies.

SEGUNDA GENERACIÓN (1959-1964)

El Transistor Compatibilidad Limitada sustituye la válvula de vacío utilizada en la primera


generación. Los computadores de la segunda generación erán más rápidas, más pequeñas y con
menores necesidades de ventilación. Estas computadoras también utilizaban redes de núcleos
magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos
contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían
almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. COBOL desarrollado durante la 1era
generación estaba ya disponible comercialmente. Los programas escritos para
una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir
un programa ya no requería entender plenamente el hardware de la computación.

TERCERA GENERACIÓN (1964-1971)

Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación,


Minicomputadora
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos
integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en
una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más
rápidas, desprendían menos calor y eran energéticamente más eficientes.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para
aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados
permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía
realizar tanto análisis numéricos como administración ó procesamiento de archivos.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía
correr sus programas actuales. Las computadoras trabajaban a tal velocidad que
proporcionaban la capacidad de correr más de un programa de manera simultánea
(multiprogramación).

CUARTA GENERACIÓN (1971 A 1981)

Microprocesador, Chips de memoria, Microminiaturización


Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el
reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación
de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos
electrónicos. El tamaño reducido del microprocesadory de chips hizo posible la creación de las
computadoras personales (PC)
En 1971, intel Corporation, que era una pequeña compañía fabricante de
semiconductoresubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4
bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer
microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que
por su gran producciónde silicio, a partir de 1960 se convierte en una zona totalmente
industrializada donde se asienta una gran cantidad de empresas fabricantes
de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la
región más importante para las industrias relativas a la computación: creación de programas y
fabricación de componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o
computadoras personales, que utilizando diferentes estructuraso arquitecturas se pelean
literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de
los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes
avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en
un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las
más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness
Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer
(figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se
incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).

QUINTA GENERACIÓN Y LA INTELIGENCIA


ARTIFICIAL (1982-1989)

Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los
grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del
siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las
ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la
sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática,
podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación
de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y
computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas
expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras
ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases
de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el
inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad
de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con
supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte
del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo
con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de
trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios
microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación
especial que permita asignar diferentes tareas de un mismo proceso a los diversos
microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de
los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar
módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no
quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial
(Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad
de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También
tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad
para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas
expertos e inteligencia artificial.
El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades
de decenas de Gigabytes; se establece el DVD (Digital VideoDisk o Digital Versatile Disk) como
estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos
crece de manera exponencial posibilitando guardar más información en una de estas unidades,
que toda la que había en la Biblioteca de Alejandría. Los componentes de los
microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI
(Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se
distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no
hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás
momentáneo, de la inteligencia artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta
generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento
de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes,
medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia
Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental
del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de
procesamiento que haya encontrado previamente, (programación Heurística) que permita a la
Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la
Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para
obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores
tareas de procesamiento y toma de decisiones.

SEXTA GENERACIÓN (1990 HASTA LA FECHA)


Como supuestamente la sexta generación de computadoras está en marcha desde principios de
los años noventa, debemos por lo menos, esbozar las características que deben tener las
computadoras de esta generación. También se mencionan algunos de los avances tecnológicos
de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de
esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de
microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras
capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante
por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán
creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas
y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido
desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida;
teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
Sistemas de Numeración
 

363 Votes

Un sistema de numeración es el conjunto de símbolos y reglas que se utilizan para la representación


de datos numéricos y cantidades. Se caracteriza por su base que es el número de simbolos distintos
que utiliza,  y además es el coeficiente que determina cual es el valor de cada símbolo dependiendo de
la posición que ocupe.

Los sistemas de numeración actuales  son sistemas posicionales en los que el valor relativo que
representa cada símbolo o  cifra de una determinada cantidad depende de su valor absoluto y de la
posición relativa que ocupa dicha cifra con respecto a la coma decimal.

El sistema decimal

Es un sistema de numeración en el que las cantidades se representan utilizando como base el número
diez, por lo que se compone de las cifras: cero (0); uno (1); dos (2); tres (3); cuatro (4); cinco (5);
seis (6); siete (7); ocho (8) y nueve (9).

El sistema binario

Es un sistema de numeración en base 2, en el que los números se representan utilizando solamente


las cifras cero y uno (0 y 1). Los ordenadores trabajan internamente con dos niveles de voltaje, por lo
que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

Cada cifra o dígito de un número representado en este sistema se denomina BIT (contracción de
binary digit).

Para la medida de cantidades de información representadas en binario se utilizan una serie de


múltiplos del bit que poseen nombre propio; estos son:

1 bit = unidad mínima de información.

8 bits = 1 Byte

1 byte =1 letra, numero, símbolo de puntuación.

 Unidades de medida de almacenamiento

1,024 bytes = 1 Kilobyte, Kbyte o KB

1,024 KB= 1 Megabyte, Mbyte o MB (1,048,576 bytes)


1,024 MB= 1 Gigabyte, Gbyte o GB (1,073,741,824 bytes)

1,024 GB= 1 Terabyte, Tbyte o TB (1,099,511,627,776 bytes)

1,024 TB= 1 Pentabyte, Pbyte o PB (1,125,899,906,842,624 bytes)

Aprovecho para dejarles un video que puede ayudarlos a comprender el sistema binario.

Sistema Hexadecimal

El sistema hexadecimal, a veces abreviado como hex, es el sistema de numeración posicional de


base 16 —empleando por tanto 16 símbolos—. Su uso actual está muy vinculado a la informática y
ciencias de la computación.

En principio dado que el sistema usual de numeración es de base decimal y, por ello, sólo se dispone
de diez dígitos, se adoptó la convención de usar las seis primeras letras del alfabeto latino para suplir
los dígitos que nos faltan. El conjunto de símbolos sería, por tanto, el siguiente:

Un video para profundizar este tema:

 
Tabla de equivalencias

TIP:  Utilizando la clásica calculadora del sistema operativo Windows en modo científico, pueden
probar las equivalencias entre distintos sistemas de numeración. Solo deben ingresar una cantidad en
un sistema y  luego seleccionar otro sistema de numeración mediante las opciones disponibles en la
parte superior izquierda.  
INTRODUCCIÓN
La informática es importante ya que nos sirve de base para el desarrollo y desenvolvimiento
verbal y practico en esta área, este básicamente se trata del software en general, partes
y sistemas que lo conforman.
El hombre en su vida cotidiana trabaja desde el punto de vista numérico con el sistema decimal
y desde el punto de vista alfabético con un determinado idioma. Asimismo, la
computadora debido a su construcción, lo hace desde ambos puntos de vista con el sistema
binario, utilizando una serie de códigos que permiten su perfecto funcionamiento.
Tanto el sistema decimal como el binario están basados en los mismos principios. En ambos, la
representación de un número se efectúa por medio de cadenas de símbolos, los cuales
representan una determinada cantidad dependiendo del propio símbolo y de la posición que
ocupa dentro de la cadena.
Los sistemas de numeración que utiliza la computadora son: El Sistema Binario, el Decimal, el
Octal y el Hexadecimal.
En el presente trabajo se estudiarán los siguientes puntos: Sistemas de numeración, las
unidades de información y medida, así como, el software libre, su utilidad, características y
algunos tipos como el Colibrí y el Linux. Todos estos con el objetivo de poder garantizar al
lector el libre entendimiento y comprensión a la hora de manejar un sistema informático.
CONTENIDO
SISTEMA BINARIO
 Es un sistema de numeración que utiliza internamente hardware de
las computadoras actuales. Se basa en la representación de cantidades utilizando los dígitos 1 y
0, por tanto su base es dos (numero de dígitos de sistemas). Cada digito de un numero
representado en este sistema se representa en BIT (contracción de binary digit).
 Los ordenadores trabajan internamente con dos niveles de voltaje, por lo que su sistema de
numeración natural es el sistema binario (encendido '1', apagado '0').
 SISTEMA OCTAL
 Es un sistema de numeración cuya base es 8 , es decir, utiliza 8 símbolos para la
representación de cantidades . Estos sistemas es de los llamados posiciónales y la posición de
sus cifras se mide con la relación a la coma decimal que en caso de no aparecer se supone
implícitamente a la derecha del numero. Estos símbolos son:
01234567
Los números octales pueden construirse a partir de números binarios agrupando cada tres
dígitos consecutivos de estos últimos (de derecha a izquierda) y obteniendo su valor decimal.
Por ejemplo, el número binario para 74 (en decimal) es 1001010 (en binario), lo agruparíamos
como 1 001 010. De modo que el número decimal 74 en octal es 112.
 En informática, a veces se utiliza la numeración octal en vez de la hexadecimal. Tiene la
ventaja de que no requiere utilizar otros símbolos diferentes de los dígitos.
 Es posible que la numeración octal se usara en el pasado en lugar de la decimal, por ejemplo,
para contar los espacios interdigitales o los dedos distintos de los pulgares. Esto explicaría
porqué en latín nueve (novem) se parece tanto a nuevo (novus). Podría tener el significado de
número nuevo.
SISTEMA DECIMAL
  Es uno de los sistema denominado posiciónales, utilizando un conjunto de símbolos cuyo
significado depende fundamentalmente de su posición relativa al símbolo, denominado coma
(,) decimal que en caso de ausencia se supone colocada a la derecha. Utiliza como base el 10,
que corresponde al número del símbolo que comprende para la representación de cantidades;
estos símbolos son:
0123456789
Este conjunto de símbolos se denomina números árabes. Es el sistema de numeración usado
habitualmente en todo el mundo (excepto ciertas culturas) y en todas las áreas que requieren
de un sistema de numeración. Sin embargo contextos, como por ejemplo en la informática,
donde se utilizan sistemas de numeración de propósito más específico como el binario o
el hexadecimal.
 El sistema decimal es un sistema de numeración posicional, por lo que el valor del dígito
depende de su posición dentro del número. Ejemplo:
 SISTEMA HEXADECIMAL
 Es un sistema posicional de numeración en el que su base es 16, por tanto, utilizara 16
símbolos para la representación de cantidades. Estos símbolos son:
0123456789ABCDEF
 
Su uso actual está muy vinculado a la informática. Esto se debe a que un dígito hexadecimal
representa cuatro dígitos binarios (4 bits = 1 nibble); por tanto, dos dígitos hexadecimales
representan ocho dígitos binarios (8 bits = 1 byte, (que como es sabido es la unidad básica
de almacenamiento de información).
 Dado que nuestro sistema usual de numeración es de base decimal, y por ello sólo disponemos
de diez dígitos, se adoptó la convención de usar las seis primeras letras del alfabeto latino para
suplir los dígitos que nos faltan: A = 10, B = 11, C = 12, D = 13, E = 14 y F = 15. Como en
cualquier sistema de numeración posicional, el valor numérico de cada dígito es alterado
dependiendo de su posición en la cadena de dígitos, quedando multiplicado por una
cierta potencia de la base del sistema, que en este caso es 16.
Por ejemplo:
3E0,A16 = 3×162 + E×161 + 0×160 + A×16-1 = 3×256 + 14×16 + 0×1 + 10×0,0625 = 992,625.
 CONVERSIONES NUMÉRICAS
 Conversión de binario a decimal
 El sistema de numeración binario es un sistema de posición donde cada dígito binario (bit)
tiene un valor basado en su posición relativa al LSB. Cualquier número binario puede
convenirse a su equivalente decimal, simplemente sumando en el número binario las diversas
posiciones que contenga un 1.
Ejemplo:  Cómo cambiar el número binario 11012 al sistema decimal.
11012    =    1  x  23   +   1  x  22   +   0  x  21   +   1  x  20
=    1  x  8   +   1  x  4   +   0  x  2   +   1  x  1
=     8   +   4   +   0   +   1
=    13
Resultado
11012    =    1310
Conversión de decimal a binario
Para cambiar un número decimal a número binario, se divide el número entre dos.  Se escribe
el cociente y el residuo.  Si el cociente es mayor de uno, se divide el cociente entre dos.  Se
vuelve a escribir el cociente y el residuo. Este proceso se sigue realizando hasta que el cociente
sea cero.  Cuando el cociente es cero, se escribe el cociente y el residuo.  Para obtener el número
binario, se escribe cada uno de los residuos comenzando desde el último hasta el primero de
izquierda a derecha, o sea, el primer residuo se escribe a la izquierda, el segundo residuo se
escribe a la derecha del primer residuo, y así sucesivamente.
Ejemplo:  
Cómo cambiar el número 10 del sistema decimal al sistema binario

 BIT
  Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de
numeración binario.
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo
digital, o en la teoría de la información. Con él, podemos representar dos valores cualesquiera,
como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino,
amarillo o azul, un nervio estimulado o un nervio inhibido. (Sabemos que no todo lo que se
encuentra en nuestro universo es blanco o negro, pero aún así podemos utilizar esta forma
binaria de representación para expresar estados intermedios logrando la precisión deseada),
etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de
"encendido" (1).
  Podemos imaginarnos un bit como una bombilla que puede estar en uno de los siguientes dos
estados:

 BYTE
  Se describe como la unidad básica de almacenamiento de información, generalmente
equivalente a ocho bits (01011101), pero el tamaño del byte depende del código de
caracteres o código de información en el que se defina.
 KILOBYTE
Un kilobyte (pronunciado /kilobáit/) es una unidad de medida común para la capacidad
de memoria o almacenamiento de las computadoras. Es equivalente a 1024 (o 210) bytes.
Generalmente se abrevia como KB, K, kB, Kbyte o k-byte. Las PC de IBM más antiguas, por
ejemplo, tenían una capacidad máxima de 640 K, o alrededor de 640 000 caracteres de datos.
MEGABYTE
El Megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo
binario del byte, que equivale a 220 (1 048 576) bytes, traducido a efectos prácticos como 106
(1 000 000) bytes.
GIGABYTE
Un gigabyte (de símbolo GB ó GiB) es una unidad de medida informática equivalente a mil
millones de bytes (no confundir con el billón americano). Dado que los ordenadores trabajan
en base binaria, en lugar de que un gigabyte sea 10³ megabytes (1000 MiB), el término gigabyte
significa 210 megabytes (1024 MiB). Pero si somos exactos, 1 GB son 1.073.741.824 bytes ó
1.024 MB. En este último caso, puede ser abreviado como GiB (recomendado) ó GB
TERABYTE
Una unidad de almacenamiento tan desorbitada que resulta imposible imaginársela, ya que
coincide con algo más de un trillón de bytes. Un uno seguido de dieciocho ceros. Su símbolo es
el TB y es equivalente a 240 bytes.
Debido a irregularidades en la definición y uso del Kilobyte, el número exacto de bytes en un
Terabyte en la práctica, podría ser cualquiera de los siguientes valores:
 1,000,000,000,000 bytes - 1012. Esta definición es la que se usa en el contexto general
cuando se refiere a almacenamiento en discos, redes u otro hardware.
 1,099,511,627,776 bytes - 10244 o 240. Esto es 1024 veces un Gigabyte (un Gigabyte
'binario'). Esta es la definición mas usada en las ciencias de la computación (computer
science) y en programación (computer programming) y, la mayor parte del software,
emplea también ésta definición.

CONVERSION DE BIT, BYTE, KILOBYTE, MEGABYTE Y TERABYTE

UNIDADES DE MEDIDAS
 Hz

 El hercio es la unidad de frecuencia del Sistema Internacional de Unidades. Proviene del
apellido del físico alemán Heinrich Rudolf Hertz, descubridor de la transmisión de
las ondas electromagnéticas. Su símbolo es hz. (que se escribe sin punto). En inglés se llama
hertz (y se pronuncia /jérts/).
 Un hercio representa un ciclo por cada segundo, entendiendo ciclo como la repetición de un
evento.
 Un hertzio significa simplemente "uno por segundo " (1/s); 100 medios "ciento del hertzio por
segundo", etcétera. La unidad se puede aplicar a cualquier acontecimiento periódico - por
ejemplo, un reloj se pudo decir para hacer tictac en 1 hertzio, o un corazón humano se pudo
decir para batir en 1,2 hertzios. La frecuencia de acontecimientos aperiódicos, tales como
radiactivo se decae, se expresa en becquerels .
Para evitar la confusión, los ángulos periódicamente que varían no se expresan típicamente en
hertzios, sino algo en una unidad angular apropiada tal como radianes por segundo. Un disco
que rota en 1 revolución por el minuto (RPM) se puede decir así para rotar en 0,105
rad/s o 0,017 hertzios, donde el último refleja el número de revoluciones completas por
segundo.
Ejemplo:
En los Estados Unidos, el suministro común de energía doméstica es a 60 hertzios (lo que
significa que la corriente cambia de dirección o polaridad 120 veces, o 60 ciclos, cada segundo).
En Europa, la frecuencia de línea es de 50 hertzios, o 50 ciclos por segundo, la transmisión
de radio se realiza a tasas de frecuencia mucho mayores, habitualmente expresadas en
kilohertzios (KHz) or megahertzios (MHz).
 Megahertz

Megahertzio, múltiplo del hertzio igual a 1 millón de hertzios. Utilizado para medir la
"velocidMegahertzios, es una medida de frecuencia (número de veces que ocurre algo en un
segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones
de pasos por segundo.
En la velocidad real de trabajo no sólo influyen los MHz, sino también
la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie
X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHzad bruta" de
los microprocesadores.
 Ejemplo:
Si usted mira el dial de un receptor de radio, encontrará que lleva una indicación de frecuencias
o longitudes de onda. La mayoría de los receptores tienen varias bandas de ondas y éstas
pueden ser seleccionadas por medio de un botón llamado comúnmente el "selector de bandas
de ondas", que le ofrece a usted una elección, por ejemplo, entre la banda de onda media
(emisoras standard), la de la onda corta, o bandas de onda corta y la banda FM.
Cada una de estas bandas del receptor pertenece a una de las asignaciones oficiales de bandas
de frecuencias. La banda entre 3 y 30 kHz se denomina banda VLF (de Muy Baja Frecuencia)
(1Hz (Hertzio) es 1 ciclo por segundo, 1 kHz (Kilohertzio) es 1000 c/s, 1 MHz (Megahertzio) es
1.000.000 c/s).
El margen de 30 - 300 kHz recibe el nombre de banda de Baja Frecuencia en la cual se
encuentran las emisoras de radiodifusión de onda larga; la banda de 300 - 3.000 kHz es la de
la frecuencia media; entre 3.000 y 30.000 kHz es decir, entre 3 y 30 MHz, hallamos la banda
de alta frecuencia, mejor conocida como banda de onda corta, donde los equivalentes métricos
de las frecuencias se extienden entre 100 y 10 metros. Por encima de 30 MHz está la banda de
VHF (Muy Alta Frecuencia); por encima de 300 MHz se habla de banda de Ultra Alta
Frecuencia (UHF)
 Nanosegundo

Un nanosegundo es la milmillonésima parte de un segundo, 10-9. Es decir, en un segundo hay


1.000.000.000 de nanosegundos. Se trata de una escala de tiempo muy pequeña, pero bastante
común en los ordenadores, cuya frecuencia de proceso es de unos cientos de Megahercios.
Decir que un procesador es de 500 Mhz, es lo mismo que decir que tiene 500.000.000 ciclos
por segundo, o que tiene un ciclo cada 2 ns.
 Ejemplo:
Este tiempo tan corto no se usa en la vida diaria, pero es de interés en ciertas áreas de la física,
la química y en la electrónica. Así, un nanosegundo es la duración de un ciclo de reloj de un
procesador de 1 GHz, y es también el tiempo que tarda la luz en recorrer aproximadamente 30
cm.
 Milisegundo

Un milisegundo es el período de tiempo que corresponde a la milésima fracción de un segundo


(0,001s).
 Microsegundo

Es una Unidad de tiempo, equivalente a una milésima parte de un segundo. (ms).


Ejemplo:
Numerosas personas, no obstante, se han dado cuenta de que en 49.7 días hay 4294080000
milisegundos. Esa cifra es muy semejante a 2^32 = 4294967296.
En otras palabras, un registro de 32 bits podría contar 4294967296 milisegundos o, lo que es lo
mismo, 49'7103 días (exactamente, 49 días, 17 horas, 2 minutos y 47'296 segundos).
SOFTWARE LIBRE
Software libre (en inglés free software) es el software que, una vez obtenido, puede ser usado,
copiado, estudiado, modificado y redistribuido libremente. El software libre suele estar
disponible gratuitamente en Internet, o a precio del coste de la distribución a través de otros
medios; sin embargo no es obligatorio que sea así y, aunque conserve su carácter de libre,
puede ser vendido comercialmente. Análogamente, el software gratis o gratuito (denominado
usualmente Freeware) incluye en algunas ocasiones el código fuente; sin embargo, este tipo de
software no es libre en el mismo sentido que el software libre, al menos que se garanticen
los derechos de modificación y redistribución de dichas versiones modificadas del programa.
No debemos confundir software libre con software de dominio público. El término
inglés free es ambiguo, y puede refererirse tanto a la libertad (free speech, libertad de
expresión) como a la gratuidad (free beer, cerveza gratis). En español no existe tal ambigüedad,
distinguiéndose claramente el software libre (objeto del presente artículo) del software
gratis o gratuito (freeware).
El freeware suele incluir una licencia de uso, que permite su redistribución pero con algunas
restricciones, como no modificar la aplicación en sí, ni venderla, y dar cuenta de su autor.
También puede desautorizar el uso en una compañía con fines comerciales o en una entidad
gubernamental.
Algunos desarrolladores liberan versiones freeware de sus productos para obtener un número
de seguidores que puedan estar dispuestos a pagar por una versión más completa, o porque es
una edición obsoleta de un programa.
Otros lo hacen porque no consideran que ese programa pueda generar una ganancia
económica, o porque creen en el valor de ofrecer algo gratis.
Contrariamente a lo que se cree, los programas de software libre no necesariamente son
freeware. Esto usualmente deriva de una confusión sobre el significado de la palabra free en
inglés, que puede ser tanto gratis como libre, es decir, un tipo de software cuya licencia
autoriza su uso, modificación y redistribución con y sin cambios.
Otros tipos de licencias de distribución de software
son shareware, postcardware, donationware o abandonware, entre otros.
SOFTWARE LIBRES ACTUALES
 LYNUX:

Desarrollado por: Equipo Interdisciplinario


Tipo de Recurso: Articulo.
Tipo de Destinatario: General
Tipo Acceso (costo): Libre - Gratuito - Fuente Abierta – GNU
Este documento aborda las distintas formas en las que se puede utilizar un ordenador de Linux
sin dañar el medioambiente. Para ello se propone poner en práctica sus funciones y así ahorrar
papel y energía.
Puesto que Linux no necesita un hardware complejo, se puede utilizar en computadores no tan
modernos y así prolongará la duración de éstos.
Se podrán usar juegos para desarrollar la educación medioambiental y un software que
estimule los procesos ecológicos.
 COLIBRÍ

Desarrollado por: Comunidad de Usuarios de Software Libre en Colombia


Tipo de Recurso: Sitio Web
Tipo de Destinatario: General
Tipo Acceso (costo): Libre - Gratuito - Fuente Abierta – GNU
Colibrí es una organización democrática que busca reunir a los interesados en el software libre
en Colombia: Documentos, eventos y noticias sobre este tipo de programas en Colombia.
En la sección documentos encontrará un listado de preguntas frecuentes sobre el uso de
software libre, así como el proyecto de ley que se esta impulsando en este país.
CONCLUSIÓN
El sistema de numeración es el conjunto de símbolos utilizados para la representación de
cantidades, así como las reglas que rigen dicha representación. En la informática se usaron
muchos sistemas de numeración como lo fue el sistema binario, decimal, octal y hexadecimal
ya que fueron muy útil para la realización de varios programas pero la tecnología ha avanzado
tanto que ya estos sistemas están si se puede decir obsoleto.
 El sistema decimal que es uno de los denominados sistemas posicionales.
 El Sistema binario que utiliza internamente el hardware de las computadoras actuales.
 El sistema de numeración Octal cuya base es 8
 El hexadecimal que utiliza 16 símbolos para la representación de cantidades.

Para la realización de estos programas se tenia que realizar algunas conversiones numéricas
que son de decimal-binario (se divide el número entre dos) y binario-decimal (se suma en el
número binario las diversas posiciones que contengan 1).
En cuanto al software libre suele estar disponible gratuitamente en Internet, o a precio del
coste de la distribución a través de otros medios; sin embargo no es obligatorio que sea así y,
aunque conserve su carácter de libre, puede ser vendido comercialmente. Una vez obtenido,
puede ser usado, copiado, estudiado, modificado y redistribuido libremente.
Existen diversos tipos de software libre entre ellos están el colibrí y el Lynux.
RECOMENDACIONES
 Desde cualquier sistema de conversión es más fácil pasarlo a binario y luego al sistema
asignado.
 Conocer un poco o a cabalidad sobre los términos informáticos más comentados en el
día a día como hertz byte. Más si estudias la carrera como tal.
 Tener en cuenta que la migración hacia el software libre no es un proceso sencillo hay
que tomar las medidas necesarias para el adiestramiento del personal y su capacitación para
el buen desempeño del sistema.
 Al implementar el software libre deberían tomar en cuenta el soporte que exista para
los diferentes programas utilizados actualmente, como son el caso del Autocad, Saint, etc.
La Computadora

1. Introducción a la Arquitectura de Computadores


La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de
un sistema que conforma una computadora. Es decir, es un modelo y una descripción funcional de los
requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés
en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de
memoria.

La arquitectura de una computadora explica la situación de sus componentes y permite determinar


las posibilidades de un sistema informático, con una determinada configuración, pueda realizar
las operaciones para las que se va a utilizar. La arquitectura básica de cualquier ordenador completo está
formado por solo 5 componentes básicos: procesador, memoria RAM, disco duro, dispositivos de
entrada/salida y software.

1.1 Conceptos Iniciales de la Arquitectura de


Computadores
Un computador es un sistema secuencial síncrono complejo que procesa información, esta se trata de
información binaria, utilizando solamente los dígitos de valores lógicos ‘1’ y ‘0’. Estos valores lógicos
binarios se corresponden con valores de tensión eléctrica, de manera que un ‘1’ lógico corresponde a un nivel
alto a 5 voltios y un ‘0’ lógico corresponde a un nivel bajo de tensión cercano a 0 voltios; estos voltajes
dependen de la tecnología que utilicen los dispositivos del computador.

1.1.1 Procesador

            Es el cerebro del sistema, encargado de procesar todos los datos e informaciones. A pesar de que es un
dispositivo muy sofisticado no puede llegar a hacer nada por sí solo. Para hacer funcionar a este necesitamos
algunos componentes más como lo son memorias, unidades de disco, dispositivos de entrada/salida y los
programas. El procesador o núcleo central está formado por millones de transistores y componentes
electrónicos de un tamaño microscópico. El procesamiento de las tareas o eventos que este realiza va en
función de los nanosegundos, haciendo que los miles de transistores que contiene este trabajen en el orden de
los MHz. La información binaria se introduce mediante dispositivos periféricos que sirven de interfaz entre el
mundo exterior con el usuario. Estos periféricos lo que van a hacer será traducir la información que el usuario
introduce en señales eléctricas, que serán interpretadas como unos y ceros, los cuales son interpretados de una
manera más rápida por la computadora, ya que el lenguaje maquina utiliza el código binario para ser
interpretado por el computador.

            Un sistema jerárquico es un conjunto de sistemas interrelacionados, cada uno de los cuales se organiza
de manera jerárquica, uno tras otro, hasta que alcanza el nivel más bajo de subsistema elemental. Una posible
clasificación seria:

1.      Nivel de Componente. Los elementos de este nivel son difusiones de impurezas


tipo P y de tipo N en silicio, polisilicio cristalino y difusiones de metal que sirven para
construir los transistores.

2.      Nivel Electrónico. Los componentes son transistores, resistencias, condensadores y


diodos construidos con las difusiones del nivel anterior. Esta tecnología de muy alta escala
de integración o VLSI es la que se utiliza en la fabricación de circuitos integrados. En este
nivel se construyen las puertas lógicas a partir de transistores.

3.      Nivel Digital. Se describe mediante unos y ceros son las puertas lógicas, biestables y
otros módulos tanto combinacionales como secuenciales. Este nivel es la aplicación del
algebra booleana y las propiedades de la lógica digital.

4.      Nivel RTL. El nivel de transferencia de registros RTL será el preferido para la


descripción de los computadores. Elementos típicos en este nivel de abstracción son los
registros y módulos combinacionales aritméticos.

5.      Nivel PMS. Este nivel es el más alto de la jerarquía. Las siglas PMS provienen del
ingles Processor Memory Switch. Con elementos de jerarquía los buses, memorias,
procesadores y otros módulos de alto nivel.

1.2 Arquitectura Clásica de un Computador Modelo Von


Neumann
            La arquitectura Von Neumann tiene sus orígenes en el trabajo del matemático John Von Neumann
desarrollado con John Mauchly y John P. Eckert y divulgado en 1945 en la Moore School de la Universidad
de Pensilvania, Estados Unidos, en el que se presentaba e EDVAC ( Electronic Discrete Variable Automatic
Computer). De aquí surgió la arquitectura del programa almacena en memoria y búsqueda/ejecución
secuencial de instrucciones. En términos generales una computadora tiene que realizar 3 funciones:

ü  Procesamiento de Datos

ü  Almacenamiento de Datos

ü  Transferencia de Datos

Tal que un PC (Personal Computer) debe procesar datos, transformando la información recibida, de igual
forma tiene que almacenar datos, como resultado final de estas. También debe de realizar  transferencia de
datos entre su entorno y el mismo. La arquitectura de un computador hace referencia a la organización de sus
elementos en módulos con una funcionabilidad definida y a la iteración entre ellos. En el esquema de la
Figura 1.1 se muestra la estructura básica de Von Neumann que debe llevar una computadora para su correcta
operación.

FIGURA 1.1: ESTRUCTURA BÁSICA DE UNA COMPUTADORA.

·         CPU (por el acrónimo en inglés de central processing unit) : La unidad central de proceso es el


corazón del computador. Controla el flujo de datos, los procesa, y gobierna el secuenciamiento de las acciones
en todo el sistema. Para ello necesita un oscilador externo o reloj que sincroniza las operaciones y marca la
velocidad de proceso, este va  marcando la evolución del CPU y mide su velocidad de funcionamiento; en
forma no afortunada la frecuencia del reloj del CPU viene limitada por la tecnología del CPU y del
computador completo ya dependiendo de los periféricos, sus tarjetas graficas, memorias, etc. Por lo tanto, el
uso excesivo de los recursos que tenga la computadora puede resultar un sobrecalentamiento que deteriore
parcial o totalmente la CPU.

·         Memoria: es la responsable del almacenamiento de datos.

·         Entrada/Salida: transfiere datos entre el entorno exterior y el computador. En él se encuentran los


controladores de periféricos que forman la interfaz entre los periféricos, la memoria y el procesador.

·         Sistema de interconexión: Buses; es el mecanismo que permite el flujo de datos entre la CPU, la
memoria y los módulos de entrada/salida. Aquí se propagan las señales eléctricas que son interpretadas como
unos y ceros lógicos.

·         Periféricos: estos dispositivos son los que permiten la entrada de datos al computador, y la salida de
información una vez procesada. Un grupo de periféricos puede entenderse como un conjunto de transductores
entre la información física externa y la información binaria interpretable por el computador. Ejemplos de
estos dispositivos son el teclado, el monitor, el ratón, el disco duro y las tarjetas de red.

1.2.1 Unidad Central de Procesamiento


     Controla el funcionamiento de los elementos de un computador. Desde que el sistema es alimentado por
una corriente, este no deja de procesar información hasta que se corta dicha alimentación. La CPU es la parte
más importante del procesador, debido a que es utilizado para realizar todas las operaciones y cálculos del
computador. La CPU tiene a su vez otra estructura interna que se muestra en la Figura 1.2.

FIGURA 1.2: ESTRUCTURA DE LA CPU Y SU CONEXIÓN CON LA MEMORIA.

·         Unidad de Control (UC): La unidad de control se encarga de leer de la memoria las instrucciones que
debe de ejecutar y de secuenciar el acceso a los datos y operaciones a realizar por la unidad de proceso. La
UC genera las señales de control que establecen el flujo de datos en todo el computador e interno en la CPU.
Una instrucción no es más que una combinación de unos y ceros. Consta de un código de operaciones binarias
para ejecutar la instrucción, la UC la almacena en un registro especial, interpreta su código de operación y
ejecuta la secuencia de acciones adecuada, en pocas palabras decodifica la instrucción.

·         Unidad Aritmética Lógica o ALU (por su acrónimo en ingles Arithmetic Logic Unit): Es la parte de
la CPU encargada de realizar las transformaciones  de los datos. Gobernada por la UC, la ALU consta de una
serie de módulos que realizan operaciones aritméticas y lógicas. La UC se encarga de seleccionar la operación
a realizar habilitando los caminos de datos entre los diversos operadores de la ALU y entre los registros
internos.

·         Registros Internos: el almacenamiento de los resultados a la ejecución de las instrucciones en la


memoria principal podría ser lento y excesivamente tendría muchos datos en el sistema de interconexión con
la memoria, con lo que el rendimiento bajaría. De la misma manera también se almacenan en registros
internos la configuración interna del CPU o la información durante la última operación de la ALU. Los
principales registros de un CPU son:

1.     Contador de programa.- se encarga de almacenar la dirección de la siguiente


instrucción a ejecutar.

2.     Registro de Instrucción.- se almacena la instrucción capturado en memoria y la que se


está ejecutando.

3.     Registro de Estado.- compuesto por una serie de bits que informan el resultado
obtenido en la última operación de la ALU.
4.    Registro Acumulador.- algunos CPU’s realizan operaciones aritméticas en un registro
llamado acumulador, su función es la de  almacenar los resultados de las operaciones
aritméticas y lógicas.

El ciclo para ejecutar cualquier instrucción se divide en ciclo de búsqueda y ciclo de


instrucción como es ilustrado en el esquema de la Figura 1.3 . El primero hace que el CPU genere señales
adecuadas para acceder a la memoria y leer la instrucción; el segundo es similar; la diferencia entre los dos es
el código de operación de cada instrucción.

                                                        

FIGURA 1.3: CICLOS DE LA MAQUINA VON NEUMANN

1.2.2 Memoria
            En la memoria se almacena el programa y los datos que va a ejecutar el CPU. Las instrucciones son
códigos binarios interpretados por la unidad de control, los datos de igual manera se almacenan de forma
binaria.

            Las diversas tecnologías de almacenamiento, dependen del tiempo de acceso a los datos; por lo tanto
se realiza un diseño jerárquico de la memoria del sistema para que esta pueda acceder rápidamente a los datos.
El principio de que sea más rápida la memoria haciendo que tenga velocidades similares al CPU, sirve para
diseñar el sistema de memoria. La memoria principal de los computadores tiene una estructura similar a la
mostrada en el esquema de la Figura 1.4. Se considera como una matriz de celdas en la que la memoria puede
acceder a los datos aleatoriamente.
FIGURA 1.4: ESQUEMA DE UNA MEMORIA DE ACCESO ALEATORIO.

            Dicha matriz está organizada en palabras, cada una de las cuales tiene asignada una dirección que
indica su posición. Cada palabra está formada por una serie de celdas a las que se accede en paralelo; en cada
una se almacena un bit y estos son los que definen las instrucciones.

1.2.3 Entrada/Salida
            Como sabemos una computadora tiene dispositivos de entrada y salida como son los que contiene el
gabinete, disco duro, placa madre, unidades de CD o DVD, etc. El problema principal que existe entre ellos es
su tecnología y que tienen características diferentes a los del CPU, estos también necesitan una interfaz de
cómo se van a entender con el CPU, al igual que el procesador y el controlador periférico para intercambiar
datos entre la computadora.

            En la Figura 1.5 se muestra como cada control de periférico tiene una dirección única en el sistema. La
interfaz de E/S decodifica el bus de direcciones para detectar que el CPU se dirige a él. El direccionamiento
es muy similar a la de las memorias. El bus de datos se utiliza para el paso de datos entre el periférico y la
memoria. Las líneas especiales de control sirven para coordinar y sincronizar la transferencia.
FIGURA 1.5: ESQUEMA DE UNA INTERFAZ DE ENTRADA/SALIDA.

1.2.4 Sistema de Interconexión: Buses.


                La conexión de los diversos componentes de una computadora, tales como discos duros, tarjetas
madres, unidades de CD, teclados, ratones, etc. se efectúan a través de los buses. Un bus se define como un
enlace de comunicación compartido que usa múltiples cables para conectar subsistemas. Cada línea es capaz
de transmitir una tensión eléctrica que representa un ‘1’ o un ‘0’. Cuando hay varios dispositivos en el mismo
bus, habrá uno que podrá enviar una señal que será procesada por los demás módulos. Si se mandan los datos
al mismo tiempo marcara un error o una contención del bus, por lo que el acceso estará denegado. Según si
criterio de funcionabilidad los buses se dividen en:

·         Buses de datos: es el que se utiliza para transmitir datos entre los diferentes dispositivos del
computador.

·         Buses de Direcciones: sirve para indicar la posición del dato que se requiere acceder.

·         Bus de Control: sirven para seleccionar al emisor y al receptor en una transacción del bus.

·         Bus de alimentación: sirve para proporcionar a los dispositivos  voltajes distintos.

1.2.5 Periféricos.
                Se entenderán todos aquellos dispositivos que son necesarios para suministrar datos a la
computadora o visualizar los resultados. Los periféricos se conectan mediante un bus especial a su
controlador o al modulo de E/S.
                Entre los periféricos de entrada tenemos al teclado, ratones, pantallas, digitalizadoras y más. Otros
dispositivos periféricos fundamentales para la interacción del hombre con la computadora son las terminales
de video y las tarjetas graficas.

1.3 Tecnología de los computadores.


                Las tendencias tecnológicas van avanzando con el paso del tiempo, así mismo en términos
informáticos y de electrónica van saliendo circuitos integrados digitales más veloces, lo cual también va
ligado en términos monetarios altos, las actualizaciones de un sistema de computo sale relativamente costoso
dependiendo de las características de la tecnología que se le este implementando. Los circuitos integrados
como sabemos hoy en día estos se van haciendo aun más pequeños ya que existen muchos avances en la
tecnología en las ciencias de la miniaturización como son la micro y nanotecnología que estos ocupan, ya que
los dispositivos que antes eran enormes y ocupaban el tamaño de una habitación ahora son tan pequeños que
pueden caber en la palma de nuestras manos. Lo que implica que los sistemas avancen son los siguientes
términos:

·         Tecnología: los transistores utilizados por los dispositivos de un computador son los llamados
transistores de unión bipolar o BJT que estos a su vez generaron familias tecnológicas como lo son los TTL.
Esta tecnología ha tenido como ventajas su facilidad para suministrar corriente y su rapidez, apareciendo
como desventaja su alto consumo de energía en comparación con los CMOS; esta segunda tecnología se basa
en la utilización de transistores de efecto de campo, es elegida actualmente para fabricar la mayoría de los
CPU’s. otra tecnología como la BiCMOS combina en un solo proceso tecnológico de transistores BJT y
CMOS tratando de combinar las ventajas de ambos.

·         Velocidad: hace referencia al tiempo de respuesta y los retrasos inevitables que aparecen en su


funcionamiento. Esto hace que los CI más sencillos dependan de la tecnología utilizada. El problema de la
velocidad estribara en que la ejecución paralela requerirá más circuitería y el circuito seria mayor.

·         Escala de Integración: los CIs (Circuitos Integrados) CMOS se construyen a partir de la litografía que
se aplican mascaras que proyectan las siluetas de los polígonos que forman a los transistores. Se trata la oblea
químicamente y en las diferentes fusiones se hacen los transistores; estos se dividen en segmentos que pueden
alcanzar a las micras de tamaño. Cuanto mejor y preciso sea el proceso de la creación de las difusiones, los
tamaños serán menores, y por tanto en una misma superficie de silicio  se podría incluir más lógica.

·         Tamaño: depende de la fabricación del CI ya sea sencillo o que tan complejo pueda ser este para las
operaciones para la cual fue programado.

1.3.1 Circuitos de Memoria.


                El almacenamiento de la información se hace a través de dispositivos de memoria que almacenan la
información de forma binaria para después tener la posibilidad de recuperar dichos datos. Estos contribuyen
una jerarquía en la que están más cerca de la CPU los dispositivos  más rápidos y en niveles más alejados los
dispositivos más lentos. Los parámetros más importantes para medir los circuitos de memoria son:

·         Tiempo de Acceso: es el tiempo necesario para poder recuperar la información de los


dispositivos de memoria.
·         Densidad de información: depende de la tecnología utilizada ya que ocupan un espacio
distinto por cada bit de información.

·         Volatilidad: se refiere a la pérdida de información si no se mantiene en alimentación al


circuito, esta información debe de recuperarse de forma automática cuando se conecte de nuevo la
alimentación y comience el funcionamiento de la computadora.

a)   RAM estática asíncrona.

                Es una memoria volátil, de acceso rápido que puede almacenar y leer información su característica
es que la hace ideal para ser memoria principal en los ordenadores, la celda de almacenamiento de la SRAM
contiene 4 transistores MOS que almacenan 1 y 0 mientras se mantenga la alimentación del circuito.

b) RAM estática síncrona

                Utiliza la misma tecnología que las SRAM, con lo que son volátiles y de rápido acceso. La
diferencia es que existe una señal de reloj que sincroniza el proceso de lectura y escritura. Las memorias
cache externas de algunos microprocesadores son de este tipo para facilitar el acceso de datos en modo ráfaga
y acelerar el proceso de acceso a bloques de memoria.

c) RAM Dinámica.

                La DRAM tiene capacidades que accede con un solo transistor, en vez de celdas con varios
transistores. El problema es que las capacidades se descargan mediante la corriente de pérdidas de transistores
y aparte son lentas comparadas con la SRAM; tienen una estructura de forma de matriz, estando
multiplexadas las direcciones en forma de filas y columnas, tienen modos de acceso más rápido en lo que
suministra la parte alta de dirección; este modo de acceso se denomina modo pagina y acelera el acceso al no
tener que suministrar para cada acceso la dirección de página completa.

d) Memorias ROM

                Las memorias de solo lectura una vez que han sido escritas o programadas solo se puede leer el
contenido de las celdas, se suelen utilizar para almacenar el código que permite arrancar a los sistemas; estas
se fabrican para aplicaciones masivas con mascaras de silicio. Hay 3 tips de memorias ROM que pueden ser
programadas en el laboratorio, algunas pueden ser borradas.

·         Memoria PROM: son memorias ROM programables eléctricamente mediante un programador especial


que genera picos de alta tensión, que funden físicamente unos fusibles grabando en el dispositivo de forma
permanente. Tienen el inconveniente que no pueden ser borradas y para su lectura requieren una tarjeta
especial.

·         Memoria EPROM: se programan también con un dispositivo de programación conectado al ordenador


la diferencia con la PROM es que estas si se pueden borrar; se realiza mediante rayos UV, para que suceda
esto las EPROM tienen una ventana de cuarzo pequeña transparente en la cual se hace la exposición de la
matriz de celdas como se muestra en la figura 1.6. Una vez programadas se tiene que etiquetar esta ventana
para evitar que sea borrada accidentalmente.
FIGURA 1.6 MEMORIA EPROM

·         Memoria EEPROM: son memorias programables y borrables mediante un dispositivo especial que se


conectara al ordenador.

e) Memoria FLASH

                Son memorias que tienen un comportamiento igual a una SRAM, pero en su escritura es diferente,
deben ser primero borradas y después escritas; este tipo de memorias tienen internamente un registro de
instrucción y una maquina de estados que genera las señales necesarias para borrar/escribir en un bloque o en
toda la memoria.

La memoria se divide en varias capas o niveles con una estructura cuya forma puede recordarnos a
una estructura piramidal. La tabla 1.1 que se muestra a continuación nos muestra el tamaño máximo y mínimo
que pueden presentarnos las memorias flash, así como el tiempo que tardan al accesar a la información.

Nombre Tamaño Máximo Tiempo de Acceso

Registros Hasta 200 Bytes Menos de 10 Nanosegundos

Memoria Caché Hasta 512 Bytes Entre 10 y 30 Nanosegundos

Memoria Más de 1 Gigabyte Entre 30 y 100 Nanosegundos


Principal

Tabla 1.1. Capas en la que se divide la memoria.

 1.4 La Mejor Configuración.


                Lo primero que debemos de tomar en cuenta para la configuración de nuestro equipo es para que va
a ser destinado, es decir, que programas serán utilizados en el. Por ejemplo un PC utilizado en una oficina
ocupa Word, Excel e Internet, no necesita tener un procesador poderoso, pero es indispensable proporcionarlo
de una buena memoria RAM y un disco duro rápido en cuanto a lectura y escritura de datos. En cambio
cuando una computadora es destinada para aplicaciones pesadas o para juegos con gráficos tridimensionales,
lo principal es tener un procesador rápido combinado con una buena y rápida tarjeta de gráficos.

1.4.1 La Placa Base


                Es el componente principal, por lo tanto este se tiene que escoger con el más sumo cuidado para que
el ordenador tenga una calidad excelente al igual que su rendimiento en la ejecución de tareas. Al comprar la
placa base debemos  ver qué tipo de procesador soporta, si posee slots de expansión suficientes para los
periféricos que deseemos instalar. Una placa se confecciona usando una técnica llamada MPCB( Multiple
Layer Contact Board), que consiste en varias placas apiladas como si fueran una; este tipo de placas deben ser
fabricadas de forma minuciosa, pues un mínimo error en la posición de las pistas, haría que sufriese
interferencias y convertirán a la placa en inestable. La calidad de las placas no depende precisamente de la
marca pero si nos debemos cerciorar de la marca que estamos adquiriendo, ya que, para encontrar
controladores de los dispositivos de dicha placa será más fácil entrando a la página del fabricante.

1.4.2 Memoria RAM


                Si la computadora tiene poca memoria RAM, nuestro sistema deberá utilizar nuestro disco duro
para almacenar aquellos programas que no caben en RAM esta es la llamada Memoria Virtual; la cual por
sobrecarga puede llegar a volver muy lento nuestro sistema. Por otro lado, al instalar mas memoria RAM será
un desperdicio pues no hará al sistema más rápido se notara que se debe instalar más cuando el sistema se
encuentre lento. Por ejemplo si se trabaja con aplicaciones sencillas de oficina la mínima de RAM a ocupar
seria de 64MB, pero lo ideal sería 128MB; si se mantienen programas al mismo tiempo con 256MB es
suficiente ya que en si el uso de memoria RAM en la actualidad también depende de nuestro Sistema
Operativo ya que al pasar los años estos van evolucionando de forma creciente ocupando aplicaciones más
complejas por lo cual se necesita más RAM. Cuanta más memoria RAM el PC se mantendrá más rápido por
más tiempo ya que con el paso del tiempo hay aplicaciones más complejas y estas hacen que el sistema sea
más sofisticado.

1.4.3 Procesador
                Depende para que se va a utilizar la computadora por ejemplo si esta será utilizada para  juegos
valdría la pena invertir en un procesador como un Athlon o Pentium 4. Si es para aplicaciones pequeñas con
que tenga suficiente RAM es más que suficiente un procesador Duron.

1.4.4 Disco Duro


                Es importante saber el tiempo de acceso, la velocidad de rotación y la densidad del disco duro. El
tiempo de acceso determina cuanto tiempo tarda el cabezal de lectura en encontrar el dato que debe leerse. La
velocidad de rotación se mide en rpm, revoluciones por minuto. La densidad o cantidad de datos que caben en
cada disco duro, también determina su rendimiento, pues los datos estarán más expuestos entre sí, serán
localizados más rápidamente.

1.4.5 Tarjeta Grafica


                Existen tarjetas de 2D y 3D. También existen tarjetas aceleradoras de 3D que deben usarse con una
tarjeta de 2D común. También existen las tarjetas graficas “combo”, que realizan funciones de 2D y 3D. Al
día de hoy, incluso las tarjetas graficas on board (se refiere a dispositivos que vienen integrados en la placa
madre) vienen con recursos 3D, aunque su rendimiento no se compara en lo absoluto con el de una tarjeta
grafica de calidad.

1.4.6 Tarjeta de Sonido


                No tiene ninguna influencia con el rendimiento del equipo, solamente determina la calidad de audio.
Para uso normal, se utilizan las Sound Blaster generalmente con chipsets Yamaha. Las tarjetas de sonido más
caras marcan la diferencia si pretendemos trabajar en la edición musical, o queremos oír música MIDI en
máxima calidad. También existen las tarjetas de sonido 3D, como la Sound Blaster Live, que generan sonidos
que parecen venir de todas direcciones. Este efecto es muy utilizado en teatros en casa, para escuchar el
sonido de forma más real.

1.5 Ampliaciones y Actualizaciones.


                Realizar una ampliación significa cambiar algunos componentes de un equipo ya viejo a fin de
mejorar su rendimiento. Sin embargo, muchas veces, el equipo es tan viejo que sería necesario cambiar casi
todos los componentes  para conseguir un rendimiento aceptable; en este caso sería mejor comprar un equipo
nuevo con las actualizaciones más recientes para un rendimiento óptimo. El secreto de realizar una buena
actualización es detectar los “puntos débiles” de la configuración, los componentes para conseguir alcanzar un
rendimiento aceptable con el conjunto de los demás. Aparte hay que saber escoger los componentes en
relación a la calidad. Cabe mencionar que no es necesario comprar un equipo anticuado para hacer una
actualización que bien valga la pena porque si el equipo está muy anticuado lo mejor es comprar uno nuevo
con las actualizaciones que satisfagan las necesidades que requiere en ese momento el usuario y así poder
tener un equipo de vanguardia y bien actualizado
Cpu

Vamos a explicarte qué es exactamente la CPU de un


ordenador y para qué sirve. Se trata de un componente
tremendamente complejo, no obstante es el cerebro de cada
ordenador o dispositivo, pero vamos a intentar explicarlo todo
de una forma lo más sencilla posible para que puedas
entender los conceptos básicos de su funcionamiento.
Sobre una CPU se podría decir bastante más de lo que vamos a
contarte, ya que se puede profundizar mucho en las
características de su funcionamiento. Sin embargo, lo que
queremos aquí es que si nunca has oído hablar de ella puedas
entender sus fundamentos básicos para por lo menos
saber exactamente de qué estamos hablando.

Qué es la CPU
CPU son las siglas de Central Processing Unit, lo que
traducido significa Unidad Central de Procesamiento. Se trata
de uno de los componentes vitales que te vas a encontrar en tu
ordenador, tu smartphone o tu tableta o portátil, e incluso en
relojes y prácticamente cualquier dispositivo electrónico. Sin
él, simplemente no podrían funcionar.
A la CPU se la suele llamar coloquialmente como
microprocesador o simplemente procesador, y puedes
considerarla como el cerebro de cualquier dispositivo.
Se encarga de procesar todas las instrucciones del dispositivo,
leyendo las órdenes y requisitos del sistema operativo, así
como las instrucciones de cada uno de los componentes y las
aplicaciones.
EN XATAKA

Intel Core de 10ª generación, a fondo: así es como la microarquitectura Sunny Cove
quiere ser el mayor órdago de Intel

Así pues, igual que el cerebro, la CPU es la que se encarga de


que todo funcione correctamente, y de interpretar todo lo que
quiere hacer el sistema operativo o los componentes,
estableciendo las conexiones y realizando todos los cálculos
precisos para que funcione. Cuanto más potente sea el
procesador, más rápido podrá hacer las operaciones y más
rápido funcionará tu dispositivo en general.
Es también el encargado de leer, interpretar y procesar las
instrucciones primero del sistema operativo, y después
de los programas o aplicaciones que tienes instalados en el
ordenador. Cuando abres Word o tu navegador, este tiene que
cargarse, y para ello necesitar realizar una serie de pasos cuyas
instrucciones le manda al procesador. Cada acción que hagas
luego dentro, también enviará instrucciones para poder
ejecutarse y realizarse.
Tu ordenador o portátil, tendrán una CPU dedicada para
realizar todas las operaciones y procesos que requiera el
sistema. Mientras, los móviles tienen el denominado SoC
o System on Chip, que es un chip que contiene tanto la CPU
como otros componentes, como chips gráficos integrados. Con
ello, los SoC suelen poder hacer más que las funciones de las
CPU estándar.

EN XATAKA
Intel presenta su familia de procesadores Ice Lake y da al fin la (tímida) bienvenida a
los 10 nanómetros

Cómo es la CPU

La CPU suele ser pequeña, con forma cuadrada, y tiene


conectores y pines metálicos. Por lo general, suele estar
instalada en la placa base de un ordenador, en un
zócalo especial que puede estar en diferentes sitios
dependiendo de la placa base. El procesador no va soldado a la
placa, por lo que puedes cambiar la CPU de un ordenador por
otra si quieres.
La CPU tiene un mínimo de un procesador o núcleo en su
interior, un chip para realizar los cálculos y operaciones. Al
principio todos tenían sólo uno, pero con el tiempo las CPU
han ido aumentando el número de estos núcleos, y hay
diferentes maneras de llamarles dependiendo de este número.
Por ejemplo, si alguna vez has escuchado que un procesador
es Dual-Core o de doble núcleo, es porque tiene dos de estos
chips en su interior. Luego evolucionaron a cuatro, los Quad-
Core, y se han ido aumentando con seis, ocho o incluso 12
núcleos o más. Todos ellos se identifican por ese nombre que
incluye la palabra Core, pero antes se le pone una referencia al
número de núcleos.
Que la CPU tenga varios procesadores o núcleos suele implicar
que es capaz de realizar más operaciones a la vez, por lo que su
funcionamiento puede ser más rápido y mejor. Sin
embargo, esto no siempre quiere decir que cuantos
más núcleo haya más rápido será todo, ya que esto es
algo que también depende de cómo sean cada uno de los
núcleos.
Por ejemplo algunos procesadores de Intel y AMD, los dos
principales fabricantes, tienen tecnologías que les
permiten ejecutar dos hilos de ejecución en un único
núcleo, que son las secuencias de instrucciones
pertenecientes al sistema operativo o aplicación. Los hilos de
ejecución, o threads en inglés, son las secuencias de
instrucciones pertenecientes al sistema operativo o una
aplicación.
¿Y esto qué quiere decir? Pues que en los procesadores que
tengan esta tecnología, cada núcleo físico puede actuar como
si fuera dos núcleos virtuales, ya que cada uno puede trabajar
con dos hilos o secuencias de instrucciones diferentes.
Y luego está la frecuencia del procesador, que se marca en
gigahercios. La frecuencia, también llamada el reloj, es la que
marca el ritmo con el que trabaja el procesador. Un
hercio es una acción que se repite una vez por segundo, y así
subiendo, hasta el Gigahercio, que son 1.000.000.000 de
acciones por segundo.
El ritmo de trabajo de un procesador viene marcado por la
capacidad de realizar cuantas más acciones por
segundo mejor, ya que cada operación de una aplicación
puede requerir varios ciclos de reloj o acciones.
En definitiva, ya no sólo importa el número de procesadores,
sino cómo trabaja cada uno. Cuantos más GHz tenga un
procesador más rápido será. Esto, simplificándolo al máximo,
significa que si tienes un procesador de cuatro núcleos a 1
GHz, este será más lento que un procesador de dos núcleos a
2,5 GHz.

EN XATAKA

Intel Core i7-8086K y Core i9-9900K, análisis: dos bestias del proceso que dan manga
ancha a los overclockers

Para qué sirve la CPU


La CPU de tu ordenador es la que ejecuta una secuencia
de instrucciones y procesa los datos de las mismas.
Estas secuencias de instrucciones son las que realizan los
programas que tienes instalados en el ordenador. Vamos, que
son los encargados de realizar las operaciones que necesitan
los programas o aplicaciones para realizar las tareas que les
pides que hagan.
Tú le dices a tu aplicación fotográfica que aplique un cálculo.
Esta aplicación le da al ordenador las instrucciones con los
cálculos o acciones que necesita realizar para llevar a cabo la
tarea. Las instrucciones se ponen en la RAM, donde son
recogidas por la CPU, que es la que las lleva a cabo.
Para ello se siguen varios pasos diferentes. El primero
es el de leer los datos e instrucciones para realizar cada una de
las tareas de las aplicaciones. Los datos se decodifican y se
dividen para que puedan ser entendidos por las diferentes
partes de la CPU, las cuales ejecutan las acciones, realizan los
cálculos, y escriben los resultados en la memoria principal, ya
sea como resultado o para utilizarlos después en otras
operaciones.
Pero esta es una simplificación extrema, ya que estas
funciones básicas del procesador se realizan por cada
instrucción, y cada programa puede requerir de varias
instrucciones para realizar una acción. Además, estas no se
realizan en orden y una detrás de otra, sino que el procesador
puede estar trabajando con muchas funciones a la vez para los
diferentes programas activos.
Tienes que entender que todo en tu ordenador está
representado por números, por lo que la CPU es la encargada
de recopilar y calcular las operaciones de estos números. Con
estas operaciones se realiza exactamente todo lo que haces en
tu ordenador, desde abrir el menú de inicio de Windows hasta
ver un vídeo en YouTube, todo requiere una serie de
instrucciones y cálculos para poder realizarse.
En los ordenadores modernos, la CPU no es la que lo
realiza todo, ya que suelen interferir otros componentes
especializados, como por ejemplo puede ser la tarjeta gráfica
para todo lo relacionado con lo que ves en pantalla. También
entra en juego la memoria RAM para almacenar datos de
rápido acceso, y el resto de componentes que hay dentro de tu
ordenador.
En este enjambre de dispositivos y componentes, la CPU es
el cerebro o el director de orquesta, pues es quien lo
organiza todo para que las tareas se hagan donde toca y de la
manera que deben realizarse para obtener los resultados
deseados.
EN XATAKA

AMD Ryzen 7 3700X y Ryzen 9 3900X, análisis: Zen 2 y los 7 nanos hacen maravillas y
plantean por fin competencia real a Intel

La CPU no es más imprescindible que otros componentes


básicos de un ordenador, ya que este no funcionará sin fuente
de alimentación u otros componentes. Tampoco es el todo del
que depende la ejecución de tareas, ya que para todo lo
relacionado con la producción de vídeos o la visualización de
videojuegos, también son necesarios tener una buena tarjeta
gráfica o GPU y una buena memoria RAM.
Pero de la velocidad y potencia de la CPU sí que puede
depender lo rápido que vaya un ordenador, y tener una buena
o mala CPU afectará al rendimiento de tu equipo

¿Qué es un CPU?
CPU es la abreviación de Unidad Central de Procesamiento,
un componente básico de todo dispositivo que procesa datos y realiza cálculos
matemáticos-informáticos.

El CPU proporciona la capacidad de programación y, junto con la memoria y


los dispositivos de entrada/salida, es uno de los componentes presentes en
la historia de los ordenadores. Con el tiempo, los microprocesadores de un
chip fueron reemplazando a los CPU, usualmente cuando se hace referencia a
este término se habla de los microprocesadores.

Algunas de las funciones básicas del CPU son recolectar información,


decodificarla en partes menores y llevar a cabo instrucciones, que luego ejecuta.

Ver además: Placa madre

¿Para qué sirve un CPU?


El CPU es la pieza fundamental de todo dispositivo, es considerado el cerebro de
un sistema.

En primer lugar, es el encargado de recibir e interpretar datos y ejecutar las


secuencias de instrucciones a realizar por cada programa valiéndose de
operaciones aritméticas y matemáticas. El CPU interpreta todos los datos que
provienen del dispositivo, tanto de los programas como la información que envía
el usuario a través de aplicaciones.

Además, controla el buen funcionamiento de cada componente del


sistema para que todas las acciones sean realizadas en tiempo y forma.

Características de un CPU
Existen ciertas características que diferencian a un CPU de otro:

 Consumo energético. Refiere a la cantidad de energía que consume el


CPU al ejecutar acciones, a mayor calidad, mayor el consumo energético.
 Frecuencia de reloj. Refiere a la velocidad de reloj que tiene el CPU y que
determina la cantidad de acciones que puede ejecutar en un período
de tiempo.
 Número de núcleos. A mayor cantidad de núcleos, mayor la cantidad de
acciones que pueden realizarse en forma simultánea.
 Número de hilos. Ayuda al procesador a manejar y ejecutar acciones de
forma más eficiente. Divide las tareas o procesos para optimizar los tiempos
de espera entre una acción y la otra.
 Memoria caché. Almacena datos y permite acceder a ellos de manera
rápida. La velocidad y capacidad de la memoria caché mejora el
desempeño del dispositivo.
 Tipo de bus. Refiere a la comunicación que establece el CPU con el resto
del sistema.

Partes del CPU


Un CPU está compuesto internamente de los siguientes componentes:

 Núcleo. Es la unidad base que constituye a un CPU, que interpreta y


ejecuta acciones. Originariamente los procesadores solo tenían uno (single
core), pero actualmente lo mínimo es dos.
 Unidad de control. Es un circuito digital que extrae la instrucción de
la memoria, la descifra y la ejecuta.
 Unidad aritmética lógica. Es un circuito digital que lleva a cabo las
operaciones lógicas, matemáticas y aritméticas entre los datos.
 Unidad de coma flotante. Es un componente especializado en el cálculo
de operaciones con coma flotante.
 Memoria caché. Es la memoria en la que se almacenan los datos que el
usuario consulta con frecuencia, esto permite ganar velocidad al
procesador.
 Registros. Es una memoria de alta velocidad que permite controlar y
almacenar las instrucciones en ejecución.
 Controlador de memoria. Es un circuito que puede estar integrado al
procesador y que regula el flujo de datos entre el procesador y la memoria.
 Bus. Es un sistema digital que envía y recibe datos entre los componentes.
 Tarjeta gráfica. Es el componente que procesa los datos de video e
imagen, que puede estar incluido o no en el CPU.

Tipos de CPU
Los CPU se clasifican según la cantidad de núcleos en:

 De un solo núcleo. Existe un solo núcleo en el procesador que puede


realizar una acción a la vez, es el tipo de procesador más antiguo.
 De dos núcleos. Existen dos núcleos, lo que permite realizar más de una
acción a la vez.
 De cuatro núcleos. Existen cuatro núcleos independientes que permiten
realizar varias acciones a la vez, suelen ser procesadores más eficientes
que los de dos núcleos.

Lenguaje de los CPU


El lenguaje binario que lee un CPU se compone de ceros y unos.

El lenguaje de los CPU es un sistema de códigos a través del que se


comunican las instrucciones que debe ejecutar el procesador para el correcto
funcionamiento del dispositivo.

Los procesadores no interpretan cualquier tipo de información, sino aquella escrita


de forma binaria, es decir, con los caracteres cero y uno. Cada programa o
aplicación está formado por una cadena de instrucciones escritas en este código,
que son correctamente interpretadas por la máquina.

Más en: Lenguaje de programación

Fuente: https://concepto.de/cpu/#ixzz6xLSJB2RN
Definición de ALU

La ALU o unidad
aritmético lógica consiste en un circuito digital que permite
realizar operaciones ariméticas y lógicas entre dos números.
ALU viene del inglés y es acrónimo de Arithmetic Logic Unit. En
español, la unidad aritmético lógica vendría a ser una especie de circuito
que tiene la capacidad de calcular operaciones como adición,
substracción u otras como NOT y XOR.
Una ALU puede encontrarse en todo tipo de circuitos y dispositivos
electrónicos. Por ejemplo, en un reloj de pulsera digital que permite la
adición de un segundo en forma constante. Pero también y en cantidad
en un complejo circuito de microprocesador moderno. Otros ejemplos
se encuentran en tarjetas gráficas, de sonido o video, equipos de TV de
alta definición, y lectoras de CD.
En 1945 John P. Eckert y John W. Mauchly dieron vida a este concepto.
Más tarde, John von Neumann publicaría un informe al respecto,
explicando la necesidad de una ALU para el uso de
una computadora en operaciones matemáticas básicas.
Típicamente, una unidad aritmético lógica está compuesta por un
circuito operacional, un registro de entradas, un registro acumulador y
un registro de estados. Estas entidades permiten el
correcto funcionamiento de la ALU y, por ejemplo, son responsables
de la resolución de operaciones aritméticas de números enteros,
operaciones lógicas de bits, operaciones de desplazamiento de bits y
otras más complejas. Entre estas últimas pueden contarse, por caso,
calcular la raíz cuadrada, emular a un coprocesador y múltiples otras.
Otro circuito similar al de una unidad de este tipo es el FPU o Floating
Point Unit, que realiza operaciones aritméticas pero para números en
representación de punto flotante, los cuales son más complejos y
sofisticados.
El esquema de una ALU en general incluye a A y B como operandos, R
como salida, F como entrada de la unidad de control, y D como estado
de la salida.

Unidad Aritmético Lógica

Espacios de nombres
 Página
 Discusión

Acciones de Unidad Aritmético Lógica


página
 Ver
 Ver código

 Historial

Unidad Aritmético
Lógica : La Unidad
aritmético-lógica (ALU por
sus siglas en inglés:
Arithmetic Logic Unit) es
un contador digital capaz

Udidad aritmético Lógica


de realizar las operaciones aritméticas y lógicas entre los datos de un circuito; suma,
resta, multiplica y divide, así como establece comparaciones lógicas a través de los
condicionales lógicos “si”, “no”, y, “o”. Desde los circuitos más simples, como relojes y
calculadoras, hasta complejos circuitos, como los microchips actuales, todos incluyen
al menos una Unidad aritmético-lógica, que varía su poder y complejidad según su
finalidad.

Las computadoras más modernas, que incluyen procesadores de múltiples núcleos,


incorporan a su vez múltiples dispositivos ALU, con una diagramación compleja y
potente. Pero yendo a los orígenes, fue el matemático húngaro-estadounidense John
von Neumann quien, en el año 1945, a través de un informe fundacional sobre el
desarrollo del Computador Automático Variable Discreto Electrónico (EDVAC, por sus
siglas en inglés), propuso la idea de la ALU, explicando que es un requisito
indispensable para cualquier computadora el poder efectuar operaciones matemáticas
básicas. En la actualidad, las operaciones que realiza una ALU entre los distintos
datos, que deben ser iguales a los que emplea el circuito digital, es la representación
del número binario de complemento a dos. Sin embargo no siempre fue así: en sus
comienzos, las distintas computadoras utilizaron una amplia gama de sistemas
numéricos, como el Complemento a uno, o el sistema decimal, adecuando el diseño
de las ALU a cada sistema. A través del tiempo, el Complemento a dos resultó ser el
preferido por la industria, al ser el de mayor simplicidad para la diagramación del
circuito de la ALU. Lo que definimos como CPU (Central Process Unit) o Unidad
Central de Proceso, está estructurado por tres unidades operativamente diferentes:

1. La ALU o unidad aritmético lógica.

2. La UC o unidad de control.

3. Los registros internos

Sumario

 1 Operaciones en la ALU

 2 Tipos de ALU

 3 Partes

 4 Clasificación de los operadores

o 4.1 Desplazamientos lógicos

o 4.2 Desplazamientos aritméticos

o 4.3 Desplazamientos circulares

 4.3.1 Desplazamientos circulares a través del flag de acarreo


 5 Fuente

Operaciones en la ALU
Con respecto a cualquier microprocesador, las instrucciones involucran operaciones
sobre un operando, o entre dos de ellos, estando uno de los mismos almacenado en
el registro acumulador que es el registro de trabajo de cualquier ALU, por lo que en
algunos casos suele denominarse registro W. El tipo de operaciones que puede
realizar una ALU, pueden resumirse así:

1. Suma aritmética

2. Resta aritmética (complemento a 2)

3. operaciones lógicas

producto y suma lógica Comparación Complementación enmascaramiento

4. Desplazamiento o rotación

5. No operar (transferencia)

Algunas instrucciones están referidas al contenido del registro acumulador en su


totalidad, y otras respecto a algunos bits del mismo, correspondiente a una palabra de
datos que se desea modificar.

Tipos de ALU
– Coma fija

– Coma flotante

Partes
– Operadores: aritméticos, lógicos y de desplazamiento

– Registros para almacenar datos temporales

– Registro de estado: conjunto de flags que indican situaciones ocurridas al operar

– Registro contador de programa

– Registro de direcciones de interrupción


Clasificación de los operadores
Ámbito de aplicación: General Especializado

Realización: Combinaciona Secuencial

Número de operandos: Monádico Diádico

Paralelismo: Serie o de dígito Paralelo o de vector

Operación: De desplazamiento Lógico Aritmético

Tecnología empleada: MOS Bipolar

Desplazamientos lógicos
– Independientemente del sistema de representación de los operandos se introducen
ceros por la derecha o por la izquierda según se trate de un desplazamiento a la
izquierda o a la derecha, respectivamente.

– El bit o los bits que salen suelen copiarse en el indicador de acarreo (el último que
ha salido es el que queda).

Desplazamientos lógicos a la izquierda Desplazamientos lógicos a la derecha

Desplazamientos Lógicos

Las operaciones lógicas realizan la operación sobre cada uno de los bits del operando
o de los operandos
Desplazamientos Aritméticos

Desplazamientos Aritméticos
Desplazamientos aritméticos
– Equivalen a multiplicaciones y divisiones por dos, según sean hacia la izquierda o a
la derecha, respectivamente.

– El sistema de representación de los operandos debe tenerse en cuenta si los


operandos tienen signo.

– El bit o los bits que salen suelen copiarse en el indicador de acarreo (el último que
ha salido es el que queda).

Desplazamientos Aritméticos

Desplazamientos circulares
–  Los bits que salen por un extremo entran por el otro.

–  El bit o los bits que salen suelen copiarse en el indicador de acarreo (el último que
ha salido es el que queda)
Desplazamientos Circulares

Desplazamientos circulares a través del flag de acarreo


–  Los bits que salen por un extremo entran por el otro.

–  El bit o los bits que salen suelen copiarse en el indicador de acarreo.

Desplazamientos Circulares del flag de acarreo


Unidad de control
(informática): componentes,
funciones
Por

 Helmut Sy Corvo

La unidad de control es un circuito digital que gobierna las


operaciones y maneja todas las señales de control dentro del
procesador de una computadora. Permite que la unidad lógica,
la memoria y los periféricos de entrada y salida sepan cómo
replicar a las órdenes recibidas de un programa. Por tanto,
encamina todo el flujo de entrada y salida, busca el código de las
operaciones de los programas y dirige otras unidades enviando
señales de temporización y de control.

Una unidad de control actúa al admitir los datos de entrada, que


transforma en señales de control y que posteriormente son
transmitidas al procesador central. El procesador ordena a los
diferentes dispositivos qué operaciones deben realizar.
Fue
nte: pixabay.com

Esta unidad es el componente del procesador que actúa como su


cerebro, porque genera las instrucciones para casi todas las
operaciones y garantiza que las mismas se ejecuten
correctamente.

Ejemplos de dispositivos que utilizan unidades de control son la


unidad central de procesamiento (CPU) y la unidad de
procesamiento de gráficos (GPU).

Índice del artículo [Mostrar]

Componentes
Para ejecutar una acción, la unidad de control de la CPU debe
producir la señal de control necesaria en la secuencia adecuada.
Hay dos enfoques que se utilizan para generar estas señales de
control en la secuencia correcta.

Unidad integrada
La unidad de control está constituida por compuertas lógicas, flip-
flops, circuitos digitales, codificadores y decodificadores, que se
encuentran cableados de una forma ya establecida.

Se puede considerar como un aparato de estados, que varía de un


estado a otro en cada ciclo de reloj, dependiendo del contenido del
registro de instrucciones y las entradas externas.

La salida de este aparato de estados son las señales de control. La


secuencia de las operaciones realizadas por esta máquina está
determinada por el cableado de los elementos lógicos. Por esta
razón se denomina “integrada”.

El diseño está basado en una arquitectura específica. Cuando se


requieran cambios en el conjunto de instrucciones, se deben
realizar cambios en el cableado y el circuito.

Esta es la base para la arquitectura de cómputo de un conjunto


reducido de instrucciones (RISC), que solo tiene un pequeño
número de instrucciones.

Señales de control
Las señales de control son fundamentales para dirigir la ejecución
de las operaciones. Son difundidas por circuitos lógicos
expresamente diseñados, en los que no se puede modificar el
método de generación de las señales sin un cambio físico de la
estructura del circuito.

Las señales de control para efectuar una operación deben


difundirse no en un único punto en el tiempo, sino durante todo el
período de tiempo correspondiente al ciclo de ejecución de la
instrucción.

El código de operación de una instrucción incluye la información


básica para difundir la señal de control.
Decodificador de instrucciones
El código de operación se decodifica en el decodificador de
instrucciones. Este está constituido por un conjunto de
decodificadores que decodifican los diferentes campos del código
de operación de la instrucción.

El decodificador de instrucciones consiente que la unidad de


control ingrese al primer estado vinculado con la ejecución de la
nueva operación, el cual dura tanto tiempo como permanezcan sin
alterarse las señales de temporización y otras señales de entrada.

Un cambio de cualquiera de las señales mencionadas incita que


cambie el estado de la unidad de control.

Como resultado, algunas líneas que salen del decodificador de


instrucciones adquieren valores en la señal. Estas líneas se
encuentran acopladas al dispositivo generador de señales de
control para las diferentes unidades de la computadora.

Repitiendo la organización de estas fases es que se estructura en


la unidad de control el ordenamiento apropiado de estados
internos.

Cuando llega una nueva instrucción a la unidad de control, las


unidades integradas se encuentran en el estado inicial para
recuperar la nueva instrucción.

Unidad microprogramada
La diferencia esencial de este enfoque con respecto a la unidad
integrada es la existencia de un almacén de control, que se utiliza
para almacenar los microprogramas que incluyen las señales de
control codificadas imprescindibles para la ejecución de una
operación.

No se va a decodificar el código de operación de la instrucción para


crear en seguida una señal de control, sino que se indicará la
dirección de un microprograma que está almacenado en el
almacén de control.

Es decir, las señales de control adjuntadas con las instrucciones


están almacenadas en celdas especiales de memoria como
microprogramas reemplazables.

La unidad de control microprogramada es más lenta que la unidad


integrada debido al tiempo que tarda restaurar las operaciones
que se encuentran en la unidad de memoria.

Funciones
Es responsabilidad de la unidad de control informar a los
dispositivos de entrada y salida, a la memoria principal y a
la unidad lógico-aritmética de la computadora cómo replicar a las
operaciones que son emitidas al procesador.

Obtiene en la memoria las operaciones de los programas y las


lleva al registro del procesador. En función de lo que incluya este
registro, la unidad de control crea una señal que vigila la
realización de estas operaciones.

Según el tipo de operación que ingrese a la unidad de control,


podría cambiar la cantidad y el orden de los pasos secuenciales
generados para seleccionar y configurar las partes de la CPU que
se utilizarán para lograr el objetivo de la operación, ya sea mover,
modificar o almacenar datos.

Este proceso de decodificación de operaciones se vuelve a realizar


al incrementarse el contador a la siguiente dirección guardada del
programa. Desde esa dirección se ingresa la nueva operación a la
unidad de control, y así sucesivamente hasta finalizar el programa.

Ilustración
Las funciones que realiza una unidad de control van a estar
supeditadas al tipo de CPU, debido a las disparidades existentes de
la estructura entre las diferentes marcas. El siguiente diagrama
ilustra cómo se procesan las instrucciones de un programa.

Fuente: By Kapooht – Own work, CC BY-SA 3.0,


https://commons.wikimedia.org/w/index.php?curid=25789639

– Maneja múltiples tareas, tales como la búsqueda y recuperación


de instrucciones, decodificación, manejo de la ejecución y
almacenamiento de los resultados.

– Recibe las instrucciones o comandos externos a los que convierte


en una secuencia de señales de control.

– Interpreta las instrucciones.

– Controla la ejecución secuencial de las instrucciones.

– Coordina la secuencia de movimientos de los datos dentro, fuera


y entre las muchas subunidades del procesador.

– Regula y controla la sincronización de las unidades de ejecución,


tales como la unidad lógico aritmética, y los almacenes y registros
de datos contenidos en el procesador.
– Envía y recibe las señales de control a otros dispositivos
informáticos.

– Dirige y controla el flujo de datos a través de las diferentes áreas


de la computadora.

¿Cómo se gestiona a si
misma una CPU? Así
funciona la unidad de
control
Josep Roca
Publicado el 02 de diciembre, 2020 • 19:30

 0
 

 

 

 

 

Si tuviéramos que definir en qué partes se compone un procesador
entonces lo más seguro es que en el 99% de las veces haríamos
una linea divisoria entre dos partes, por un lado, las unidades de
ejecución y todos los elementos necesarios para su funcionamiento
y por otro lado la unidad de control, la cual se encarga de la
captación, pero especialmente de la decodificación de cada
instrucción, para ello tenemos que entender el ciclo de instrucción.

Para entender cómo funciona la unidad de control hemos de entender


previamente cómo funciona el ciclo de cada instrucción, donde primero se
capta una instrucción de la memoria y es colocada en el registro de instrucción, el
siguiente paso es la descodificación de la instrucción por parte de la unidad de
control, la cual tras terminar su trabajo envía la instrucción a la unidad de ejecución
que corresponda a esa instrucción.

¿Cuáles son las tareas de la Unidad de


Control?
La unidad de control es una pieza indispensable que realiza la siguiente lista de
trabajos de manera continua y transparente:

 Coordina el movimiento y el orden de los datos que se mueven dentro y fuera del
procesador, así entre las diferentes subunidades que forman parte del mismo.

 Interpreta las instrucciones.

 Controla las diferentes ALUs y unidades de ejecución del procesador.

 No solo se encarga de captar y descodificar las instrucciones, sino también de


escribir los resultados en los registros, caches o en la dirección correspondiente de la
RAM.

La unidad de control es por tanto el verdadero cerebro en la sombra dentro de la


CPU, el que se encarga de gestionar que todas las piezas de la CPU reciban los
datos correctos y ejecuten las instrucciones correctas en cada momento.

La Decodificación de instrucciones
Cada procesador tiene un conjunto de registros e instrucciones o ISA que
podemos entender como el idioma del procesador, por lo que dependiendo de cada
procesador un código binario puede significar una cosa u otra. Pero, en todos
ellos la instrucción siempre se divide en dos partes: el opcode y el dato. El
opcode es el código de instrucción, a cada instrucción le corresponde siempre el
mismo opcode dentro de una ISA

Suponed que tenemos un ordenador con un opcode de 3 bits por lo que esto da 2^3
instrucciones, a través de un decodificador de n bits podemos generar una salida de
2^n bits, en este caso 3 bits generan 8 caminos distintos, según el tipo de instrucción
a ejecutar se tomara un camino u otro para solucionarla durante la etapa de
ejecución de la instrucción.
No todas las instrucciones van a pasar por las mismas unidades y los mismos
procesos, no todas tienen un pipeline de la misma longitud y por tanto no van a tener
todas el mismo trato, porque no es lo mismo realizar una suma que mover un dato.

Tipos de unidades de control

Principalmente tenemos dos tipos de unidades de control, la cableada y la


microprogramada.

 Las unidades de control cableadas se utilizan en procesadores muy simples,


ya que en ellas la tabla de registros e instrucciones no se puede cambiar al
encontrarse todos los caminos de datos cableados previamente de manera fija,
en una unidad de control cableada las instrucciones van a tener siempre el mismo
rendimiento y no se van a poder añadir de nuevas ni optimizar su funcionamiento.

 En el caso de las unidades de control microprogramadas se utiliza un


procesador que se encarga de realizar todas las funciónes de la unidad de
control, esto permite optimizar la forma en la que las instrucciones se van a ejecutar
e incluso añadir nuevas instrucciones.
Debido a la complejidad de la unidad de control microprogramada, estas realizan la
decodificación de las instrucciones de manera mucho más lenta, es por ello que
según el tipo de instrucción se hace uso de un tipo de unidad de control o de otro a
la hora de tratar cada una de las instrucciones.
2.2 La unidad de memoria:
2.2 La unidad de memo

Indice:

2.2: La unidad de memoria

La memoria es un ordenador se organiza en varios niveles en función de su velocidad. Esta dis


ya que la información se ubica en un determinado nivel según su probabilidad de ser utilizada:
es su nivel.

*Auxiliar: Esta memoria se usa como soporte de respaldo de información, pudiendo situarse en

* Secundaria: También recibe el nombre de <<memoria de disco>>. Se utiliza para almacen


capacidad y suele corresponderse con un medio de naturaleza mecánica.

* Principal: Conocida también como <<memoria RAM>>. Es el bloque que constituye realmen
programas de forma temporal.

* Caché: Memoria interna entre la UM y la CPU. La caché está dispuesta en varios niveles (L1
la L4 la más lenta y de mayor capacidad.

* Registros: Son memorias de alta velocidad y baja capacidad utilizadas para el almace
especialmente en la UC y la UAL.

Unidades de memoria de la computadora explicadas


La memoria de la computadora ha crecido exponencialmente en las tres
últimas décadas y cada generación de memoria conlleva un nuevo nivel
de unidades de memoria junto con nuevos términos a aprender.
Hagamos un repaso de estas unidades.

Bloques de construcción
Los bits y bytes son los bloques de construcción básicos de la memoria.
"Bit" significa dígito binario. Un bit es un uno o un cero, encendido o
apagado, que es la manera en que se almacena toda la información de la
computadora. Un byte está conformado por ocho bits. Ocho bits, o un
byte, era la cantidad original de información necesaria para codificar un
caracter de texto. El número después se estandarizó a medida que el
hardware de la computadora cambiaba.

Debido a razones técnicas, la capacidad de memoria de la computadora


se expresa en múltiplos de potencia de dos. La métrica predetermina
luego lo aplicado a esos múltiplos para brindar una manera fácil de
expresar números muy grandes de bits y bytes.

Prefijo SI
La memoria de la computadora usa una parte de los prefijos del sistema
de unidades internacional (SI) para los múltiplos de la unidad básica, un
byte. Los prefijos no son una métrica verdadera, sin embargo, debido a
que un byte es ocho bits, un kilobyte es 1024 bytes.

Prefijo de memoria Cantidad


Kilo (kilobyte, KB) 1024 bytes
Mega (megabyte, MB) 1024 kilobytes
Giga (gigabyte, GB) 1024 megabytes
Tera (terabyte, TB) 8192 gigabytes
Peta (petabyte, PB) 16384 terabytes

Unidades de memoria
Las computadoras usan la memoria dentro de la memoria de acceso
aleatorio (RAM), la cual almacena información de forma temporal, y
dentro de las unidades de almacenamiento que lo hacen de forma
permanente. La RAM permite que su computadora alterne entre los
programas y los archivos grandes listos para ver.

Según la utilidad que le dé a su computadora, generalmente querrá tanta


memoria como pueda soportar su computadora. El fabricante y el modelo
de la computadora determinan el tipo y la cantidad de memoria con la
que viene y la cantidad máxima y la velocidad a la que puede adaptarse.
Use la herramienta Crucial® Advisor™ o System Scanner para encontrar
una memoria compatible. Para obtener más información sobre cuánta
memoria debe tener, lea aquí.
Las unidades de almacenamiento, las unidades de disco duro y las
unidades de estado sólido usan los mismos términos de memoria cuando
describen la capacidad de la unidad. Como los archivos con videos y las
fotografías grandes se vuelven cada vez más grandes, también se
necesita mayor capacidad de la unidad. Actualmente, las unidades de
estado sólido se venden en una cantidad diferente de capacidades de
gigabyte y terabyte. Al igual que con la RAM, puede usar la herramienta
Crucial® Advisor™ o la herramienta System Scanner para encontrar una
SSD que sea compatible con su sistema
Dispositivos periféricos de entrada y salida de
un computador
Enviado por Aguinagalde A.

1.
2. Dispositivos periféricos de entrada
3. Dispositivos periféricos de salida
4. Conclusión
5. Recomendaciones
6. Anexos
7. Bibliografía

Introducción
Las Computadoras son una herramienta esencial, prácticamente en casi todos los campos de
nuestras vidas; es útil, ayuda a la mejora y excelencia del trabajo; lo que lo hace mucho mas
fácil y práctico
En poco tiempo, las computadoras se han integrado de tal manera a nuestra vida cotidiana,
puesto que han transformado los procesos laborales complejos y de gran dificultad hacia una
manera más eficiente de resolver los problemas difíciles, buscándole una solución práctica.
El papel que juegan los dispositivos periféricos de la computadora es esencial, ya que sin tales
dispositivos la computadora no sería útil a los usuarios.
Los dispositivos periféricos nos ayudan a introducir a la computadora los datos para que esta
nos ayude a la resolución de problemas y por consiguiente obtener el resultado de
dichas operaciones, es decir; estos dispositivos nos ayudan a comunicarnos con la
computadora, para que esta a su vez nos ayude a resolver los problemas que tengamos y realice
las operaciones que nosotros no podamos realizar manualmente.
La computadora necesita de entradas para poder generar salidas y éstas se dan a
través de dos tipos de dispositivos periféricos:
Dispositivos Periféricos de Entrada

Y Dispositivos Periféricos de Salida


1.- Los Dispositivos de Entrada:
Estos dispositivos permiten al usuario del computador introducir
datos, comandos y programas en el CPU. El dispositivo de entrada más común es
un teclado similar al de las máquinas de escribir. La información introducida con el mismo, es
transformada por el ordenador en modelos reconocibles. Los datos se leen de los dispositivos
de entrada y se almacenan en la memoria central o interna. Los Dispositivos de Entrada,
convierten la información en señales eléctricas que se almacenan en la memoria central.
1. Los Tipos de Dispositivos de Entrada Más Comunes Son:

a) Teclado: El teclado es un dispositivo eficaz para introducir datos no gráficos como rótulos


de imágenes asociados con un despliegue de gráficas. Los teclados también pueden ofrecerse
con características que facilitan la entrada de coordenadas de la pantalla, selecciones de menús
o funciones de gráficas. (Ver fig. nº 1
 Teclado 101: El teclado pesa 1.1 Lb y mide 11.6 Pulgadas de ancho, 4.3 pulgadas de
profundidad y 1.2 de altura. Entre los accesorios disponibles se encuentran: cableado para
Sun, PC(PS/2) y computadoras Macintosh. Las dimensiones de este teclado son su
característica principal. Es pequeño. Sin embargo se siente como un teclado normal.

 Teclado Ergonómico: Al igual que los teclados normales a través de éste se pueden
introducir datos a la computadora pero su característica principal es el diseño del teclado ya
que éste evita lesiones y da mayor comodidad al usuario, ya que las teclas se encuentran
separadas de acuerdo al alcance de nuestras manos, lo que permite mayor confort al
usuario.

 Teclado para Internet: El nuevo Internet Keyboard incorpora 10 nuevos botones de


acceso directo, integrados en un teclado estándar de ergonómico diseño que incluye un
apoya manos. Los nuevos botones permiten desde abrir nuestro explorador Internet hasta
ojear el correo electrónico. El software incluido, posibilita la personalización de los botones
para que sea el teclado el que trabaje como nosotros queramos que lo haga.

 Teclado Alfanumérico: Es un conjunto de 62 teclas entre las que se encuentran las


letras, números, símbolos ortográficos, Enter, alt, etc; se utiliza principalmente para
introducir texto.
 Teclado de Función: Es un conjunto de 13 teclas entre las que se encuentran el ESC,
tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser
configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
 Teclado Numérico: Se suele encontrar a la derecha del teclado alfanumérico y consta
de los números así como de un Enter y los operadores numéricos de suma, resta, etc.
 Teclado Especial: Son las flechas de dirección y un conjunto de 9 teclas agrupadas en
2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla
entre ellas.
 Teclado de Membrana: Fueron los primeros que salieron y como su propio nombre
indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un
poco más dura.
 Teclado Mecánico: Estos nuevos teclados presentan otro sistema que hace que la
pulsación sea menos traumática y más suave para el usuario.

b) Ratón ó Mouse: Es un dispositivo electrónico que nos permite dar instrucciones a nuestra
computadora a través de un cursor que aparece en la pantalla y haciendo clic para que se lleve a
cabo una acción determinada; a medida que el Mouse rueda sobre el escritorio, el cursor
(Puntero) en la pantalla hace lo mismo. Tal procedimiento permitirá controlar, apuntar,
sostener y manipular varios objetos gráficos (Y de texto) en un programa.
(Ver fig. nº 2)
A este periférico se le llamó así por su parecido con un roedor.
Existen modelos en los que la transmisión se hace por infrarrojos eliminando por tanto la
necesidad de cableado.
Al igual que el teclado, el Mouse es el elemento periférico que más se utiliza en una PC (Aunque
en dado caso, se puede prescindir de él).
Los "ratones" han sido los elementos que más variaciones han sufrido en su diseño.
Tipos de Mouse: Existen diferentes tecnologías con las que funciona el Mouse:
 Mecánica: era poco precisa y estaba basada en contactos físicos eléctricos a modo de
escobillas que en poco tiempo comenzaban a fallar.
 Óptica: es la más utilizada en los "ratones" que se fabrican ahora.

 Opto mecánica: son muy precisos, pero demasiado caros y fallan a menudo.

Existen "ratones", como los trackballs, que son dispositivos en los cuales se mueve una bola con
la mano, en lugar de estar abajo y arrastrarla por una superficie.
 Mouse Óptico Mouse Trackball: Es una superficie del tamaño de una tarjeta de
visita por la que se desliza el dedo para manejar el cursor, son estáticos e ideales para
cuando no se dispone de mucho espacio.

Hay otro tipo de "ratones" específicos para algunas aplicaciones, como por ejemplo las
presentaciones en PC. Estos "ratones" suelen ser inalámbricos y su manejo es como el del tipo
TrackBall o mediante botones de dirección. Y por último, podemos ver modelos con ruedas de
arrastre que permiten visualizar más rápidamente las páginas de Internet.
c) Micrófono: Los micrófonos son los transductores encargados de transformar energía
acústica en energía eléctrica, permitiendo, por lo tanto el registro, almacenamiento,
transmisión y procesamiento electrónico de las señales de audio. Son dispositivos duales de los
altoparlantes, constituyendo ambos transductores los elementos mas significativos en cuanto a
las características sonoras que sobre imponen a las señales de audio. (Ver fig. nº3)
Existen los llamados micrófonos de diadema que son aquellos, que, como su nombre lo indica,
se adhieren a la cabeza como una diadema cualquiera, lo que permite al usuario mayor
comodidad ya no necesita sostenerlo con las manos, lo que le permite realizar otras actividades.
d) Scanner: Es una unidad de ingreso de información. Permite la introducción de imágenes
gráficas al computador mediante un sistema de matrices de puntos, como resultado de un
barrido óptico del documento. La información se almacena en archivos en forma de mapas de
bits (bit maps), o en otros formatos más eficientes como Jpeg o Gif.
Existen scanners que codifican la información gráfica en blanco y negro, y a colores. Así mismo
existen scanners de plataforma plana fija (Cama Plana) con apariencia muy similar a una
fotocopiadora, y scanners de barrido manual. Los scanners de cama plana pueden verificar una
página entera a la vez, mientras que los portátiles solo pueden revisar franjas de alrededor de 4
pulgadas. Reconocen imágenes, textos y códigos de barras, convirtiéndolos en código digital.
Los exploradores gráficos convierten una imagen impresa en una de video (Gráficos por
Trama) sin reconocer el contenido real del texto o las figuras. (Ver fig. nº 4)
e) Cámara Digital: se conecta al ordenador y le transmite las imágenes que capta, pudiendo
ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios tipos:
 Cámara de Fotos Digital: Toma fotos con calidad digital, casi todas incorporan una
pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene
una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador.
 Cámara de Video: Graba videos como si de una cámara normal, pero las ventajas que
ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD
por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el
video que has grabado, para poder retocarlo posteriormente con el software adecuado.
 Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD.
Tiene que estar conectada al PC para poder funcionar, y esta transmite las imágenes al
ordenador. Su uso es generalmente para videoconferencias por Internet, pero mediante el
software adecuado, se pueden grabar videos como una cámara normal y tomar fotos
estáticas. (Ver fig. nº 5)

f. Lector de Código de Barras: Dispositivo que mediante un haz


de láser lee dibujos formados por barras y espacios paralelos, que codifica información
mediante anchuras relativas de estos elementos. Los códigos de barras representan datos
en una forma legible por el ordenador, y son uno de los medios más eficientes para la
captación automática de datos. (Ver fig. nº 6)
g. Lápices Ópticos: Es una unidad de ingreso de información que funciona acoplada a
una pantalla fotosensible. Es un dispositivo exteriormente semejante a un lápiz, con un
mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede
seleccionar información visualizada en la pantalla. Cuando se dispone de información
desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes
alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral,
permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla
fotosensible. No requiere una pantalla ni un recubrimiento especiales como puede ser el
caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la
pantalla durante periodos largos de tiempo llega a cansar al usuario. (Ver fig. nº 7)

h) Palancas de Mando (Joystick): Dispositivo señalador muy conocido, utilizado


mayoritariamente para juegos de ordenador o computadora, pero que también se emplea para
otras tareas. Un joystick o palanca de juegos tiene normalmente una base de plástico redonda o
rectangular, a la que está acoplada una palanca vertical. Es normalmente un dispositivo
señalador relativo, que mueve un objeto en la pantalla cuando la palanca se mueve con respecto
al centro y que detiene el movimiento cuando se suelta. En aplicaciones industriales de control,
el joystick puede ser también un dispositivo señalador absoluto, en el que con cada posición de
la palanca se marca una localización específica en la pantalla. (Ver fig. nº 8)
i) Tarjetas Perforadas: ficha de papel manila de 80 columnas, de unos 7,5 cm. (3 pulgadas)
de ancho por 18 cm. (7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos
en forma de orificios practicados por una máquina perforadora. Estos orificios correspondían a
números, letras y otros caracteres que podía leer un ordenador equipada con lector de tarjetas
perforadas.
2.- Los Dispositivos de Salida:
Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones
de datos de la computadora. El dispositivo de salida más común es la unidad de visualización
(VDU, acrónimo de Video Display Unit), que consiste en un monitor que presenta los
caracteres y gráficos en una pantalla similar a la del televisor.
1. Los tipos de Dispositivos de Salida más Comunes Son:
a) Pantalla o Monitor: Es en donde se ve la información suministrada por el ordenador. En
el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el
de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).
(Ver fig. nº 9)
Puntos a Tratar en un Monitor:
 Resolución: Se trata del número de puntos que puede representar el monitor por
pantalla, en horizontal x vertical. Un monitor cuya resolución máxima sea 1024x 768 puntos
puede representar hasta 768 líneas horizontales de 1024 puntos cada una.
 Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de
una película de cine, por lo que deberá ser lo mayor posible. Se mide en HZ (hertzios) y debe
estar por encima de los 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en
la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho
menos.
 Tamaño de punto (Dot Pitch): Es un parámetro que mide la nitidez de la imagen,
midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes
resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de
un valor medio, dependiendo de la disposición particular de los puntos de color en la
pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.

b) Impresora: es el periférico que el ordenador utiliza para presentar información impresa en


papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que
los monitores, siendo el método más usual para presentar los resultados de los cálculos en
aquellos primitivos ordenadores.
En nada se parecen las impresoras a sus antepasadas de aquellos tiempos, no hay duda de que
igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en
tecnologías que aún no han sido siquiera inventadas. (Ver fig. nº 10)
Hay Varios Tipos:
 Matriciales: Ofrecen mayor rapidez pero una calidad muy baja.
 Inyección: La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en
las impresoras de uso doméstico o para pequeñas empresas, gracias a su relativa velocidad,
calidad y sobre todo precio reducidos, que suele ser la décima parte de una impresora de las
mismas características. Claro está que hay razones de peso que justifican éstas
características, pero para imprimir algunas cartas, facturas y pequeños trabajos, el
rendimiento es similar y el costo muy inferior. Hablamos de impresoras de color porque la
tendencia del mercado es que la informática en conjunto sea en color. Esta tendencia
empezó hace una década con la implantación de tarjetas gráficas y monitores en color.
Todavía podemos encontrar algunos modelos en blanco y negro pero ya no son
recomendables.
 Láser: Ofrecen rapidez y una mayor calidad que cualquiera, pero tienen un alto costo y
solo se suelen utilizar en la mediana y grande empresa. Por medio de un haz de láser
imprimen sobre el material que le pongamos las imágenes que le haya enviado la CPU.

c) Altavoces: Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta


de sonido. Actualmente existen bastantes ejemplares que cubren la oferta más común que
existe en el mercado. Se trata de modelos que van desde lo más sencillo (una pareja de
altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con nada menos que seis
altavoces, pasando por productos intermedios de 4 o 5 altavoces. (Ver fig. nº 11)
d) Auriculares: Son dispositivos colocados en el oído para poder escuchar los sonidos que la
tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por
otra persona, solo la que los utiliza. (Ver fig. nº 12)
e) Bocinas: Cada vez las usa más la computadora para el manejo de sonidos, para la cual se
utiliza como salida algún tipo de bocinas. Algunas bocinas son de mesas, similares a la de
cualquier aparato de sonidos y otras son portátiles (audífonos). Existen modelos muy variados,
de acuerdo a su diseño y la capacidad en watts que poseen.
f) Multimedia: Combinación de Hardware y Software que puede reproducir salidas que
emplean diversos medios como texto, gráficos, animación, video, música, voz y efectos de
sonido.
g) Plotters (Trazador de Gráficos): Es una unidad de salida de información que permite
obtener documentos en forma de dibujo.
Existen plotters para diferentes tamaños máximos de hojas (A0, A1, A2, A3 y A4); para
diferentes calidades de hojas de salida (bond, calco, acetato); para distintos espesores de línea
de dibujo (diferentes espesores de rapidógrafos), y para distintos colores de dibujo (distintos
colores de tinta en los rapidógrafos).
h) Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o
bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando
acaba la impresión se corta.
I) Data Show (Cañón): Es una unidad de salida de información. Es básicamente una
pantalla plana de cristal líquido, transparente e independiente. Acoplado a un retro proyector
permite la proyección amplificada de la información existente en la pantalla del operador.
Conclusión
Como se ha podido observar existen muchos tipos de dispositivos que utiliza la computadora y
que son indispensables para poder comunicarnos con la máquina. Un ejemplo muy claro lo es
el Teclado y el Mouse.
A lo largo del tiempo, se ha demostrado que la tecnología avanza cada día más en busca de
mejores cosas y mayor comodidad para el usuario.
Por ello debemos tener en cuenta como utilizar los dispositivos periférico del ordenador para
obtener un mayor aprovechamiento de cada uno de estos y hacer nuestro trabajo más rápido y
con la mayor comodidad posible, para lograr facilitar nuestras labores cotidianas en las ayuda
de estas maquinas.
Recomendaciones
 Omitir Información redundante, debido que lo único que lograremos con esto es
darle volumen al trabajo, cuando lo que debemos hacer, es introducir información y datos
concretos, que nos permitan llegar a una conclusión sólida y podamos comprender al
máximo, el tema que se esta planteando.
 Verificar periódicamente los nuevos avances tecnológicos que tengan incidencia sobre
los dispositivos de entrada y salida de un ordenador para así lograr actualizar el trabajo y
poder informar sobre los nuevos avances al resto de la población.

ANEXOS
DISPOSITIVOS DE ENTRADA
DISPOSITIVOS DE SALIDA
DISPOSITIVOS DE ENTRADA/SALIDA
¿Qué son los dispositivos periféricos?
En informática, los dispositivos periféricos (también llamados sólo “periféricos”)
son todos aquellos dispositivos que se conectan al CPU (Central Processing
Unit o Unidad Central de Procesamiento) para añadir funciones u operaciones
al sistema, pero que no forman parte permanente de éste.

Los sistemas informáticos comprenden tradicionalmente tres unidades básicas de


funcionamiento, de las cuales el subsistema de entrada y salida, el mismo que
administra los periféricos, es apenas una. Los demás son la memoria central y el
CPU. Los periféricos forman parte del hardware.

Los periféricos se clasifican según su desempeño dentro del sistema, teniendo así:

 Periféricos de entrada (input), que introducen datos al sistema.


 Periféricos de salida (output), que extraen datos del sistema.
 Periféricos de entrada y salida (i/o), cuando cumplen con ambas
funciones.
 Periféricos de almacenamiento, cuando sirven de auxiliar a la memoria
del sistema.
 Periféricos de comunicaciones, cuando permiten comunicar al sistema
con algún otro o alguna red informática.

Ver también: Componentes de una computadora

Dispositivos de entrada
Los dispositivos de entrada comunican al usuario con el sistema.

Se trata de aquellos dispositivos que sirven únicamente para introducir datos


al sistema, o sea, para captar nueva información o comunicar al usuario con el
sistema. Visto así, comunican al sistema con el mundo exterior de distintas
maneras.

Son ejemplo de este tipo de dispositivos:

 El teclado. Gracias al cual podemos digitar comandos al sistema o elaborar


documentos que residirán dentro del mismo.
 El ratón o mouse. Introducido a partir de la invención de los entornos
gráficos de trabajo, nos permite introducir movimientos al sistema, que los
interpreta dentro de un eje de acciones posibles como comandos y
acciones (clics).
 Los escáneres. Diseñados para reproducir gráficamente documentos, de
modo similar a una fotocopiadora, ingresan datos al sistema mediante la
digitalización gráfica de texto, de códigos QR, etc.
 Las cámaras de video. Aditamentos que perciben el mundo real y lo
registran en un video, permitiendo su ingreso al sistema.
 Los micrófonos. Similares al caso anterior, pero registran el sonido del
mundo real. Pueden estar incorporados en un mismo dispositivo.

Sigue en: Dispositivos de entrada

Dispositivos de salida
Los dispositivos de salida permiten al sistema emitir información.

Se trata de aquellos periféricos que permiten extraer información del sistema, o


sea, recibir datos provenientes del sistema en el mundo real, a través de nuestros
sentidos. Se trata de la única forma en la que el sistema informático puede emitir
información y comunicarse con el usuario.

Son ejemplos de este tipo de dispostivos:

 Los monitores. En estas pantallas el sistema puede representar


gráficamente las operaciones que ocurren en su interior, y simular diversos
entornos dependiendo del tipo de software en utilización. Allí podemos leer,
ver videos o percibir a otros usuarios que estén conectados con nosotros.
 Los parlantes (speakers). Salidas de audio únicamente, que permiten al
sistema emitir diversos rangos de sonidos, ya sean propios, o de terceros:
reproducir música, alertar al usuario sobre algo, etc.
 Las impresoras. Estos dispositivos otorgan presencia física a la
información del sistema, ya sea escribiéndola en un papel mediante
diversos mecanismos (tinta, láser, etc.), o incluso esculpiéndola en materia
(como es el caso de las impresoras 3D).

Más en: Dispositivos de salida

Dispositivos de entrada y salida


Los dispositivos de entrada y salida son bidireccionales.

Los dispositivos de entrada y salida son aquellos que cumplen tanto con las
funciones de entrada, como con las de salida, ya sea simultáneamente o a
elección del usuario. Se trata de aparatos bidireccionales de comunicación con el
sistema.

Son ejemplo de este tipo de dispositivos:

 Las impresoras multifuncionales. Capacitadas no sólo para imprimir, sino


también para fotocopiar, escanear y reproducir, estos artefactos sirven de
entrada o de salida según el usuario lo necesite.
 Las pantallas táctiles. Se trata de un tipo específico de monitores que
suplantan al teclado mediante una pantalla sensible al tacto humano,
permitiendo al usuario sacar e introducir información de manera simultánea.
 Los cascos de RV. Dispositivos que ocupan toda la cabeza del usuario y
que suplantan el mundo real por una simulación ofrecida en lentes frente a
sus ojos y parlantes al lado de sus oídos, a la vez que percibe la posición
de su cabeza y alimenta al sistema con esa información, en un ejercicio
de retroalimentación simultánea.

Dispositivos de almacenamiento
Los dispositivos de almacenamiento pueden conservar o desplazar datos.

Se trata de dispositivos dotados de una memoria propia (o más bien de un


espacio de almacenamiento) de capacidad determinada, en la cual pueden
copiarse los datos contenidos en la memoria del sistema, para ser conservados,
desplazados geográficamente o simplemente respaldados.

Son ejemplo de este tipo de dispositivos externos:

 Los disquetes. Totalmente obsoletos hoy en día, estos pequeños


artefactos dotados de una cinta magnética tenían una capacidad minúscula
en comparación con las necesidades informáticas actuales, pero eran el
mecanismo de respaldo y de recuperación de datos disponible en los años
80 e inicios de los 90.
 Los discos compactos. Los conocidos CDs, tan populares en la industria
musical, no eran sino un dispositivo de almacenamiento de información de
cualquier tipo, que funcionaba en base a una superficie pulida en la que un
láser producía microrasgaduras, codificadas informáticamente.
 Los pendrives. La versión más reciente de los anteriores dispositivos es la
barra de memoria en la que hoy en día almacenamos y transportamos
información, y que funciona en base a microvariaciones de la corriente
eléctrica proveniente del puerto especializado (USB) en donde se conectan.
 Los discos externos. Similares a los pendrives pero de mayor tamaño y
mayor capacidad de almacenamiento. Pueden llegar a almacenar varios
terabytes de información.

Más en: Dispositivos de almacenamiento


Dispositivos de comunicaciones

Los dispositivos de comunicaciones conectan a las computadoras con diversas redes.

Los dispositivos de comunicaciones o de red son aquellos que permiten la


conexión informática del sistema, tanto con otros dispositivos (celulares, tablets,
televisores, etc.), como con redes informáticas locales o con la Internet.

Son ejemplo de este tipo de dispositivo:

 Las tarjetas de red. Plataformas de chips diseñadas para administrar una


antena sensible a las ondas electromagnéticas que transportan la
información de una red, o bien un puerto de entrada de un cable coaxial
que cumple el mismo rol. Sin embargo, habitualmente estas tarjetas no son
dispositivos externos, sino una de sus partes internas.
 Los módems y enrutadores. Aparatos autónomos o bien dispositivos
físicamente ubicados dentro del sistema, que permiten la codificación y
descodificación de los paquetes de información que se transmiten mediante
una red informática.
 Los dispositivos inalámbricos. Antenas y dispositivos que permiten al
sistema percibir ondas electromagnéticas de radio, lo cual permite
la comunicación sin necesidad de cables (Wireless o WiFi).

Sigue con: Hardware y software

Fuente: https://concepto.de/dispositivos-perifericos/#ixzz6xLbd8HDH
Los dispositivos periféricos son instrumentos tecnológicos externos a una computadora que
interpretan, almacenan o archivan la información. Si quieres saber cómo se clasifican estos
dispositivos, sigue leyendo. Y si te interesa el ámbito informático, no dudes en formarte con
el Máster en Electrónica y Microelectrónica Aplicada.
Qué son los dispositivos periféricos
Los dispositivos periféricos son dispositivos externos al ordenador que permiten la
comunicación entre las personas y los ordenadores, como la entrada y salida de información
desde o hacia el mismo ordenador. Se llaman periféricos porque se sitúan en la periferia de la
computadora y sirven de memoria auxiliar de la memoria principal.
Estas unidades de hardware, es decir el conjunto de componentes físicos o materiales que
constituye un sistema informático, funcionan gracias al software, un programa que permite a la
computadora realizar determinadas tareas.
Cómo se clasifican los dispositivos periféricos
Hoy en día, los dispositivos periféricos son tan imprescindibles que se consideran parte del
propio ordenador. Existen cuatro tipos según su uso. A continuación te los detallamos.
Dispositivos periféricos de entrada
Los dispositivos de entrada son cualquier elemento de hardware que envía datos, es decir,
información (textos, números, sonido, gráficos, vídeo, movimiento, calor, tacto, etc.,) a un
ordenador. Son esenciales para interactuar con él y controlarlo. Estos datos, introducidos por
usuarios u otros dispositivos, se captan y digitalizan y se envían al ordenador para ser
procesados.
Los periféricos más conocidos y habituales son:
 El teclado: se introduce información a través de sus teclas.
 El ratón: permite enviar información al hacer clic en sus botones.
 El micrófono: se utiliza para la entrada de audio en el ordenador.
 El escáner: convierte en datos digitales las páginas de exploración o imágenes de
materiales impresos como periódicos, revistas y carteles para que se utilicen por programas
como Photoshop.
 El escáner de código de barras o QR: es una forma de ayudar a organizar y ver la
información del producto.
 Cámara web o webcam: se recogen las imágenes del exterior y se envían al
ordenador para ser procesadas.
Dispositivos periféricos de salida
Los periféricos de salida son conocidos por recibir los datos desde un ordenador y mostrar al
operador las operaciones que se realizan. La mayoría de la información que se proyecta para
informar, comunicar, alertar, etc., se convierte en legible y fácil de interpretar para cualquier
usuario. Los más usados son los siguientes:
 Altavoces o auriculares: reproducen el sonido al exterior por medios telefónicos o
radioeléctricos, aparatos aptos para su amplificación o transmisión.
 GPS: es un sistema de navegación y localización.
 Proyectores digitales: recibe la señal del vídeo del ordenador y la transforma en luz
mediante espejos para proyectar las imágenes hacia la superficie.
 Impresoras: son unos de los periféricos de salida más importantes para reproducir los
resultados de los datos procesados por el equipo en el papel. Sin embargo, no ofrece
información para el usuario.
Dispositivos periféricos de entrada/salida (E/S)
Estos dispositivos permiten enviar información a un ordenador (entrada) y recibir datos desde
un ordenador (salida). Su función principal se basa en almacenar o guardar, de manera
permanente o virtual, todo lo que se haga para que otros usuarios o sistemas puedan
utilizarlos. Algunos ejemplos son:
 Pantalla táctil: se interactúa con el ordenador tocando palabras o imágenes en la
pantalla (periférico de entrada). Los datos que se muestran en la pantalla son recogidos del
ordenador (periférico de salida).
 Router: envía y recibe datos por una red de ordenadores, por ejemplo, internet.
 Fax: envía y recibe documentos de texto.
Dispositivos periféricos de almacenamiento
Estos dispositivos se utilizan para almacenar información y datos durante bastante tiempo. La
mayoría son de entrada/salida porque te permiten tanto extraer información del ordenador y
guardarla en el dispositivo, como copiar los datos almacenados de un dispositivo y copiarlos
en el ordenador. A continuación, se muestran algunos periféricos de almacenamiento:
 Disco duro
 Disco duro externo
 Memoria USB
 Disco Compacto (CD), Disco Versátil Digital (DVD), etc.