Está en la página 1de 34

1.Que es la informatica?

A) La informática, también llamada computación,1 es una ciencia que


administra métodos, técnicas y procesos con el fin de almacenar, procesar y
transmitir información y datos en formato digital.
De esta manera, la informática se refiere al procesamiento automático de
información mediante dispositivos electrónicos y sistemas computacionales.
Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (captación de la
información), procesamiento y salida (transmisión de los resultados). El conjunto
de estas tres tareas se conoce como algoritmo.
No existe una definición consensuada sobre el término. Sin embargo, la
Asociación de Docentes de Informática y Computación de la República Argentina
han tomado una posición, definiéndola de la siguiente manera:
"La Informática es la disciplina o campo de estudio que abarca el conjunto de
conocimientos, métodos y técnicas referentes al tratamiento automático de la
información, junto con sus teorías y aplicaciones prácticas, con el fin de
almacenar, procesar y transmitir datos e información en formato digital utilizando
sistemas computacionales. Los datos son la materia prima para que, mediante su
proceso, se obtenga como resultado información. Para ello, la informática crea y/o
emplea sistemas de procesamiento de datos, que incluyen medios físicos
(hardware) en interacción con medios lógicos (software) y las personas que los
programan y/o los usan (humanware).2"
Es por lo que se hace distinción entre este término y las ciencias de la
computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.3
La informática, que se ha desarrollado rápidamente a partir de la segunda mitad
del siglo XX con la aparición de tecnologías como el circuito integrado, el Internet y
el teléfono móvil,4 es la rama de la tecnología que estudia el tratamiento
automático de la información.56
En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de
un documento denominado Informatik: Automatische
Informationsverarbeitung (Informática: procesamiento automático de información).7
El soviético Alexander Ivanovich Mikhailov fue el primero en utilizar Informatik con
el significado de «estudio, organización, y diseminación de la información
científica», que sigue siendo su significado en dicha lengua.7 En inglés, la
palabra informatics fue acuñada independiente y casi simultáneamente por Walter
F. Bauer, en 1962, cuando Bauer cofundó la empresa Informatics General, Inc.7
B) La Informática es la ciencia aplicada que abarca el estudio y aplicación del
tratamiento automático de la información, utilizando dispositivos electrónicos y
sistemas computacionales. También está definida como el procesamiento
automático de la información. En el contexto de la informática la información
constituye un recurso de gran valor y se busca mantenerla y utilizarla de la mejor
manera.
Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas
básicas:
Entrada: Captación de la información digital.
Proceso: Tratamiento de la información.
Salida: Transmisión de resultados binarios.

2. Quien funda la informatica y en que año y como surge?


Thomas Edison inventó el foco; los hermanos Wright fueron los primeros en
elevarse en un avión a motor. Y ¿quién inventó la computadora? Registros de
patentes han respondido a esta pregunta con el nombre Charles Babbage. Este
inglés tuvo, en el siglo 19, la primera buena idea al respecto. Sin embargo, la
primera computadora que funcionó de verdad fue la de Konrad Zuse y eso fue en
1941 en el salón de la casa de sus padres en Berlín. Podía guardar 64
palabras. El 22 de junio de 2010, Zuse hubiese cumplido 100 años.

La informática surge como ciencia en la década de los años sesentas y se define


como el conjunto de técnicas encargadas del tratamiento automático de la
información y su actividad gira en torno a las computadoras. Dados los últimos
avances tecnológicos que han permitido incorporar a éstas la TV, el video, la
radio, las telecomunicaciones, el teléfono, entre otros. Con esta convergencia se
han desarrollado dos campos en esta área: la multimedia e Internet.

3. Funciones de la informatica
Entre las funciones principales de la informática se enumeran las siguientes:
 Creación de nuevas especificaciones de trabajo.
 Desarrollo e implementación de sistemas informáticos.
 Sistematización de procesos.
 Optimización de los métodos y sistemas informáticos existentes.
 Facilitar la automatización de datos y formatos.

4. Computador

Para entender qué es una computadora comenzaremos por dar la siguiente


definición: «Una computadora es un dispositivo electrónico utilizado para el
procesamiento de datos. La misma posee dispositivos de entrada y salida
(E/S) que permiten a los usuarios interactuar con esta información”.
Este procesamiento de datos es mucho más amplio que apenas calcular
números o imprimir datos. Es posible escribir notas e informes, proyectar,
realizar complejos cálculos de ingeniería, utilizarla como medio para la creación de
obras fotográficas, musicales y de video y por supuesto interactuar con otras
personas.

Para continuar entendiendo qué es una computadora, hay que saber reconocer
dos partes básicas, estas son: el hardware y el software.
El hardware es el término genérico que se le da a todos los componentes físicos
de la computadora, es decir todo lo que se puede tocar. En cambio, software es el
término que se le da a los programas que funcionan dentro de una computadora.

5. Funciones del computador.


Sin embargo, las computadoras pueden ser empleadas para otras cosas además
del trabajo, ya que son dispositivos tan versátiles que pueden ser usados para casi
cualquier cosa, incluyendo el reemplazo de la antigua televisión en la cocina de
nuestra casa por una potente PC del tipo “All-in-One”, con la cual, además de
poder cocinar viendo el noticiero, podremos recibir notificaciones de correo,
navegar por Internet o hasta incluso comunicarnos con amigos o parientes a
través de alguna aplicación de VoIP.

Tal es la importancia de las computadoras en la vida diaria, sin embargo es


posible que no conozcamos profundamente como es que interactúan con
nosotros, y es por ello que hemos elaborado este interesante post en donde
encontraremos mucha información relevante acerca de las funciones que las
computadoras pueden llevar a cabo para nosotros.

Una computadora básicamente es un dispositivo cuya principal función es la


de procesar grandes cantidades de información en forma veloz y precisa, y
que realiza este procedimiento gracias al hardware y software. Una PC es capaz
de realizar gran cantidad de tareas muy complejas, y es allí en donde hace uso de
un conjunto de instrucciones, llamadas programas o software, que son las órdenes
que la computadora debe procesar mediante el hardware, produciendo una salida
de datos en un formato entendible por sus usuarios.

Como mencionamos, una computadora está compuesta por dos subsistemas,


el hardware y el software, donde el primero de ellos comprende la computadora
propiamente dicha y todos sus periféricos de entrada y salida, incluyendo teclado,
ratón, monitor, impresora y otros, mientras que el subsistema de
software comprende el sistema operativo, el cual se encarga de traducir lo que
queremos hacer con la PC al hardware, es decir procesar las peticiones, y todos
los demás programas de usuario, es decir suites ofimáticas, programas de
diseño, modelado, software matemáticos y muchos otros.

6. Clasificacion de los computadores.


En estos tiempos, la tecnología se encuentra en constante evolución y
transformación; las computadoras, al ser parte de esta, también evolucionan
constantemente; existen diferentes clasificaciones para las computadoras,
tomando en cuenta las funciones y capacidades de estas; se clasifican según
su capacidad o tamaño y según su procesamiento tecnológico y funcionalidad.

¿Quién en la actualidad no usa las computadoras?, estas, además del teléfono


inteligente, se ha convertido en nuestro principal medio de trabajo y de
comunicación internacional; su uso, conjuntamente con el internet, nos ayuda a
realizar investigaciones, redactar contenidos, almacenar información, instalar
programas y aplicaciones utilizadas para nuestras labores, realizar transferencias
bancarias, pagos de impuestos, intercambio de información, además de muchas
otras ventajas, como conectarnos a través de la red con cualquier parte del
mundo.
Según si capacidad o tamaño.

 Supercomputadoras.

Son las más caras y grandes del mercado, pero sin ninguna duda las más
potentes, certeras y rápidas; las utilizan en grandes industrias y empresas como la
Nasa, empresas encargadas de estudiar cambios atmosféricos, climas,
huracanes, tornados, también las usan en proyectos de aviación, automovilísticos,
petrolíferos y mineros; son capaces de procesar gran cantidad información y
realizar cálculos en milisegundos, además permite la interconexión de miles de
usuarios sin hacer tardío el sistema.

 Macrocomputadoras.

También son grandes y costosas, pero en cantidades más accesibles, se utilizan


como servidores inteligentes, usados en empresas medianas, bancos, industrias y
aerolíneas. Procesan gran cantidad de información de diferentes temas y deben
de mantenerse en un cuarto frio para mantener su temperatura adecuada.

 Minicomputadoras.

Son medianamente costosas y más pequeñas que las macrocomputadoras,


pudiendo ocupar solo un rincón de un cuarto; ella hace las mismas funciones que
la macrocomputadora solo que en cantidades más reducidas, siendo utilizadas
para empresas sin mucho movimiento.

 Microcomputadoras.

Estas son las más pequeñas y de menor adquisición económica; las que
mantenemos en nuestros hogares y para uso personal; estas utilizan un
microprocesador que también nos ayuda fácilmente a almacenar información y
programas. Están dentro de este grupo; las computadoras de escritorio, las laptos,
tablets y computadoras de mano.

Según su procesamiento tecnológico y funcionalidad.

 Análogas.

Son las computadoras que utilizan dispositivos mecánicos o eléctricos para buscar
soluciones a problemas industriales, recibiendo valores, cálculos y señales. Su
naturaleza de circuitos hace que sean rápidas y eficientes.

 Hibridas.

Son sistemas que unen las funciones de las computadoras análogas y digitales,
mostrando así sus mismas características, y hacen que ambos tipos desarrollen
su trabajo conjuntamente.
 Digitales.

Estas son las que operan con números y mayormente hacen el trabajo lógico de
las empresas; estas deben ser programadas antes de ser utilizadas y poseen una
memoria interna lo suficientemente amplia para introducir información y así poder
comenzar con el conteo funcional. Estas, al igual que las análogas, resuelven
internamente los problemas dando resultados precisos.

7. partes del computador

Este artículo se enfocará más en los dispositivos de hardware que son


“indispensables” para el correcto funcionamiento de una computadora, los cuales
son:

 Teclado
 Unidad Central de Proceso (CPU, por sus siglas en ingles)
 Monitor
 Ratón (Mouse)
 Disquetera (Floppy)
 CD-ROM
 El teclado

Es el dispositivo que le brinda la posibilidad al usuario introducir datos para que


después puedan ser interpretados y procesados por la CPU. El aspecto de un
teclado de ordenador es bastante similar al de una máquina de escribir y
actualmente su clasificación está conformada de la siguiente manera: teclado XT,
teclado AT, teclado expandido, teclado Windows, teclado ergonómico y teclado
inalámbrico.

Cabe destacar que en la mayoría de los sistemas operativos modernos se pueden


utilizar teclados virtuales (en pantalla ó monitor) que pueden ser operados con el
ratón, brindándole la posibilidad al usuario de simular el funcionamiento de un
teclado real.

 Unidad Central de Proceso


Comúnmente conocido como microprocesador, es el encargado de procesar los
datos contenidos en los programas e interpretar las instrucciones del usuario. La
evolución de la tecnología en este rubro ha sido tan grande que actualmente
existen microprocesadores con doble núcleo que, básicamente son dos procesadores en
uno mismo, lo que les permite aumentar considerablemente la capacidad de procesamiento de
datos de una forma más rápida.
A pesar de que la definición de CPU en los últimos años ha sido bastante clara,
comúnmente se le llama CPU a todo el «cuadro» en donde están ensamblados
todos los componentes y tarjetas (memoria RAM, tarjeta de video, tarjeta de sonido, tarjeta
madre, etc.) de una computadora.

 Monitor
Es el dispositivo que, por medio de una interfaz, permite al usuario
poder visualizar los datos previamente procesados por el CPU. La unidad mínima que se
puede representar en un monitor es denominada Píxel, que se puede definir como cada uno de los
puntos que conforman una imagen digital. Actualmente lo último en tecnología son los monitores
de cristal líquido (LCD, por sus siglas en ingles).

 Ratón
En informática, un mouse ó ratón es el dispositivo que, al igual que el teclado,
permite enviarle instrucciones a una computadora mientras este interactúa con una
interfaz gráfica. Hoy en día es un dispositivo imprescindible en un ordenar, pero, se prevé que
en un futuro no muy lejano este dispositivo desaparezca, dejándole esta tarea a los ojos
humanos.

 Disquetera
Es la unidad en donde se lleva a cabo la lectura de los discos flexibles ó
disquetes, un medio de almacenamiento de datos. En la actualidad, la mayoría de
las computadoras de reciente modelo ya ni siquiera toman en cuenta a este
dispositivo. ¿Por qué? La poca confiabilidad en estos dispositivos fue una de las
primordiales razones. Y la verdad es que los disquetes están desde hace tiempo,
quieran o no, obsoletos.

 CD-ROM

Disco Compacto de Memoria de Sólo Lectura (CD-ROM, por sus siglas en ingles)
es un sistema de almacenamiento masivo que permite el almacenamiento de
680 Mb. Al referirse a “sólo lectura”, quiere decir que solo se puede grabar en
este medio una sola vez. Los fabricantes de ordenadores, de la misma manera
que le paso a las disqueteras, están tomando la decisión de omitir en sus equipos
la integración de los lectores de CD para dejarle el camino libre al DVD del cual
probablemente hablemos de el más adelante.

Finalizando

Se podría decir que estos son los dispositivos de hardware más


indispensables para que una computadora funcione (sin olvidarnos de las
memorias RAM, la tarjeta madre y otros elementos un poco más técnicos). Pero
existe una gran cantidad de dispositivos de hardware que facilitan la tareas día a
día a los diferentes tipos usuarios que existen. Al avanzar la tecnología a pasos
tan agigantados, que no nos sorprenda que, en unos años, algunos de estos
dispositivos se consideren obsoletos.

8. Estructura del hardware.

El Hardware es la parte física o tangible del computador, aquella que se puede


palpar. Los componentes Hardware se refiere a las partes físicas y accesorios
complementarios que componen la Unidad Central de Procesamiento (CPU) así
como a los dispositivos externos, tales como, monitor, impresora, teclado, mouse,
cornetas. Si vemos el computador como una estructura de hardware, notaremos
que está constituido por dispositivos, que clasificaremos según la función que
desempeñen. De acuerdo a esta clasificación tendremos:

 Dispositivos de Entrada.
 Dispositivos de Salida
 Dispositivos de Comunicación.
 Dispositivos de Almacenamiento.
 Dispositivos de Computo

 Dispositivos de Salida
Son todos aquellos que permiten mostrar información procesada por el
computador. Entre estos encontramos: la pantalla, la impresora, los altavoces, etc.
 Dispositivos de almacenamiento
Son todos aquellos que permiten almacenar los datos en el computador. Entre
estos encontramos: el disquete, el disco duro (interno y externo), el CD, el DVD, la
memoria USB, etc.

 Dispositivos de Comunicación
Son todos aquellos que permiten la comunicación entre computadores. Entre
estos encontramos: el módem, la tarjeta de red y el enrutador (router).

 Dispositivos de Cómputo
Son todos aquellos que realizan las operaciones y controlan las demás partes del
computador. Entre estos encontramos: la Unidad Central de Procesamiento, la
memoria y el bus de datos.

 Unidad Central de Procesamiento (CPU)


Unidad central de proceso o CPU(mejor conocida por sus siglas en inglés, CPU),
es un circuito microscópico que interpreta y ejecuta instrucciones. La CPU se
ocupa del control y del proceso de datos en las computadoras. Generalmente, la
CPU es un microprocesador fabricado en un chip, un único trozo de silicio que
contiene millones de componentes electrónicos. El microprocesador de la CPU
está formado por una unidad aritmético-lógica que realiza cálculos y
comparaciones y toma decisiones lógicas (determinando si una afirmación es
cierta o falsa mediante las reglas del álgebra de Boole. Para aceptar órdenes del
usuario, acceder a los datos y presentar los resultados, la CPU se comunica a
través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la
CPU a los dispositivos de almacenamiento (por ejemplo un disco duro), los
dispositivos de entrada (por ejemplo un teclado o un mouse) y los dispositivos de
salida (por ejemplo un monitor o una impresora).

Cuando se ejecuta un programa, el registro de la CPU, llamado contador de


programa, lleva la cuenta de la siguiente instrucción del programa, para garantizar
que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control
de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la
siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza
la instrucción en el dispositivo de almacenamiento correspondiente. La instrucción
viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro
de instrucción. Entretanto, el contador de programa se incrementa en uno para
prepararse para la siguiente instrucción. A continuación, la instrucción actual es
analizada por un decodificador, que determina lo que hará la instrucción. Cualquier
dato requerido por la instrucción es recuperado desde el dispositivo de
almacenamiento correspondiente y se almacena en el registro de datos de la CPU.
A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en
otro registro o se copian en una dirección de memoria determinada.
o La Memoria
Es la encargada de almacenar toda la información que el computador está
usando. Las hay de tres tipos y son:
o Memoria RAM
Del inglés Random Access Memory, es la memoria principal. Se caracteriza y
diferencia de la memoria ROM porque una vez apagado el sistema operativo, toda
la información almacenada en la memoria RAM es automáticamente borrada.
o Memoria ROM
Del inglés Read Only Memory, Es permanente, ya que lo que permanece en la
ROM no se pierde aunque el computador se apague.
Su función principal es guardar información inicial que el computador necesita
para colocarse en marcha una vez que se enciende. Solo sirve para leer. Se
puede leer la información desde esta memoria y no recibir información.
o Memoria Caché
¿Qué significa caché? Literalmente, se trata de una palabra en francés que quiere
decir “escondido” u “oculto”. Pero tiene un uso en la informática que le ha dado
nombre a un tipo particular de memoria.
La memoria caché de un procesador, es un tipo de memoria volátil (como la
memoria RAM), pero muy rápida. Su función es almacenar instrucciones y datos a
los que el procesador debe acceder continuamente. ¿Cuál es su finalidad? Pues
que este tipo de datos sean de acceso instantáneo para el procesador, ya que se
trata de información relevante y que debe estar a la mano de manera muy fluida.
Los sistemas de hardware y software llamados caché, almacenan este tipo de
datos de manera duplicada y por esta razón su acceso es tan veloz.

La memoria Caché es, por proximidad a la CPU, mucho más rápida que la
memoria RAM. También es mucho mas pequeña. La velocidad de la caché con
respecto a la memoria RAM convencional es del orden de 5 a 10 veces superior.
o El bus de Datos o cables de datos
Es el conjunto de interconexiones entre las distintas partes del computador que
permiten la comunicación entre todos los dispositivos del mismo. También un bus
es un conjunto cableado que sirve para que los dispositivos hardware puedan
comunicarse entre sí

9. Parte logica del computador (software)

Se conoce como software al equipamiento lógico o soporte lógico de una


computadora digital; comprende el conjunto de los componentes lógicos
necesarios que hacen posible la realización de tareas específicas, en
contraposición a los componentes físicos, que son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones


informáticas; tales como el procesador de texto, que permite al usuario
realizar todas las tareas concernientes a la edición de textos; el software de
sistema, tal como el sistema operativo, que, básicamente, permite al resto de
los programas funcionar adecuadamente, facilitando también la interacción
entre los componentes físicos y el resto de las aplicaciones, y
proporcionando una interfaz con el usuario.

Es el conjunto de los programas de cómputo, procedimientos, reglas,


documentación y datos asociados que forman parte de las operaciones de
un sistema de computación.
Extraído del estándar 729 del IEEE

Clasificación del software


Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los
fines prácticos se puede clasificar al software en tres grandes tipos:

Software de sistema: Su objetivo es desvincular adecuadamente al usuario y


al programador de los detalles de la computadora en particular que se use,
aislándolo especialmente del procesamiento referido a las características
internas de: memoria, discos, puertos y dispositivos de comunicaciones,
impresoras, pantallas, teclados, etc. El software de sistema le procura al
usuario y programador adecuadas interfaces de alto nivel, herramientas y
utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:
Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Servidores
Utilidades

Software de programación: Es el conjunto de herramientas que permiten al


programador desarrollar programas informáticos, usando diferentes
alternativas y lenguajes de programación, de una manera práctica. Incluye
entre otros:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores

Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores


herramientas, usualmente en un entorno visual, de forma tal que el
programador no necesite introducir múltiples comandos para compilar,
interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz
gráfica de usuario (GUI).

Es aquel que permite a los usuarios llevar a cabo una o varias tareas
específicas, en cualquier campo de actividad susceptible de ser
automatizado o asistido, con especial énfasis en los negocios. Incluye entre
otros:
Aplicaciones para Control de sistemas y automatización industrial
Aplicaciones ofimáticas
Software educativo
Software empresarial
Bases de datos
Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
Videojuegos
Software médico
Software de Cálculo Numérico y simbólico.
Software de Diseño Asistido (CAD)
Software de Control Numérico (CAM)

10. Tipos de software.

Tipos de Software

Sin duda muchos opinarán que el software lo podemos clasificar de mil maneras,
hasta cierto punto es verdad, sin embargo si buscamos hacer una clasificación
de software entendible para el usuario normal, hablo de personas poco
estudiadas o que no precisamente saben de software, entonces debemos
clasificarlos de la siguiente manera.

Software de Sistema

El software de sistema, digamos que es la parte esencial, en ella no solamente


podemos clasificar los sistemas operativos como Linux, Windows o Mac,
también debemos agregar aquel software que permite la comunicación entre el
Hardware y el sistema operativo, los controladores de sistema para la ejecución
de diversos sectores de la computadora e incluso programas que son capaces de
administrar los recursos y de proporcionarle al usuario una bella interfaz para que
pueda controlar la computadora de una forma muy sencilla.

La clasificación del Software de sistema queda de la siguiente manera:

 Sistemas operativos
 Controladores de dispositivo
 Herramientas de diagnóstico
 Herramientas de Corrección y Optimización
 Servidores
 Utilidades

Software de Programación

Está claro que para que puedan existir diversos programas, primero debe haber
personas encargadas del desarrollo de sistemas, en este caso haciendo uso
de software de programación, por eso la clasificación continua en este punto,
después de que el sistema operativo es la base de todo, la programación le sigue
muy detrás, un software que ayuda en la creación y desarrollo de
aplicaciones, haciendo uso de conocimientos lógicos y de programación.

Algunos ejemplos de esto, son los compiladores y los editores de texto, un


conjunto de software que trabaja de la mano uno con el otro, el programador
desarrolla en un editor de texto y posteriormente compila el programa para
verificar que está correcto, esto en cualquier lenguaje de programación, aunque
actualmente existen Entornos de Desarrollo Integrados (IDE) que no son más
que un programa informático que consta de una serie de herramientas de
programación, los que actualmente utilizan los lenguajes de programación para
su desarrollo.

La Clasificación del software de programación es la siguiente:

 Editores de texto
 Compiladores
 Intérpretes
 Enlazadores
 Depuradores
 Entornos de Desarrollo Integrados (IDE)

Software de Aplicación

El software de aplicación, es aquel que utilizamos día a día, cada uno de


los programas, aplicaciones o utilidades que manejamos dentro de nuestra
computadora, entran dentro de esta clasificación de software, es el resultado de
la programación de software, enfocado hacia alguno de los sistemas operativos,
como puedes ver es el tercer y último paso, hablando de forma técnica es el
software diseñado para el usuario final.
Dentro de los ejemplos que podría darte, se encuentran todos los programas que
usas día a día, la paquetería de Office, los programas para comunicarte por
medio de chat, los programas para ver fotos, utilidades para escuchar música en
la computadora, los antivirus, etc.

La clasificación del software de aplicación queda de al siguiente manera:

 Aplicaciones de Sistema de control y automatización industrial


 Aplicaciones ofimáticas
 Software educativo
 Software médico
 Software de Cálculo Numérico
 Software de Diseño Asistido (CAD)
 Software de Control Numérico (CAM)

11. Tipos de memorias

 La memoria RAM

La más importante es la denominada memoria RAM (Random Access


Memory), ya que nuestra computadora no podría funcionar sin su existencia.
En la RAM se guarda distinto tipo de información, desde los procesos
temporales como modificaciones de archivos, hasta las instrucciones que
posibilitan la ejecución de las aplicaciones que tenemos instaladas en nuestra
PC.

Por tal motivo, es utilizada constantemente por el microprocesador, que


accede a ella para buscar o guardar temporalmente información referente a
los procesos que se realizan en la computadora.

Dentro de las memorias RAM existen distintos tipos de tecnologías que se


diferencian principalmente por su velocidad de acceso y su forma física. Entre
ellas encontramos las DRAM, SDRAM, RDRAM, entre otras.

Las denominadas DRAM (Dynamyc Random Acces Memory) han sido utilizadas
en las computadoras desde los primeros años de la década de los 80’s, y aún en
la actualidad continúan utilizándose. Se trata de uno de los tipos de memorias
más económicas, aunque su mayor desventaja está relacionada con la velocidad
de proceso, ya que es una de las más lentas, lo que ha llevado a los fabricantes a
modificar su tecnología para ofrecer un producto mejor.

En cuanto al tipo de tecnología SDRAM, derivada de la primera, comenzó a


comercializarse a finales de la década de los 90’s, y gracias a este tipo de
memoria se lograron agilizar notablemente los procesos, ya que puede
funcionar a la misma velocidad que la motherboard a la que se encuentra
incorporada.

Por su parte, la tecnología RDRAM es una de las más costosas debido a su


complejidad de fabricación, y sólo se utilizan en procesadores grandes, tales
como los Pentim IV y superiores.
Otra de las diferencias entre las distintas memorias RAM se halla en el tipo de
módulo del que se trate, que pueden ser SIMM (Single in line Memory Module),
DIMM (Double Memory Module) y RIMM (Rambus in line Memory
Module), dependiendo de la cantidad de pines que contenga y del tamaño físico
del módulo.

 La memoria ROM

Además de la memoria RAM, las computadoras trabajan con la memoria


denominada ROM, Read Only Memory, que como su nombre lo indica se trata
de una memoria sólo de lectura, ya que la mayoría de estas memorias no pueden
ser modificadas debido a que no permiten su escritura.
La memoria ROM viene incorporada a la motherboard y es utilizada por la PC
para dar inicio a la BIOS, lo cual es básicamente un programa que posee las
instrucciones adecuadas para guiar a la computadora durante el arranque.
Entre sus funciones, la BIOS comienza con el proceso denominado POST (Power
On Self Test) durante el cual inspeccionará todo el sistema para corroborar que
todos sus componentes funcionan adecuadamente para dar lugar al arranque.
Para ello, la BIOS consulta un registro en el que se halla toda la información
referente al hardware que tenemos instalado en nuestra PC, para comprobar que
todo se encuentre en orden. Dicho registro es denominado CMOS Setup.

Si bien mencionamos que en muchos casos la memoria ROM no puede ser


modificada, en la actualidad gran cantidad de motherboards incorporan
nuevos modelos de ROM que permiten su escritura, para que el usuario pueda
realizar cambios en la BIOS con el fin de mejorar su funcionamiento.

La diferencia fundamental que existe entre la memoria RAM y la ROM radica


en la velocidad, ya que la ROM al tratarse de un tipo de memorial secuencial
necesita recorrer todos los datos hasta hallar la información que está
buscando, mientras que la RAM trabaja de manera aleatoria, lo que hace que
acceda a la información específica de manera directa.

Este factor hace que la velocidad de la RAM sea notablemente superior.


Asimismo, la capacidad de ésta es mayor a la de la memoria ROM, y a diferencia
de esta última, la RAM no viene integrada al motherboard, lo que permite que el
usuario pueda expandir la cantidad de memoria RAM de su PC.

 La memoria caché

Otro de los tipos de memoria utilizados por las computadoras es la


denominada SRAM, más conocida como memoria Caché.

Tanto el procesador como el disco rígido y la motherboard poseen su propia


memoria caché, que básicamente resguarda distintas direcciones que son
utilizadas por la memoria RAM para realizar diferentes funciones, tales como
ejecutar programas instalados en la PC.

El proceso que realiza la memoria caché es guardar las ubicaciones en el disco


que ocupan los programas que han sido ejecutados, para que cuando
vuelvan a ser iniciados el acceso a la aplicación logre ser más rápido.

Existen tres tipos de caché diferentes:

– El caché L1 que se encuentra en el interior del procesador y funciona a la


misma velocidad que éste, y en el cual se guardan instrucciones y datos.

– El caché L2 que suelen ser de dos tipos: interno y externo. El primero se


encuentra dentro de la motherboard, mientras que el segundo se halla en el
procesador pero de manera externa, lo que lo hace más lento que el caché L1.

– El caché L3 que sólo vienen incorporado a algunos de los microprocesadores


más avanzados, lo que resulta en una mayor velocidad de procesos.

 La memoria de Swap
En algunas computadoras, sobre todo en aquellas que poseen sistema operativo
Microsoft Windows o Linux, también encontraremos la denominada memoria
virtual o de Swap.

Este tipo de memoria, que funciona de manera similar a la caché, es creada por
Windows o Linux para ser utilizada exclusivamente por el sistema
operativo. En el caso de Linux esta denominada memoria swap generalmente
está ubicada en una partición diferente del disco, mientras que en el sistema de
Microsoft es un archivo dentro del sistema operativo mismo.

En muchas ocasiones la memoria virtual suele producir ciertos problemas que


ocasionan que la PC se cuelgue, ya que este tipo de memoria ha sido creada
por el sistema dentro del disco rígido y a veces puede llegar a superar la
capacidad de proceso.

En la ejecución de programas mediante la memoria virtual, sólo obtendremos


como resultado que nuestra PC se vuelva más lenta, ya que le resta velocidad
de proceso al disco rígido.

La mejor forma de evitar este inconveniente es expandir la cantidad de memoria


RAM de nuestra PC, para que el sistema no necesite de la creación de memoria
virtual extra, y por ende relentice los procesos durante nuestro trabajo.

11. Tipos de monitores

♦ Monitores CRT:
En el año 1923 se utilizó esta tecnología para los primeros televisores en blanco y
negro, mientras que la televisión a color se desarrolló en el año 1940.

Los monitores siguen este mismo proceso, primero se desarrollan en blanco y


negro y más tarde se introducen los monitores a color. Las siglas de este tipo de
monitor significan CadoticRayTube o tubo de rayos catódicos. EL monitor CRT es
un dispositivo que permite la visualización de imágenes procedentes de la
computadora por medio de un puerto de video hasta los circuitos del monitor.

Utiliza electrones para transferir imágenes de una fuente de programa


(probablemente una computadora o una antena). Para formar un color en pantalla
que no sea ninguno de los colores básicos, se combinan entre sí los
tres colores básicos. Los monitores CRT son tanto pesados como robustos, pero
eran los tipos de monitores que eran asociados con las computadoras de escritorio
por gran parte de los 80 y 90 hasta la revolución de paneles planos.
Cuando la información que procede de la computadora ha sido procesada, se
crean los gráficos por medio de un cañón que lanza electrones contra una pared
de fosforo donde chocan generando una pequeña luz de color.

Son múltiples las ventajas de este tipo de monitores, entre las que cabe destacar,
que permiten reproducir una mayor variedad cromática y es posible el ajuste de
diferentes niveles de resolución.

Entre las desventajas podemos encontrar que estas más desactualizados por lo
que ocupan más espacio, debido al fondo que presentan, los modelos que son
muy antiguos tienen una pantalla curva, los campos eléctricos afectan al monitor,
produciendo que la pantalla vibre y necesitan para un buen disfrute un ajuste
realizado por parte del usuario.

♦ Monitores LCD:
Las pantallas LCD compiten en el mercado doméstico contra las pantallas de
plasma y pantallas LED, así como en el futuro contra pantallas 3D.

Cada vez más populares, los monitores LCD ya son considerados, por muchos,
indispensables para el uso de la computadora. No es para menos: además de que
ocupan menos espacio, consumen menos energía y son más confortables para la
vista que los CRT.La tecnología LCD no es empleada sólo en los monitores para
computadoras. En el mercado, es posible encontrar dispositivos portátiles (como
consolas de video, teléfonos celulares, calculadoras, cámaras digitales y
handhelds) cuya pantalla es LCD. Además de eso, vale acordarse que las
notebooks utilizan esta tecnología hace años.

Esto sucede porque la tecnología LCD permite mostrar imágenes monocromáticas


o color y animaciones en prácticamente cualquier dispositivo, sin la necesidad de
un tubo de imagen, como sucede con los monitores CRT.

Como indica el nombre, las pantallas de LCD están formadas por un material
denominado cristal líquido. Las moléculas de ese material son distribuidas entre
dos láminas transparentes polarizadas. Esa polarización es orientada de manera
diferente en las dos láminas, de forma que se formen ejes polarizadores
perpendiculares, como si formaran un ángulo de 90º. A groso modo, es como si
una lámina recibiera polarización horizontal y la otra polarización vertical.

Las moléculas de cristal líquido son capaces de orientar la luz. Cuando una
imagen es mostrada en un monitor LCD, elementos eléctricos presentes en las
láminas generan campos magnéticos que inducen al cristal líquido a “guiar” la luz
que entra de la fuente luminosa para formar el contenido visual. Sin embargo, una
tensión diferente puede ser aplicada, haciendo que las moléculas de cristal líquido
se alteren de manera que impidan el pasaje de la luz.

En la pantallas monocromáticas (comunes en relojes, calculadoras, etc.), las


moléculas asumen dos estados: transparentes (la luz pasa) y opaco (la luz no
pasa). Para pantallas que muestran colores, diferentes tensiones y filtros que
trabajan sobre la luz blanca son aplicados a las moléculas.

La luz del dispositivo, por su parte, puede provenir de focos especiales


(generalmente fluorescentes) o de leds. Es válido recordar que, en el caso de
dispositivos LCD con bombilla, éstas tienen una duración determinada. En el
mercado, es posible encontrar monitores LCD cuyas bombillas duran 20 mil horas,
30 mil y hasta 50 mil horas.

-Tipos de LCD-

TN (Twisted Nematic): es un tipo encontrado en los monitores LCD más baratos.


En ese tipo, las moléculas de cristal líquido trabajan en ángulos de 90º. Los
monitores que usan TN pueden tener una exhibición de imagen desmejorada en
animaciones muy rápidas.

STN (Super Twisted Nematic): es una evolución del standard TN, capaz de
trabajar con imágenes que cambian de estado rápidamente. Además de eso, sus
moléculas tienen movimientos mejorados, haciendo que el usuario consiga ver la
imagen del monitor satisfactoriamente en ángulos muchas veces superiores a
160º.
GH (Guest Host): el GH es una especie de pigmento contenido en el cristal
líquido que absorbe la luz. Ese proceso ocurre de acuerdo al nivel del campo
eléctrico aplicado. Con esto, es posible trabajar con varios colores.

♦ Pantalla plana TFT:


La pantalla TFT es una variante de pantalla de cristal líquido (LCD) que usa
tecnología de transistor de película delgada TFT (Thin Film Transistor) para
mejorar su calidad de imagen.

Las pantallas de cristal líquido normales presentan píxeles excitados en forma


directa (se puede aplicar una tensión a través de un segmento sin que interfiera
con otros segmentos de la pantalla).

Esto no es posible en pantallas grandes con un gran número de píxeles, ya que se


requerirían millones de conexiones, conexiones en la parte superior e inferior para
cada uno de los tres colores (rojo, verde y azul) de cada píxel. Para evitarlo los
píxeles son direccionados en filas y columnas, lo que reduce el número de
conexiones de millones a miles. El inconveniente de esta solución es que todos los
píxeles de la misma columna reciben una fracción de la tensión aplicada, como
ocurre con todos los píxeles de la misma fila.

Para controlar la tensión aplicada a cada píxel, cada uno de ellos cuenta con su
propio transistor conmutador, lo permite un control por separado.

♦ Monitores con pantalla LED:


Una pantalla LED es un dispositivo de salida, que muestra datos o información al
usuario, que se caracteriza por estar compuesto por diodos emisores de luz o
ledes, palabra adaptada al español y derivada de las siglas inglesas LED (Light
Emitting Diode). Es un elemento semiconductor capaz de emitir luz. Este tipo de
pantallas no deben ser confundidas con las pantallas LCD con retroiluminación
LED, muy usadas actualmente en ordenadores portátiles, monitores y televisores.

LED se presenta como una tecnología nueva y se cambia LCD por LED en la
designación de estos aparatos, sin que esto en realidad suponga un cambio
tecnológico realmente relevante. El uso de pantallas de ledes se ha extendido y
masificado en la actualidad. Su uso principal es mostrar información y publicidad
visible desde grandes distancias. En comparación con los paneles publicitarios o
los carteles, las pantallas de ledes ofrecen un dinamismo y un medio de
información más rápido, fácil de sustituir y atractivo para el destinatario.

–Pantalla LED gigante de exterior

Estas han sido diseñadas para el uso en exteriores han sido diseñadas para
resistir todo tipo de inclemencias meteorológicas adversas.
La tecnología led de alta potencia permite que estas pantallas puedan reproducir
videos e imágenes plenamente visibles a la luz de día.
Es por ello que este tipo de pantallas son las más demandas para uso publicitario
y gracias a la reducción de precios actual, en un breve plazo de tiempo van a
sustituir a los carteles publicitarios convencionales.

♦ Monitores de pantalla plasma:


Los monitores de pantalla plana (también llamados FPD que significa pantallas de
panel plano) Un panel de pantalla de plasma es un tipo de pantalla plana común a
gran televisor muestra 30 pulgadas o más grandes. Se les llama “pantallas de
plasma” porque la tecnología utiliza células pequeñas que contienen gases
ionizados con carga eléctrica, o lo son en cámaras esencia más comúnmente
conocido como las lámparas fluorescentes. Se popularizan cada vez más, ya que
ocupan menos espacio y son menos pesados que las tradicionales pantallas
CRT. Además la pantalla no se actualiza, sino que permanece estática hasta que
la computadora envíe señal de cambios de color a cada celda, por esta
característica es que se cansa menos la vista al trabajar. Compite actualmente
contra las pantallas LCD y los monitores CRT. La pantalla de plasma es una
tecnología desarrollada en el año de 1964 en la universidad de Illinois en USA;
está basada en una minúscula celda con fósforo y gas especial (formado de
electrones, iones y partículas neutras), que al entrar en contacto con un cátodo (un
pequeño conductor con el polo negativo), se convierte en plasma y genera en el
fósforo tres colores: azul, verde y rojo.
El contraste es la diferencia entre la parte más brillante de la imagen y la más
oscura, medida en pasos discretos, en un momento dado. Generalmente, cuanto
más alto es el contraste más realista.

Los fabricantes pueden mejorar artificialmente el contraste obtenido


incrementando el contraste y el brillo para lograr los valores más altos en las
pruebas. Sin embargo, un porcentaje de contraste generado mediante este
método sería engañoso, ya que la imagen sería esencialmente imposible de ver
con esa configuración. Se suele decir a menudo que las pantallas de plasma
tienen mejores niveles de negros (y relaciones de contraste), aunque tanto las
pantallas de plasma como las LCD tienen sus propios desafíos tecnológicos. Un
defecto de la tecnología de plasma es que si se utiliza habitualmente la pantalla al
nivel máximo de brillo se reduce significativamente el tiempo de vida del aparato.

Por este motivo, muchos consumidores usan una configuración de brillo por
debajo del máximo, pero que todavía sigue siendo más brillante que las pantallas
CRT. Pero entre las ventajas destacan que tienen Mayor ángulo de visión frente a
las pantallas de LCD y ausencia de tiempo de respuesta, lo que evita el efecto
«estela» o «efecto fantasma» que se produce en ciertos LCD debido a altos
tiempos de refresco (mayores a 12 ms). No contiene mercurio, a diferencia de las
pantallas LCD.

12. Tipos de impresoras

 Impresora de rueda:

Son impresoras de impacto y de caracteres. El cabezal de impresión está

constituido por una rueda metálica que contiene en su parte exterior los moldes de
los distintos tipos. La rueda se desplaza perpendicularmente al papel a lo largo de
un eje o varilla metálica paralela al rodillo donde se asienta el papel. La rueda está
continuamente girando y cuando el tipo a escribir pasa delante de la cinta
entintada se dispara, por la parte posterior al papel, un martillo que hace que el
carácter se imprima en tinta sobre el papel.

Una vez escrito el carácter, la rueda se desplaza a lo largo de la varilla, hacia su


derecha, o pasa a la línea siguiente. Estas impresoras están en desuso.

 Impresoras de margarita:

Son impresoras de calidad de impresión, sin embargo son relativamente lentas.


Los caracteres se encuentran modelados en la parte más ancha (más externa) de
los sectores (pétalos) de una rueda metálica o de plástico en forma de margarita.
La margarita forma parte del cabezal de impresión. Un motor posiciona la hoja de
margarita del carácter a imprimir frente a la cinta entintada, golpeando un martillo
al pétalo contra la cinta, escribiéndose el carácter sobre el papel. El juego de
caracteres se puede cambiar fácilmente sin más que sustituir la margarita.
Son análogas a las máquinas de escribir. Actualmente están fuera de uso.
 Impresoras matriciales o de agujas.
Estas impresoras, también denominadas de matriz de puntos, son las más
utilizadas con microordenadores y pequeños sistemas informáticos. Los
caracteres se forman por medio de una matriz de agujas. Las agujas golpean la
cinta entintada, trasfiriéndose al papel los puntos correspondientes a las agujas
disparadas.
Los caracteres, por tanto, son punteados, siendo su calidad muy inferior a los
caracteres continuos producidos por una impresora de margarita. No obstante,
algunos modelos de impresoras matriciales, presentan la posibilidad de realizar
escritos en semicalidad de impresión. Para ello, los caracteres se reescriben con
los puntos ligeramente desplazados, solapándose los de la segunda impresión con
los de la primera, dando una mayor apariencia de continuidad.

 Impresoras de tambor.
Podemos encontrar, dentro de estas impresoras, dos tipos:
De tambor compacto.
De tambor de ruedas.
Ambos tipos son impresoras de líneas y de impacto.
La impresora de tambor compacto contiene una pieza metálica cilíndrica cuya
longitud coincide con el ancho del papel. En la superficie externa del cilindro o
tambor se encuentran modelados en circunferencias los juegos de caracteres,
estando éstos repetidos tantas veces como posiciones de impresión de una línea.
El tambor está constantemente girando, y cuando se posiciona una generatriz
correspondiente a una determinada letra, la «A» por ejemplo, se imprimen
simultáneamente todas las «A» de la línea.
Las impresoras de tambor de ruedas son similares, sólo que cada circunferencia
puede girar independientemente. Todos los caracteres de la línea de impresión se
escriben a la vez, posicionándose previamente cada tipo en su posición correcta.
En lugar de una cinta entintada, estas impresoras suelen llevar una pieza de tela
entintada del ancho del papel.
 Impresoras de barras.
Los caracteres se encuentran moldeados sobre una barra de acero que se
desplaza de izquierda a derecha a gran velocidad, oscilando delante de la línea a
escribir. El juego de caracteres está repetido varias veces (usualmente tres).
Cuando los moldes de los caracteres a imprimir se posicionan delante de las
posiciones en que han de quedar en el papel se disparan por detrás de éste unos
martillos, imprimiéndose de esta forma la línea.
El número de martillos coincide con el número de caracteres por línea.
 Impresoras de cadena.
El fundamento es exactamente igual al de las impresoras de barra. Ahora los
caracteres se encuentran grabados en los eslabones de una cadena. La cadena
se encuentra cerrada y girando constantemente a gran velocidad frente a la cinta
entintada.
 Impresoras térmicas.
Son similares a las impresoras de agujas. Se utiliza un papel especial
termosensible que se ennegrece al aplicar calor.
El calor se transfiere desde el cabezal por una matriz de pequeñas resistencias en
las que al pasar una corriente eléctrica por ellas se calientan, formándose los
puntos en el papel.
Estas impresoras pueden ser:
€¢ De caracteres: Las líneas se imprimen con un cabezal móvil.
€¢ De líneas: Contienen tantas cabezas como caracteres a imprimir por línea. Son
más rápidos.

 Impresoras de inyección de tinta.

El descubrimiento de esta tecnología fue fruto del azar. Al acercar accidentalmente


el soldador, por parte de un técnico, a un minúsculo cilindro lleno de tinta, salió
una gota de tinta proyectada, naciendo la inyección de tinta por proceso térmico.
La primera patente referente a este tipo de impresión data del año 1951, aunque
hasta el año 1983, en el que Epson lanzó la SQ2000, no fueron lo suficientemente
fiables y baratas para el gran público.
Actualmente hay varias tecnologías, aunque son muy pocos los fabricantes a nivel
mundial que las producen, siendo la mayoría de ellas de un mismo fabricante con
una marca puesta por el que las vende. Canon (que le proporciona las piezas a
Hewlett Packard) y Olivetti son los más importantes dentro de este tipo.
El fundamento físico es similar al de las pantallas de vídeo. En lugar de transmitir
un haz de electrones se emite un chorro de gotas de tinta ionizadas que en su
recorrido es desviado por unos electrodos según la carga eléctrica de las gotas. El
carácter se forma con la tinta que incide en el papel. Cuando no se debe escribir,
las gotas de tinta se desvían hacia un depósito de retorno, si es de flujo contínuo,
mientras que las que son bajo demanda, todas las usadas con los PC´s, la tinta
sólo circula cuando se necesita. Los caracteres se forman según una matriz de
puntos. Estas impresoras son bidireccionales y hay modelos que imprimen en
distintos colores.
Un ejemplo de aplicación de la impresión con tinta es el marcado de lote y fecha
de caducidad en botellas de leche. Este proceso se efectúa con el sistema de
impresión mediante circulación continúa Los equipo de marcado de botellas sufren
una degradación progresiva en la tinta que contienen, debida al proceso
tecnológico de funcionamiento. el sistema de circulación continúa de tinta provoca
que una partícula de tinta pase por el cabezal impresor gran cantidad de veces
antes de ser proyectada. La tinta al sufrir presión, entrar en contacto con el aire y
sufrir la carga de las placas electrostáticas pierde propiedades eléctricas, se
evapora parte del disolvente y sufre contaminación debida al polvo y humedad del
aire. Este sistema incorpora un viscosímetro que controla la cantidad de disolvente
que la tinta pierde al entrar en contacto con el aire y la compensa añadiendo
aditivo, que además de disolvente añade sales y otros elementos para recuperar
la tinta.
La contaminación que la tinta sufre con el contacto del aire, provoca peor calidad
de impresión, llegando un momento en el que hay que cambiar la tinta. El equipo
incorpora un depósito central de cambio fácil e instantáneo que avisa con 24 horas
de antelación al momento de sustitución. El depósito central incorpora el filtro
principal de tinta, con lo que se cambia sin intervención cada vez que se repone el
depósito.
 Impresoras electrostáticas.
Las impresoras electrostáticas utilizan un papel especial eléctricamente conductor
(de color gris metálico). La forma de los caracteres se produce por medio de
cargas eléctricas que se fijan en el papel por medio de una hilera de plumillas que
abarcan el ancho del papel. Posteriormente a estar formada eléctricamente la
línea, se la hace pasar, avanzando el papel, por un depósito donde se la pulveriza
con un líquido que contiene suspendidas partículas de tóner (polvo de carbón).
Las partículas son atraídas en los puntos que conforman el carácter. Estas
impresoras de línea son muy rápidas.
 Impresoras láser.
Estas impresoras tienen en la actualidad una gran importancia por su elevada
velocidad, calidad de impresión, relativo bajo precio y poder utilizar papel normal.
Su fundamento es muy parecido al de las máquinas de fotocopiar. La página a
imprimir se transfiere al papel por contacto, desde un tambor que contiene la
imágen impregnada en tóner.
La impresión se realiza mediante radiación láser, dirigida sobre el tambor cuya
superficie tiene propiedades electrostáticas (se trata de un material fotoconductor,
tal que si la luz incide sobre su superficie la carga eléctrica de esa superficie
cambia).
 ImpresorasLED.
Son análogas a las láser, con la única diferencia que la imagen se genera desde
una hilera de diodos, en vez de un láser. Al ser un dispositivo fijo, son más
compactas y baratas, aunque la calidad es peor. Algunas de las que se anuncian
como láser a precio barato, son de esta tecnología, por ejemplo Fujitsu y OKI.
13. Pixel

Ampliando lo suficiente una imagen (zoom) en la pantalla de una computadora,


pueden observarse los píxeles que la componen, basta con ver esta pantalla a
través de una gota de agua. Los píxeles son los puntos de color (siendo la escala
de grises una gama de color monocromática). Las imágenes se forman como una
sucesión de píxeles. La sucesión marca la coherencia de la información
presentada, siendo su conjunto una matriz coherente de información para el uso
digital. El área donde se proyectan estas matrices suele ser rectangular. La
representación del píxel en pantalla, al punto de ser accesible a la vista por
unidad, forma un área homogénea en cuanto a la variación del color y densidad
por pulgada, siendo esta variación nula, y definiendo cada punto sobre la base de
la densidad, en lo referente al área.
En las imágenes de mapa de bits, o en los dispositivos gráficos, cada píxel se
codifica mediante un conjunto de bits de longitud determinada (la profundidad de
color); por ejemplo, puede codificarse un píxel con un byte (8 bits), de manera que
cada píxel admite hasta 256 variaciones de color (28 posibilidades binarias), de 0 a
255. En las imágenes llamadas de color verdadero, normalmente se usan tres
bytes (24 bits) para definir el color de un píxel; es decir, en total se pueden
representar unos 224 colores, esto es 16.777.216 variaciones de color. Una imagen
en la que se utilicen 32 bits para representar un píxel tiene la misma cantidad de
colores que la de 24 bits, ya que los otros 8 bits son usados para efectos de
transparencia.
Para poder visualizar, almacenar y procesar la información numérica representada
en cada píxel, se debe conocer, además de la profundidad y brillo del color,
el modelo de color que se utiliza. Por ejemplo, el modelo de color RGB (Red-
Green-Blue) permite crear un color compuesto por los tres colores primarios según
el sistema de mezcla aditiva. De esta forma, según la cantidad de cada uno de
ellos que se use en cada píxel será el resultado del color final del mismo. Por
ejemplo, el color magenta se logra mezclando el rojo y el azul, sin componente
verde (este byte se pone en 0). Las distintas tonalidades del mismo color se logran
variando la proporción en que intervienen ambas componentes (se altera el valor
de esos dos bytes de color del píxel). En el modelo RGB lo más frecuente es usar
8 bits al representar la proporción de cada una de las tres componentes de color
primarias. Así, cuando una de las componentes vale 0, significa que ella no
interviene en la mezcla y cuando vale 255 (28 – 1) significa que interviene dando el
máximo de ese tono, valores intermedios proveen la intensidad correspondiente.
La mayor parte de los dispositivos que se usan con una computadora
(monitor, escáner, etc.) usan el modelo RGB (modelo de reflexión o aditivo),
excepto los que aportan tintes, como las impresoras, que suelen usar el modelo
CMYK (modelo sustractivo).
14. Bits
Bit es el acrónimo de Binary digit (o sea de ‘dígito binario’, en español
denominado como bit, y en menor medida como bitio).1 Un bit es un dígito
del sistema de numeración binario. La capacidad de almacenamiento de una
memoria digital también se mide en bits, pues esta palabra tiene
varias acepciones.2
Lo usual es que un registro digital u otras memorias digitales vinculadas con la
computación y/o con las telecomunicaciones, tengan una capacidad de
representación de informaciones de por ejemplo 8 bits, 16 bits, 32 bits, 64 bits, etc;
una memoria binaria tiene una capacidad efectiva de representación de un bit.3
Mientras que en el sistema de numeración decimal se usan diez dígitos (diez
símbolos), en el binario se usan solo dos dígitos, el 0 y el 1. Un bit o dígito binario
puede representar uno de esos dos valores: 0 o 1.
Se puede imaginar un bit como una bombilla que puede estar en uno de los
siguientes dos estados:

apagada o encendida

El bit es la unidad mínima de información empleada en informática, en cualquier


dispositivo digital, o en la teoría de la información. Con él, podemos representar
dos valores cualesquiera, como verdadero o falso, abierto o cerrado, blanco o
negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno
de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).

15. Multimedia

El término multimedia hace referencia a cualquier objeto o sistema que utiliza


múltiples medios de expresión físicos o digitales para presentar o comunicar
información. De allí la expresión multimedios. Los medios pueden ser variados,
desde texto e imágenes, hasta animación, sonido, video, alto nivel de
interactividad1. También se puede calificar como multimedia a los medios
electrónicos u otros medios que permiten almacenar y presentar contenido
multimedia. Multimedia es similar al empleo tradicional de medios mixtos en
las artes plásticas, pero con un alcance más amplio.2
Se habla de multimedia interactiva, cuando el usuario tiene libre control sobre la
presentación de los contenidos, acerca de qué es lo que desea ver y cuándo; a
diferencia de una presentación directa, en la que es forzado a visualizar contenido
en un orden predeterminado.
Hipermedia podría considerarse como una forma especial de multimedia
interactiva que emplea estructuras de navegación más complejas que aumentan el
control del usuario sobre el flujo de la información. El término "hiper" se refiere a
"navegación", de allí los conceptos de "hipertexto" (navegación entre textos) e
"hipermedia" (navegación entre medios).
Lev Manovich fue quién acuño el término metamedio, que se puede definir como
un medio que contiene diversos medios y que a su vez adquieren tres distintas
propiedades: con el software, datos y cuando se procesan. Los meta-medios una
fuente productora de medios.3
El concepto de multimedia es tan antiguo como la comunicación humana ya que al
expresarnos en una charla normal hablamos (sonido), escribimos (texto),
observamos a nuestro interlocutor (video) y accionamos con gestos y movimientos
de las manos (animación). Con el auge de las aplicaciones multimedia para
computador este vocablo entró a formar parte del lenguaje habitual.
Cuando un programa de computador, documento o una presentación combina
adecuadamente los medios, se mejora notablemente la atención, comprensión y el
aprendizaje; ya que se acercará algo más a la manera habitual en que los seres
humanos nos comunicamos, cuando empleamos varios sentidos para comprender
un mismo objeto e informarnos sobre él.

Multimedia es una combinación de formas de


contenido:

Texto Audio Imagen

Animación Vídeo Interactividad


16. Byte

Un byte es una unidad de información formada por una seguidilla de bits


adyacentes. El diccionario de la Real Academia Española señala que byte es
sinónimo de octeto (una unidad de información de ocho bits); sin embargo, el
tamaño del byte (que proviene del inglés bite, “mordisco”) depende del código de
caracteres en el que ha sido definido.

Es importante subrayar el hecho de que no existe una norma que haya establecido
de manera oficial el símbolo que le corresponde al byte. Hasta el momento nos
encontramos que se identifica de dos maneras fundamentalmente. Así, en los
países de habla francesa se representa mediante una “o” mientras que en los
anglosajones corresponde a la “B”

17. Tamaño de la informacion.

Ya que el byte es una unidad de información muy pequeña, se suelen utilizar sus
múltiplos: kilobyte (kB), megabyte (MB), gigabyte (GB). Bit: es una unidad de
medida de almacenamiento de información; es la mínima unidad de memoria
obtenida del sistema binario y representada por 0 ó 1.

18.Baudio

Baudio Unidad de medida empleada en telecomunicaciones se refiere a la


velocidad de transmisión de señales expresada en símbolos por segundo. Es la
velocidad de conmutación (cambios de voltaje o de frecuencia) que se realiza
por segundo.

Definición

Se define como el número de cambios de estado (transiciones) por segundo de


una señal discreta de valores enviada por el módem, entendiendo por señal
discreta aquella que sólo puede adoptar valores finitos. Además puede definirse
como unidad de velocidad de transmisión de pulsos. En el caso de que los
baudios fuesen binarios, el baudio equivaldría a bits. Pero sólo en este caso, ya
que es bastante común confundir baudios con bits. Lo cierto es que un baudio
puede representar más de un bit. También puede definirse como el cambio en
el voltaje de la señal por segundo en la línea de transmisión.

19. Telematica.
La telemática es la disciplina científica y tecnológica que analiza e
implementa servicios y aplicaciones que usan tanto los sistemas
informáticos como los de telecomunicación, como resultado de la unión de ambas
disciplinas.12
Son servicios o aplicaciones telemáticas, por ejemplo, cualquier tipo de
comunicación a través de internet o los sistemas de posicionamiento global.

20. Telecomunicacion

Una telecomunicación es toda transmisión y recepción de señales de cualquier


naturaleza, típicamente electromagnéticas, que
contengan signos, sonidos, imágenes o, en definitiva, cualquier tipo
de información que se desee comunicar a cierta distancia.1
Por metonimia, también se denomina telecomunicación (o telecomunicaciones,
indistintamente)nota 1 a la disciplina que estudia, diseña, desarrolla y explota
aquellos sistemas que permiten dichas comunicaciones; de forma análoga,
la ingeniería de telecomunicaciones resuelve los problemas técnicos asociados a
esta disciplina.

21. Cual fue el primer computador comercial.

La UNIVAC I (UNIVersal Automatic Computer I, Computadora Automática


Universal I) fue la primera computadora comercial fabricada en Estados Unidos.
Fue diseñada principalmente por J. Presper Eckert y John William Mauchly,
también autores de la segunda computadora electrónica estadounidense,
la ENIAC.

22. Historia del computador.

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó


la máquina de calcular de Pascal e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó


delgadas placas de madera perforadas para controlar el tejido utilizado en los
diseños complejos. Durante la década de 1880 el estadístico
estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas,
similares a las placas de Jacquard, para procesar datos. Hollerith consiguió
compilar la información estadística destinada al censo de población de 1890 de
Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas
perforadas sobre contactos eléctricos.

También en el siglo XIX el matemático e inventor británico Charles


Babbage elaboró los principios de la computadora digital moderna. Inventó una
serie de máquinas, como la máquina diferencial, diseñadas para solucionar
problemas matemáticos complejos. Muchos historiadores consideran a Babbage y
a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del
poeta inglés Lord Byron, como a los verdaderos inventores de la computadora
digital moderna. La tecnología de aquella época no era capaz de trasladar a la
práctica sus acertados conceptos; pero una de sus invenciones, la máquina
analítica, ya tenía muchas de las características de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas
perforadas, una memoria para guardar los datos, un procesador para las
operaciones matemáticas y una impresora para hacer permanente el registro.

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX.


Los primeros modelos realizaban los cálculos mediante ejes y engranajes
giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de
ecuaciones demasiado difíciles como para poder ser resueltas mediante otros
métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos
analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria
de los torpedos en los submarinos y para el manejo a distancia de las bombas en
la aviación.

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos


que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró
el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre
de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya
operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los
mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este
proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de
máquina electrónica en el Iowa State College (EEUU). Este prototipo y las
investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron
eclipsadas por el desarrollo del Calculador e integrador numérico
electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en
1946. El ENIAC, que según se demostró se basaba en gran medida en el
ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo
una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios


cientos de multiplicaciones por minuto, pero su programa estaba conectado al
procesador y debía ser modificado manualmente. Se construyó un sucesor del
ENIAC con un almacenamiento de programa que estaba basado en los conceptos
del matemático húngaro-estadounidense John von Neumann. Las instrucciones
se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de
las limitaciones de velocidad del lector de cinta de papel durante la ejecución y
permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el


advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que
permitían las máquinas con válvulas. Como los transistores utilizan mucha menos
energía y tienen una vida útil más prolongada, a su desarrollo se debió el
nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores
o computadoras de segunda generación. Los componentes se hicieron más
pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema
resultaba más barata.

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó


la fabricación de varios transistores en un único sustrato de silicio en el que los
cables de interconexión iban soldados. El circuito integrado permitió una posterior
reducción del precio, el tamaño y los porcentajes de error. El microprocesador se
convirtió en una realidad a mediados de la década de 1970, con la introducción
del circuito de integración a gran escala (LSI, acrónimo de Large Scale
Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI,
acrónimo de Very Large Scale Integrated), con varios miles de transistores
interconectados soldados sobre un único sustrato de silicio.

23. Modem.

Un módem (del inglés modem, acrónimo


de modulator demodulator; pl. módems)1 es un dispositivo que convierte
las señales digitales en analógicas (modulación) y viceversa (desmodulación),2 y
permite así la comunicación entre computadoras a través de la línea telefónica o
del cablemódem. Sirve para enviar la señal moduladora mediante otra señal
llamada portadora.
Se han usado módems desde la década de 1960, debido a que la transmisión
directa de las señales electrónicas inteligibles, a largas distancias, no es eficiente;
por ejemplo, para transmitir señales de audio por el aire se requerirían antenas de
gran tamaño (del orden de cientos de metros) para su correcta recepción. Es
habitual encontrar en muchos módems de red conmutada la facilidad de respuesta
y marcación automática, que les permiten conectarse cuando reciben una llamada
de la RTPC (Red Telefónica Pública Conmutada) y proceder a la marcación de
cualquier número previamente grabado por el usuario. Gracias a estas funciones
se pueden realizar automáticamente todas las operaciones de establecimiento de
la comunicación.
24.W.W.W
Definición de WWW. La WWW, abreviatura de World Wide Web, es la red global
mundial de intercambio de documentos a través de hipertexto comúnmente
conocida como Internet.

25. Pletters

Plotter o plóter es un periférico de computadora que permite dibujar o representar


diagramas y gráficos. Existen plotters monocromáticos y de cuatro, ocho o doce
colores.

También podría gustarte