Está en la página 1de 27

CENTRO DE ESTUDIOS SUPERIORES

“ADOLFO LÓPEZ MATEOS”


LICENCIATURA EN CONTADURIA PÚBLICA

RECONOCIMIENTO DE VALIDEZ OFICIAL DE ESTUDIOS


DE LA S.E.V. 2007185

DOCENTE
LIC. DAVID ROBLES MONJARAZ

MATERIA

INFORMATICA

ALUMNO

BEATRIZ ZAYAS TEODORO

12/11/2013
TEMAS Y SUBTEMAS

UNIDAD I ANTECEDENTES HISTORICOS

1.1 Historia de la computación

1.1.1 Los primeros instrumentos

1.1.2 Las primeras máquinas de cálculo

1.1.3 La tarjeta perforada

1.1.4 Avances iniciales

1.2 Generaciones de computadoras

UNIDAD II COMPUTADORAS EN EL MUNDO ACTUAL

2.1 Términos básicos

2.1.1 Computadora

2.1.2 Informática

2.1.3 Información

2.1.4 Partes principales

2.2 Posibilidades de las computadoras

2.3 Organización de los sistemas informáticos

2.4 Ventajas del uso de la computadora

UNIDAD III HARDWARE

3.1 Unidad central de procesamiento

3.1.1 Concepto de almacenamiento primario

3.1.2 Codificación de los datos almacenados

3.1.3 Componentes de almacenamiento

3.1.4 Los buses

3.1.5 Funciones de aritmética, lógica y de control

3.2 Memoria

3.2.1 Memoria primaria


3.2.2 Memoria secundaria

3.2.3 Jerarquía de almacenamiento

3.2.4 Almacenamiento secundario para acceso directo

3.2.5 Almacenamiento secundario para acceso secuencial

3.3 Dispositivos de entrada Y de salida

3.4 Discos pórticos

3.5 Configuraciones y categorías de computadoras

UNIDAD IV SOFTWARE

4.1 SISTEMAS OPERATIVOS

4.1.1 TIPOS DE SISTEMAS OPERATIVOS

4.2 Lenguajes de programación

4.2.1 Tipos de lenguajes de programación

4.3 programas de aplicación

4.3.1 Tipos de programas de aplicación


UNIDAD I ANTECEDENTES HISTÓRICOS

1.1 HISTORIA DE LA COMPUTACION

1.1.1 primeros instrumentos

El ábaco

El ábaco es posiblemente el primer dispositivo mecánico de contabilidad de la historia. Tiene unos 5.000 años
de antigüedad, y su efectividad ha soportado la prueba del tiempo, puesto que aún se utiliza en varios lugares
del mundo.

El ábaco es un dispositivo sencillo: una serie de cuentas ensartadas en varillas que a su vez están montadas
en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores
almacenados. A pesar de su capacidad para representar y almacenar datos, a este dispositivo no se le puede
llamar computadora, puesto que –entre otras cosas– carece del elemento fundamental llamado programa.

1.1.2 Las primeras máquinas de cálculo

El genio renacentista Leonardo Da Vinci (1452-1519) trazó alrededor de 1500 varios apuntes para una
sumadora mecánica. Más de un siglo después, hacia 1623, el alemán Wilhelm Schickard construyó la primera
máquina de calcular. Sin embargo, la Historia ha reservado el puesto de creador del primer ingenio mecánico
calculador a Pascal.

Efectivamente, en 1642, el filósofo y matemático francés Blaise Pascal (1623-1662) construyó la primera
sumadora mecánica, que se llamó Pascalina, y que funcionaba con un complicado mecanismo de engranes y
ruedas: la rotación completa de una de las ruedas dentadas hacía girar un paso a la rueda siguiente. La
Pascalina sólo realizaba sumas y restas.

A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina resultó un fracaso
financiero, pues resultaba más costosa que la labor humana para los cálculos aritméticos.

Por su parte, el alemán Gottfried Wilhelm von Leibniz (1646-1716) diseñó en 1671 otra sumadora mecánica,
que concluyó definitivamente en 1694, conocida como la Calculadora Universal o Rueda Escalada de Leibniz,
capaz de realizar sumas, restas, divisiones y raíces cuadradas.

En estas calculadoras mecánicas, los datos, representados mediante las posiciones de los engranajes, se
introducían manualmente, estableciendo dichas posiciones finales de las ruedas de manera similar a como
leemos los números en el cuentakilómetros de un automóvil.

A partir de este momento se fueron sucediendo nuevos modelos de calculadoras mecánicas, con distintas
variaciones y mejoras.

1.1.3 La primera tarjeta perforada

El fabricante de tejidos francés Joseph-Marie Jacquard (1752-1834) ideó en 1801 un telar, todavía utilizado
en la actualidad, que podía reproducir automáticamente patrones de tejidos leyendo la información codificada
en patrones de agujeros perforados en tarjetas de papel rígido. Las tarjetas se perforaban estratégicamente y
se acomodaban en cierta secuencia para indicar un diseño de tejido en particular. Para cambiar de diseño,
basta con preparar una nueva colección de tarjetas.

El telar consta de una serie de varillas, sobre las que pasan las tarjetas, y de las que están prendidos hilos de
distintos colores. Las perforaciones de las tarjetas determinan de manera mecánica qué varillas –y por tanto
qué hilos– intervienen en la formación del tejido y en la disposición de los dibujos.
El principio de las tarjetas perforadas de Jacquard es el mismo que rige el funcionamiento de ciertos aparatos
musicales. Más tarde, las tarjetas perforadas tendrán una gran influencia en los trabajos de Charles Babbage.

El telar de Jacquard supone una triple aportación teórica para el futuro desarrollo computacional:

 Proporciona un modelo de automatización de los procesos de producción diversificada (opuesta a la


de un solo propósito o específica).

 Por primera vez se realiza una codificación de la información. Las tarjetas son la información
suministrada (input) y el tejido es el resultado (output).

 Por primera vez se realiza la programación de las instrucciones. La cadena de tarjetas perforadas
prefigura la organización de los procesos mediante técnicas de programación.

1.1.4 Avances iniciales

La máquina analítica de Babbage

Charles Babbage (1791-1871), visionario científico y matemático inglés, fue el más claro precursor del
hardware computacional, hasta el punto de que se le considera el padre histórico de la computación.

Preocupado desde su juventud por los frecuentes errores cometidos en el cálculo de las tablas numéricas (y
en la posterior impresión de sus resultados), ideó la Máquina de Diferencias (Difference Engine), cuyo modelo
definitivo es de 1823, capaz de calcular –e imprimir– tablas matemáticas de hasta veinte cifras con ocho
decimales y polinomios de sexto grado.

Babbage, subvencionado por el gobierno británico desde 1823, trabajó durante años en el perfeccionamiento
de su Máquina de Diferencias, pero finalmente tuvo que abandonar el proyecto, al agotarse la ayuda
económica antes de haber podido construir una máquina con el refinamiento técnico que exigía su diseño.

Babbage reaccionó ante el aparente fracaso de su invento con un proyecto aún más ambicioso, y en 1834
concibió su revolucionaria Máquina Analítica (Analytical Engine), que puede considerarse una auténtico
prototipo decimonónico de ordenador. En esencia, la Máquina Analítica era una calculadora polivalente con
capacidad para operar de forma distinta según el problema que se le planteara, es decir, algo muy cercano a
una computadora de propósito general.

En la máquina de Babbage aparecen ya los elementos básicos de los modernos ordenadores: dispositivos de
entrada y de salida, unidad de control, unidad lógico-aritmética y memoria. La programación se debía realizar
mediante fichas perforadas.

A pesar de su extraordinaria brillantez, el ambicioso proyecto no pudo realizarse por razones económicas e
industriales, puesto que la tecnología de la época no bastaba para hacer realidad el proyecto: el diseño
requería miles de engranes y mecanismos de gran precisión que cubrirían el área de un campo de futbol y
necesitarían accionarse por una locomotora.

Charles Babbage trabajó hasta su muerte en su Máquina Analítica (a la que los escépticos bautizaron
como La locura de Babbage), de la que sólo pudo contruir algún fragmento. Sin embargo, sus notas
describían asombrosamente casi todas las características incorporadas hoy en la moderna computadora
electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y los componentes de precisión,
seguramente habría adelantado varias décadas el nacimiento de la computadora electrónica. Sin embargo, su
obra cayó en un olvido tan completo que algunos pioneros del desarrollo de la computadora electrónica
ignoraron por completo sus ideas sobre memoria, impresoras, tarjetas perforadas y control de programa-
secuencia.
En 1843, Lady Ada Augusta Lovelace, estrecha colaboradora de Babbage, sugirió la idea de que las tarjetas
perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas
operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera
programadora.

La tabuladora de Hollerith

A finales del siglo XIX, la oficina de censos estadounidense se enfrentaba a un grave problema: había tardado
ocho años en finalizar el censo de 1880, y había llegado a la conclusión de que el censo de cada diez años
tardaría en terminarse más que esos mismos diez años.

Para intentar solucionar el problema, la oficina de censos encargó al estadístico Herman Hollerith (1860-1929)
que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. Hollerith desarrolló una
máquina tabuladora, que se componía de un lector de tarjetas, un contador, un clasificador y un aparato de
tabular. Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el
censo se terminó en sólo 3 años y la oficina se ahorró alrededor de 5 millones de dólares. Así comenzó el
procesamiento automatizado de datos.

Hollerit no tomó la idea de las tarjetas perforadas del telar de Jacquard, sino de la fotografía de perforación:
algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los
conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del
pasajero. Eso le dio a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular.

Hollertih fundó la Tabulating Machine Company y vendió sus productos en todo el mundo. Por ejemplo, el
primer censo llevado a cabo en Rusia (1897) se registró con el Tabulador de Hollerith. En 1911, la Tabulating
Machine Company se unió con otras Compañías y formó la Computing-Tabulating-Recording-Company.

Las máquinas electromecánicas

Los resultados de las máquinas tabuladoras tenían que llevarse al corriente por medios manuales, hasta que
en 1919 la Computing-Tabulating-Recording-Company anunció la aparición de la impresora/listadora. Esta
innovación revolucionó la manera en que las empresas efectuaban sus operaciones. Para reflejar mejor el
alcance de sus intereses comerciales, en 1924 la compañía cambió el nombre por el de International Bussines
Machines Corporation (IBM).

Desde los años cincuenta, la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más
dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (un
nombre, una dirección, etc.), el procesamiento de la tarjeta perforada se conoció también como procesamiento
de registro unitario.

La familia de las máquinas electromecánicas de contabilidad (EAM: Eloctromechanical Accounting Machine)


de dispositivos de tarjeta perforada comprende: la perforadora de tarjetas, el verificador, el reproductor, la
perforación sumaria, el intérprete, el clasificador, el otejador, el calculador y la máquina de contabilidad.

El operador de un cuarto de máquinas en una instalación de tarjetas perforadas realizaba un trabajo que
demandaba mucho esfuerzo físico. Algunos cuartos de máquinas asemejaban la actividad de una fábrica: las
tarjetas perforadas y las salidas impresas se cambiaban de un dispositivo a otro en carros manuales; el ruido
que producía eran tan intenso como el de una planta ensambladora de automóviles.

Los pioneros de la computación

La computadora ABC
Una antigua patente de un dispositivo que muchos creyeron que era la primera computadora digital
electrónica se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V.
Atanasoff como el inventor de la computadora digital electrónica. El Dr. Atanasoff, catedrático de la
Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a
1942. Llamó a su invento la computadora Atanasoff-Berry, o ABC (Atanasoff Berry Computer). Clifford Berry,
un estudiante graduado, fue una útil ayuda en la construcción de la computadora ABC.

Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la
computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la
Universidad de Iowa aparece una placa con la siguiente leyenda: La primera computadora digital electrónica
de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff,
matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry,
estudiante graduado de física.

La Mark-I

En 1944 se presentó la Mark-I (o IBM ASCC), diseñada por un equipo encabezado por Howard H. Aiken, de la
Universidad de Harvard, con la colaboración de IBM. Era una máquina automática eléctrica, aunque tenía
componentes electromecánicos; podía realizar 5 operaciones aritméticas: suma, resta, multiplicación, división
y referencia a resultados anteriores.

La computadora ENIAC

John W. Mauchly y John Presper Eckert, después de estudiar prolijamente la computadora ABC, desarrollaron
en la Universidad de Pennsylvania una máquina capaz de calcular tablas de trayectoria para el ejército
estadounidense. El producto final, una computadora electrónica completamente operacional a gran escala, se
terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer: integrador numérico y
calculador electrónico). La ENIAC, construida para aplicaciones de la Segunda Guerra mundial, se terminó en
treinta meses por un equipo de científicos que trabajaban contra reloj.

La ENIAC supuso un hito en la tecnología de la computación. Era mil veces más veloz que sus predecesoras
electromecánicas y poseía la capacidad de realizar 5.000 operaciones aritméticas en un segundo. No
obstante, la máquina pesaba 30 toneladas, ocupaba un espacio de 450 m2 (llenaba todo un sótano de la
universidad), contenía 18.000 bulbos (tubos de vacío), requería su completo sistema de aire acondicionado y
tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6.000 interruptores.
Además, introducir un nuevo programa era un proceso muy tedioso que requería días o incluso semanas.

A diferencia de las computadoras actuales, que operan con un sistema binario, la ENIAC operaba con el
sistema decimal. La ENIAC requería una gran cantidad de electricidad (se dice que bajaba la intensidad de las
luces de Filadelfia siempre que se activaba). La imponente escala y las numerosas aplicaciones generales de
la ENIAC señalaron el comienzo de la primera generación de computadoras.

La computadora EDVAC

En 1945, el ingeniero y matemático húngaro John von Neumann (1903-1957), que había trabajado con Eckert
y Mauchly en la Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de programas.
El concepto de programa almacenado permitía la lectura de un programa dentro de la memoria de la
computadora y la posterior ejecución de las instrucciones del mismo sin tener que volverlas a escribir.

Hacia 1948, von Neumann se integra en el equipo de Eckert y Mauchly auspiciado por el Departamento de
Defensa de los Estados Unidos. Sus ideas resultaron tan fundamentales para su desarrollo posterior, que es
considerado el padre de las computadoras.
Este nuevo equipo crea la computadora EDVAC (Electronic Discrete Variable Automatic Computer), la primera
en aplicar la idea básica de von Neumann: permitir que en la memoria coexistan datos e instrucciones, para
que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que
eléctricamente conecten varias secciones de control, como en la ENIAC. La EDVAC tenía aproximadamente
cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban
señales eléctricas sujetas a retardos.

Los programas almacenados dieron a las computadoras mucha más flexibilidad y confiabilidad, haciéndolas
más rápidas y menos sujetas a errores que los programas mecánicos. Una computadora con capacidad de
programa almacenado podría ser utilizada para varias aplicaciones, cargando y ejecutando el programa
apropiado.

1.2 Las generaciones de computadoras

El desarrollo de las computadoras, desde los primeros modelos descritos en el apartado anterior hasta el
momento presente suele ordenarse en cuatro etapas, llamadas comúnmente generaciones.

Los criterios que determinan el paso de una generación a la siguiente no están muy bien definidos, pero
pueden señalarse al menos dos aspectos fundamentales: la forma en que están construidas y la forma en que
el ser humano se comunica con ellas.

Primera generación (1951-1958)

Las computadoras de la primera generación emplearon bulbos para procesar información. Los operadores
introducían los datos y los programas en un código especial por medio de tarjetas perforadas. El
almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de
lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y
generaban más calor que los modelos contemporáneos.

Eckert y Mauchly contribuyeron al desarrollo de computadoras de la primera generación formando una


compañía privada y construyendo UNIVAC, que el Comité del Censo estadounidense utilizó para evaluar el de
1950.

Por su parte, la IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas
perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para
comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.
Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953,
un producto que tardó algún tiempo es ser comercialmente viable.

En 1954 fue introducido el modelo IBM 650, que es en gran medida la razón por la que IBM disfruta hoy de
una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó
una venta de 50 computadoras, número mayor que la cantidad de computadoras instaladas en esa época en
los Estados Unidos. Sin embargo, la IBM instaló 1000 computadoras. Aunque caras y de uso limitado, las
computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los
años 50, IBM y Remington Rand se consolidaban como los líderes en la fabricación de computadoras.

Segunda generación (1959-1964)

El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y
con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del
presupuesto de una Compañía.
Las computadoras de la segunda generación utilizaban redes de núcleos magnéticos en lugar de tambores
giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético,
enlazados entre sí, en los cuales se almacenaban datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL, desarrollado durante la generación anterior,
estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a
otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la
computación. Las computadoras de la segunda generación eran sustancialmente más pequeñas y rápidas
que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reserva en líneas
aéreas, control de tráfico aéreo y simulaciones para uso general.

Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como
manejo de inventarios, nómina y contabilidad. La marina de los Estados Unidos utilizó las computadoras de la
segunda generación para crear el primer simulador de vuelo (el Whirlwind I). HoneyWell se colocó como el
primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC,
HoneyWell, los más grandes competidores de IBM durante los años sesenta, se conocieron como el grupo
BUNCH.

Tercera generación (1964-1971)

Las computadoras de la tercera generación nacieron con el desarrollo de los circuitos integrados (pastillas de
silicio), en los cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las
computadoras se hicieron nuevamente más pequeñas, más rápidas, desprendían menos calor y eran
energéticamente más eficientes. Antes del advenimiento de los circuitos integrados, las computadoras
estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos
integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas y
estandarizar sus modelos.

La IBM 360, una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto
análisis numéricos como administración o procesamiento de archivos. Los clientes podían escalar sus
sistemas 360 a modelos IBM de mayor tamaño y podían todavía ejecutar sus programas actuales. Las
computadoras trabajaban a tal velocidad que proporcionaban la capacidad de ejecutar más de un programa
de manera simultánea (multiprogramación). Por ejemplo, la computadora podía estar calculando la nómina y
aceptando pedidos al mismo tiempo.

Con la introducción del modelo 360, IBM acaparó el 70% del mercado. Para evitar competir directamente con
IBM, la empresa Digital Equipment Corporation (DEC) redirigió sus esfuerzos hacia computadoras pequeñas.
Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se
desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 1970.

Cuarta generación (1971-)

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de
las memorias con núcleos magnéticos por las de chips de silicio y la colocación de muchos más componentes
en un chip, producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del
microprocesador de chips hizo posible la creación de las computadoras personales (PC). El primer PC, de
IBM, es de 1981. Antes, ya se habían presentado otros dos ordenadores personales: el Apple-II y el Altair
8800. Hoy en día, las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala)
permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un
fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación
que ocupara un cuarto completo.
UNIDAD II COMPUTADORAS EN EL MUNDO ACTUAL

2.1 TÉRMINOS BASICOS

2.1.1 Computadora

Es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud
y rapidez una gran variedad de instrucciones que están organizadas precisamente, de acuerdo a lo indicado
por un usuario. Necesita de datos específicos (input) para proporcionar el producto final (output).
La característica principal que la distingue de otros dispositivos similares, como la calculadora no
programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de
acuerdo a las posibilidades que brinden los lenguajes de programación y el hardware. Debemos distinguir el
hardware del software de una computadora

2.1.2 Informática

Desde los orígenes de las más elementales civilizaciones, el ser humano siempre ha necesitado hacer
cálculos y procesar la información. Para cubrir esa necesidad, a lo largo de los tiempos lo que ha ido
inventando es: sistemas numéricos que permitiesen organizar y manejar esos datos de una forma eficiente,
tecnologías (máquinas) que trataran esos datos: que fuesen capaces de realizar cálculos con mayor velocidad
y facilidad que el hombre.

La informática es la ciencia que estudia el tratamiento automático y racional de la información. La principal


herramienta de la informática, la "máquina", es la computadora que utiliza una serie de sistemas numéricos
(particularmente el sistema binario) adecuados a sus características de construcción y facilidad de tratamiento
de datos.

2.1.3 Dato e información

Dato e información son dos términos que suelen confundirse. Se consideran datos a toda entrada de
información a una computadora. Estos datos pueden ser administrativos, científicos, comerciales, etc. son
elementos primitivos, de los cuales a través del procesamiento se obtiene la información. La computadora se
utiliza para procesar en forma automática y a gran velocidad esos datos. Como resultado del procesamiento
de esos datos se obtiene la información deseada, la cual será útil en la toma de decisiones.

DATO PROCESO INFORMACIÓN


Dato: mensaje, normalmente bajo la forma de un documento o algún tipo de comunicación audible o visible.
Como cualquier mensaje, tiene un emisor y un receptor. La información es capaz de cambiar la forma en que
el receptor percibe algo, es capaz de impactar sobre sus juicios de valor y comportamientos. Tiene que
informar; son datos que marcan la diferencia. La palabra “informar” significa originalmente “dar forma a“ y la
información es capaz de formar a la persona que la consigue, proporcionando ciertas diferencias en su interior
o exterior. Por lo tanto, estrictamente hablando, es el receptor, y no el emisor, el que decide si el mensaje que
ha recibido es realmente información, es decir, si realmente le informa. Un informe lleno de tablas inconexas,
puede ser considerado información por el que lo escribe, pero a su vez puede ser juzgado como “ruido” por el
que lo recibe.

La información se mueve en torno a las organizaciones a través de redes formales e informales. Las redes
formales tienen una infraestructura visible y definida: cables, buzones de correo electrónico, direcciones,... Los
mensajes que estas redes proporcionan incluyen e-mail, servicio de entrega de paquetes, y transmisiones a
través de Internet. Las redes informales son invisibles. Se hacen a medida. Un ejemplo de este tipo de red es
cuando alguien te manda una nota o una copia de un artículo con las siglas “FYI” (For Your Information).
A diferencia de los datos, la información tiene significado (relevancia y propósito). No sólo puede formar
potencialmente al que la recibe, sino que está organizada para algún propósito. Los datos se convierten en
información cuando su creador les añade significado. Transformamos datos en información añadiéndoles
valor en varios sentidos. Hay varios métodos:

Contextualizando: sabemos para qué propósito se generaron los datos.

Categorizando: conocemos las unidades de análisis de los componentes principales de los datos.

Calculando: los datos pueden haber sido analizados matemática o estadísticamente.

Corrigiendo: los errores se han eliminado de los datos.

Condensando: los datos se han podido resumir de forma más concisa.

Las computadoras pueden ayudar a añadir valor y transformar datos en información, pero es muy difícil que
puedan ayudar a analizar el contexto de dicha información. Un problema muy común es confundir la
información (o el conocimiento) con la tecnología que la soporta. Desde la televisión a Internet, es importante
tener en cuenta que el medio no es el mensaje. Lo que se intercambia es más importante que el medio que se
usa para hacerlo. Muchas veces se comenta que tener un teléfono no garantiza mantener conversaciones
brillantes.

2.1.4 PARTES PRINCIPALES DE UNA COMPUTADORA

1. Placa madre (o motherboard): Es el componente principal que conecta y coordina todos los demás
componentes de la computadora.
2. Procesador (o CPU): Es el cerebro de la computadora, encargado de realizar las operaciones y
procesar la información.
3. Memoria RAM: Es la memoria de acceso aleatorio donde se almacenan los datos y programas que
están siendo utilizados en tiempo real.
4. Disco duro (o SSD): Es el dispositivo de almacenamiento principal de la computadora, donde se
guardan permanentemente los archivos y programas.
5. Tarjeta de video (o GPU): Se encarga de procesar y mostrar las imágenes en el monitor,
especialmente importante para tareas gráficas y juegos.
6. Fuente de alimentación: Suministra la energía necesaria para el funcionamiento de todos los
componentes de la computadora.
7. Monitor: Es la pantalla donde se visualiza la información y los gráficos generados por la computadora.
8. Teclado: Permite introducir datos y comandos en la computadora mediante la pulsación de teclas.
9. Ratón (o mouse): Es un dispositivo de entrada que permite controlar el movimiento del cursor en la
pantalla y realizar selecciones y clics.
10. Unidad óptica: Aunque en la actualidad se utiliza menos, algunas computadoras aún cuentan con una
unidad de CD/DVD/Blu-ray para leer y grabar discos ópticos.
11. Tarjeta de sonido: Permite la reproducción de audio y el uso de altavoces o auriculares.
12. Tarjeta de red: Permite la conexión a redes, ya sea por cable o de forma inalámbrica.
13. Puertos USB: Permiten conectar dispositivos externos como impresoras, cámaras, unidades flash,
entre otros.
14. Tarjeta de captura (o capturadora de video): Utilizada para grabar y capturar contenido de video o
audio.
15. Ventiladores y sistema de refrigeración: Mantienen la temperatura adecuada de la computadora,
evitando el sobrecalentamiento de los componentes.

2.2 Posibilidades de las computadoras

Las computadoras y las redes finalmente nos ofrecieron la posibilidad de escribir. ... Y de hecho escribimos en
nuestros sitios Web, blogs y redes sociales. Pero la capacidad subyacente, en la era de la computación es, de
hecho, programar, lo que casi ninguna persona sabe cómo hacer.

2.3 Organización de los sistemas informáticos

Un sistema de información es un conjunto de datos vinculados entre sí para la obtención de objetivos


empresariales. Ayuda en la gestión y administración de los datos e información que integran una compañía y
le dan un uso correcto y óptimo para el mejoramiento de procesos y operaciones internas.
Es importante remarcar que un sistema de información se maneja como un software que una empresa debe
instalar e implementar internamente. En él se agregarán todos los procesos y operaciones para que los
colaboradores y tomadores de decisiones tengan un panorama integral de lo que sucede en tiempo y real, y
puedan así mejorar sus estrategias, productividad y ventas.

Un software de información no tiene un solo objetivo en común, pues existen diferentes tipos de soluciones
que puedes adaptar a las necesidades actuales de tu negocio y las metas a las que quieres llegar. Tienen la
gran ventaja de ser flexibles y personalizados para que respondan a tu manera de trabajar, de forma más
estratégica y efectiva

2.4 Ventajas del uso de la computadora

La utilización de las computadoras para la realización de tus actividades cotidianas, laborales y escolares, trae
consigo un sin número de ventajas, las cuales se describen a continuación:
La computadora nunca se cansa, distrae, o se enoja.
La información es procesada y almacenada.
Realiza funciones con un índice menor de errores.
Mayor rapidez en información.
Ofrecer a los alumnos conocimientos y destrezas básicas sobre la informática.
Desde el punto de vista del profesor la utilidad es doble:
1) Como usuario: le ayuda en sus tareas administrativas, en la preparación de sus clases, en la
evaluación.
2) Como docente: le ayuda en sus tareas de enseñanza.
Desde el punto de vista del alumno la informática se convierte en un medio de aprendizaje.
Brinda mayor presentación a los trabajos

Por otra parte podrían presentare algunas desventajas con la utilización de las mismas:

Representan una fuerte inversión, ya que los equipos son costosos y requieren el
acondicionamiento del área laboral.
Falta de cultura en cuanto a uso en equipo de cómputo.
El cambio vertiginoso de la tecnología.

UNIDAD III HARDWARE

3.1 UNIDAD CENTRAL DE PROCESAMIENTO

3.1.1 Concepto de almacenamiento primario

La memoria de acceso aleatorio, o RAM, es el almacenamiento principal de una computadora.


Cuando trabajas con un archivo de la computadora, este almacenará temporalmente los datos en la memoria
RAM. La memoria RAM permite realizar tareas cotidianas como abrir aplicaciones, cargar páginas web, editar
un documento o jugar. También le permite saltar de una tarea a otra sin perder su progreso. Básicamente,
cuanto más grande sea la RAM de la computadora, más fluido y rápido es para ti hacer varias tareas.

La RAM es una memoria volátil, lo que significa que no puede retener información una vez que se apaga el
sistema. Por ejemplo, si copias un bloque de texto, reinicias la computadora y luego intentas pegar ese bloque
de texto en un documento, descubrirás que el equipo ha olvidado el texto copiado. Esto se debe a que solo se
almacenó temporalmente en su memoria RAM.

La memoria RAM hace posible que una computadora acceda a los datos en un orden aleatorio y, por lo tanto,
lee y escribe mucho más rápido que el almacenamiento secundario de una computadora.

3.1.2 Codificación de datos almacenados

La codificación de datos es el proceso de convertir información en un formato legible por un ordenador para su
almacenamiento y procesamiento. Hay que tener en cuenta que existen varios tipos de codificación de datos:

1. Codificación binaria:
Esta es la codificación más básica que utiliza sólo dos símbolos, 0 y 1, para representar información. Es
comúnmente utilizado en sistemas digitales de computadoras.

2. Codificación de caracteres:

Este tipo de codificación utiliza un conjunto de caracteres para representar información. ASCII y Unicode son
ejemplos comunes de codificación de caracteres.

3. Codificación de imágenes:

Las imágenes se pueden codificar utilizando diferentes formatos, como JPEG, PNG, BMP, etc. Cada formato
de imagen utiliza diferentes algoritmos de compresión y descompresión.

4. Codificación de audio:

El audio se puede codificar en diferentes formatos, como MP3, WAV, AAC, etc. Cada formato de audio utiliza
diferentes algoritmos de compresión y descompresión.

5. Codificación de video:

El video se puede codificar en diferentes formatos, como AVI, MP4, MKV, etc. Cada formato de video utiliza
diferentes algoritmos de compresión y descompresión.

En resumen, la codificación de datos es esencial en el mundo digital y ayuda a facilitar el almacenamiento,


procesamiento y transmisión de información.

Ejemplos y objetivos de la codificación de datos

Por otro lado, en el caso de tener que realizar una investigación, la codificación de datos se refiere al proceso
de asignar categorías o códigos a los datos recopilados durante la etapa de estudio. Esto se hace para
facilitar el análisis de los datos y encontrar patrones, temas y relaciones entre las variables. La codificación de
datos puede ser realizada manualmente o con software especializada.

Los datos pueden ser codificados en diferentes niveles, desde categorías amplias hasta subcategorías más
específicas. Es importante que la codificación de datos sea consistente y precisa para garantizar que los
resultados de la investigación sean confiables y válidos. Ya sea una codificación manual o automatizada, ¿por
qué se requiere la codificación de datos cualitativos? La codificación de datos cualitativos hace que la
información desorganizada sea cuantificable y contrastable. Esto prueba que los datos recopilados reflejan
con precisión las necesidades y preferencias del usuario.

Pero más detalladamente, ¿qué objetivos puede tener la codificación de datos?

• Facilita el procesamiento de datos y simplifica el trabajo.

• Nos permite distinguir entre cada proceso sin alterarlo ni cometer errores.

• Permite realizar clasificaciones sencillas.

• Ayuda a encontrar, obtener o consultar información.

• Busca establecer conexiones entre códigos, permitiendo realizar análisis de los elementos codificados y la
elaboración de informes.

• Podemos utilizar señales, etiquetas y otras técnicas de búsqueda para localizar más rápidamente los
elementos codificados.
• Se ajusta a nuestro sistema informático, al método de trabajo que utilizamos, así como al área profesional
a la que pertenezcamos

• Este sistema es preciso y describe cada componente esencial.

• Mantiene nuestras tareas organizadas y minimizadas en la mayor medida posible para que su manejo no
sea problemático.

• Nos permite atenuar el ruido que se produce mientras trabajamos (carpetas vacías, procesos sin sentido,
etc.).

• Expande el trabajo con el objetivo de mejorar y producir mejor.

• Se ajusta a nuestros requerimientos para que podamos utilizarlo de manera más eficiente.

• Los sistemas de codificación se pueden modificar para que funcionen con las herramientas y tecnologías
que tengamos en ese momento.

3.1.3 Componentes de almacenamiento

El almacenamiento se refiere a los dispositivos que permiten grabar la información que generalmente se
encuentre en la RAM, y que tanto el usuario como el sistema operativo, disponen de ellos para su trabajo y
operación diarios. Pfaffenberger (1990) hace referencia a este tipo de almacenamiento como no volátil, es
decir, que tanto los programas como los datos no desaparecen, incluso cuando la computadora se apaga.
Esto significa, que el usuario puede guardar sus programas e información con la seguridad de que no se
borrarán aun cuando la computadora no esté encendida. Actualmente, los dispositivos de almacenamiento
más comunes son el disco duro, la memoria flash (conocida como memoria USB), el disco compacto y el DVD
regrabables. Estos dispositivos tienen la particularidad de grabar permanentemente o borrar la información si
así lo desea el usuario.

3.1.4 Los Buses

Las unidades componentes del ordenador se encuentran interconectadas por unos circuitos que permiten el
transporte físico de las distintas informaciones presentes en la ejecución del proceso. Estos circuitos reciben
el nombre de buses. Dentro de la arquitectura del ordenador se tienen tres buses:

 Bus de datos: Transporta los datos desde la memoria hasta las distintas unidades de proceso y
viceversa.

 Bus de direcciones: Transporta las direcciones de las posiciones de la memoria que intervienen en una
operación.

 Bus de control: Transporta señales de control desde la Unidad de Control a las distintas unidades de
trabajo y viceversa.

Para la comunicación de la CPU con el exterior hay una serie de elementos situados en la propia CPU donde
se conectan los periféricos, son los puertos de entrada/salida. Cuando se deben enviar datos desde la
memoria a un puerto y viceversa, se emplean unos buses de datos utilizados para las entradas y salidas.

3.1.5 Funciones de aritmética, lógica y de control

Unidad de Control
Las funciones principales de este elemento son el control, la coordinación y la interpretación de las
instrucciones que componen un programa. Las instrucciones que componen un programa en su conjunto
forman lo que se denomina el lenguaje-máquina.

Una instrucción de máquina tiene varias partes. Por un lado posee un código de operación que le indica a la
Unidad de Control qué operación debe hacerse con los datos. Por otro lado también posee dos direcciones de
memoria que indican la localización de esos datos. Las instrucciones que componen un programa están
almacenadas en la memoria central, ordenadas en posiciones de memoria consecutivas.

La UC extrae las instrucciones de la memoria, las interpreta y las manda por medio de señales a las restantes
unidades del ordenador. Por lo que la Unidad de Control se encarga también de controlar las operaciones de
las Unidades de Entrada/Salida (E/S) y las Aritmético-Lógicas.

La Unidad de Control lleva además un reloj electrónico, llamado reloj de sistema, que oscila con
una frecuencia de millones de veces por segundo. La velocidad a la que el procesador realiza las operaciones
viene determinada por dicho reloj. La velocidad de oscilación se mide en gigahertzios (GHz), es decir mil
millones de ciclos por segundo.

Unidad Aritmético-Lógica.

Realiza dos tipos de funciones:

1. Realización de las operaciones aritméticas como: suma, resta, multiplicación y división.

2. Ejecución de operaciones de tipo lógico: comparación de dos datos.

La ALU efectúa las operaciones aritméticas por medio de unos circuitos electrónicos que componen los
siguientes dispositivos: dispositivo de adición, registros y dispositivo de control de cálculo.

 El dispositivo de adición sirve para calcular las operaciones de suma, resta, multiplicación y división.
Esto es así ya que estas tres últimas operaciones se pueden efectuar mediante sumas sucesivas o
cambiando el signo en la operación de sumar.

 Los registros se utilizan para contener los operandos, los resultados parciales que se van obteniendo
en las distintas operaciones y los resultados finales.

 El dispositivo de cálculo dirige y controla las operaciones de cálculo que se realizan en la ALU.

Para realizar las comparaciones la ALU dispone de un circuito llamado comparador, que es capaz de
detectar si dos datos son iguales, o cuál de los dos es el mayor o el menor.

La Unidad de Control también se encarga de controlar otras operaciones como son el transporte de los
resultados, comenzar la operación siguiente, etc.

3.2Memoria

3.2.1 Memoria primaria

Memoria Primaria (RAM – ROM) En la Memoria Primaria de la computadora se encuentran las memorias
RAM, ROM y CACHÉ.

La Memoria RAM (Random Access Memory - Memoria de Acceso Aleatorio) es un circuito integrado que
almacena los programas, datos y resultados ejecutados por la computadora y de forma temporal, pues su
contenido se pierde cuando esta se apaga. Se llama de acceso aleatorio - porque se puede acceder a
cualquier posición de memoria sin necesidad de seguir un orden. La Memoria RAM puede ser leída y escrita
por lo que su contenido puede ser modificado.

La Memoria ROM (Read Only Memory - Memoria de sólo lectura) viene grabada con una serie de programas
por el fabricante de hardware y es sólo de lectura, por lo que no puede ser modificada - al menos no muy
fácilmente - y tampoco se altera por cortes de corriente. En esta memoria se almacenan los valores
correspondientes a las rutinas de arranque del sistema y su configuración.

La Memoria Caché es una memoria auxiliar de alta velocidad, que no es más que una copia de acceso rápido
de la memoria principal almacenada en los módulos de RAM.

3.2.2 Memoria Secundaria

Memoria Secundaria (Disco Duro, Disco Flexibles, etc.) La Memoria Secundaria (también llamada Periférico
de Almacenamiento) está compuesta por todos aquellos dispositivos capaces de almacenar datos en
dispositivos que pueden ser internos como el disco duro, o extraíble como los discos flexibles (disquetes),
CDs, DVDs, etc.

3.2.3 Jerarquía de almacenamiento

La jerarquía de memoria es la organización piramidal de la memoria en niveles que tienen las computadoras.

El objetivo es acercarse el rendimiento de una memoria de gran velocidad al coste de una memoria de baja
velocidad, basándose en el principio de cercanía de referencias.1

3.2.4 Almacenamiento secundario para acceso directo

Un dispositivo de almacenamiento de acceso directo es un tipo de dispositivo de almacenamiento secundario


que admite el acceso directo a los datos almacenados, a diferencia del acceso secuencial, que es más lento y
menos eficiente. En este caso, el almacenamiento secundario se refiere a los medios no volátiles, incluidas las
unidades de disco duro (HDD) y las unidades de estado sólido (SSD), mientras que el almacenamiento
primario se refiere a los dispositivos de memoria volátil de una computadora, como la memoria de acceso
aleatorio (RAM) o la caché de datos.

Integral a DASD – pronunciado DAZ-dee – es el concepto de acceso directo, que se refiere a cómo se accede
a los datos en un dispositivo de almacenamiento. Con acceso directo, los datos se pueden escribir o leer
desde los medios de almacenamiento yendo directamente a una ubicación física específica en el dispositivo.
Un dispositivo de almacenamiento de acceso directo incluye los mecanismos que permiten operaciones de
lectura y escritura en cualquier ubicación direccionable del dispositivo.

El acceso directo significa no tener que buscar secuencialmente a través de los datos.

3.2.5 Almacenamiento secundario para acceso secuencial

Con el acceso secuencial, se accede a los datos comenzando en una ubicación y luego pasando por
ubicaciones sucesivas hasta que se encuentran los datos. Un sistema de almacenamiento en cinta, como el
que se usa para archivar datos, es un ejemplo de un dispositivo de almacenamiento de acceso secuencial,
que es inherentemente más lento que DASD.

3.3 Dispositivos de entrada y salida

En el lenguaje informático se consideran periféricos a aquellos dispositivos auxiliares que son independientes
de la unidad central de procesamiento o CPU de un ordenador.

Los periféricos son por tanto un conjunto de dispositivos electrónicos físicos que, sin pertenecer al núcleo
fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de
entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU.

Pero no podemos pensar en los periféricos como elementos independientes y no esenciales. Existen
periféricos que son elementos fundamentales para cualquier sistema informático tales como el monitor, el
teclado, etc.

Los periféricos pueden clasificarse en 3 categorías principales según la función que realizan:

 Periféricos de entrada: Captan y digitalizan los datos introducidos por el usuario o por otro dispositivo y
los envían al ordenador para ser procesados. Los más conocidos son el teclado, el ratón (mouse),
escáner, cámara web, cámara digital, etc.

 Periféricos de salida: Son dispositivos que muestran o proyectan información hacia el exterior del
ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta
información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible
para el usuario. Sin embargo, no todos de este tipo de periféricos es información para el usuario.
El monitor, la impresora, el fax, los altavoces, los auriculares, son periféricos de salida ya que
proyectan al usuario información.

 Periféricos de entrada/salida (E/S) o de almacenamiento: Sirven básicamente para la comunicación de


la computadora con el medio externo. Los periféricos de entrada/salida son los que utiliza el ordenador
tanto para mandar como para recibir información. Su función es la de almacenar o guardar, de forma
permanente o virtual, todo aquello que hagamos con el ordenador para que pueda ser utilizado por los
usuarios u otros sistemas. Otra forma de definirlos es como aquel dispositivo que se utiliza para grabar
los datos de una computadora de forma permanente o temporal. Una unidad de disco por ejemplo
junto con los discos que graba, es un dispositivo de almacenamiento. Como ejemplos de periféricos de
entrada/salida tenemos el disco duro, la impresora, pantalla táctil, etc.

3.4 Discos pórticos

Actualmente, los dispositivos de almacenamiento más comunes son el disco duro, la memoria flash (conocida
como memoria USB), el disco compacto y el DVD regrabables. Estos dispositivos tienen la particularidad de
grabar permanentemente o borrar la información si así lo desea el usuario.

3.5 Clasificaciones y categorías de computadoras


Las computadoras se clasifican en 4 grupos:

 Súper computadoras:

 Macro computadoras

 Mini computadoras

 Micro computadoras

Supercomputadoras: Una supercomputadora es el tipo de computadora más potente y más rápido que existe
en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en
poco tiempo y son dedicadas a una tarea específica (científica, militar, etc.) Asimismo son las más caras, sus
precios alcanzan los $ 30 millones de dólares y más; y cuentan con un control de temperatura especial, para
disipar el calor que algunos componentes pueden alcanzar.

Algunos ejemplos de tareas a las que son expuestas las supercomputadoras son:

1. Búsqueda y estudio de la energía y armas nucleares.

2. Búsqueda de yacimientos petrolíferos.

3. Ubicación de instalaciones para captura de energía renovable

4. El estudio y predicción de desastres naturales.

5. El estudio y predicción del clima de cualquier parte del mundo.

6. La elaboración de maquetas y proyectos para la creación de aviones, simuladores de vuelo, trenes,


automóviles entre otros.

Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año.

Macrocomputadoras – Mainframes: Las macro computadoras son también conocidas como Mainframes.
Los mainframes son grandes, rápidos y caros sistemas, capaces de controlar cientos de usuarios
simultáneamente, así como cientos de dispositivos de entrada y salida.
De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más
programas simultáneamente, en cambio las supercomputadoras pueden ejecutar un sólo programa más
rápido que un mainframe.

En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día,
un Mainframe es parecido a una hilera de archiveros ubicados en un cuarto con piso falso, para ocultar los
cientos de cables de los periféricos, y su temperatura tiene que ser controlada.

Minicomputadoras:

 En 1960 surgió la minicomputadora, una versión más pequeña de la Mainframes.

 Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un
Mainframe, y esto ayudó a reducir el precio y costos de mantenimiento.

 Las Minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y


las estaciones de trabajo.
 En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de
soportar de 10 hasta 200 usuarios simultáneamente.

Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones
multiusuario.

Microcomputadoras: Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la


creación de los microprocesadores.

Un microprocesador es "una computadora en un chic", o sea un circuito integrado independiente.

Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en
las oficinas, escuelas y hogares.

El término PC se deriva de que para el año de 1981, IBM, sacó a la venta su modelo "IBM PC", la cual se
convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los
clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando
procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de
programas.

UNIDAD IV SOFTWARE

4.1 Sistemas operativos

4.1.1 Tipos de sistemas operativos

Los sistemas operativos son los programas encargados de administrar y gestionar de manera eficiente
todos los recursos de un ordenador y otros dispositivos. También se les conoce como software de sistema, y
su función comienza nada más encender el dispositivo en el que están instalados. Comienza entonces su
tarea de gestionar el funcionamiento del hardware del equipo. También, de poner en marcha las
herramientas y funciones que hacen que un ordenador pueda comunicarse e interactuar con quien lo está
utilizando, y viceversa.

En la actualidad, además de en los ordenadores, hay sistemas operativos en cualquier dispositivo en el que
haya un procesador instalado: Smartphone, tablets, reproductores multimedia, e incluso coches y televisores.
Pero, básicamente, la función de casi todos es la misma: ofrecer a sus usuarios una interfaz para interactuar
con el equipo. También se encarga de administrar sus recursos, archivos y tareas, así como de realizar
diversas tareas de soporte. Entre ellas, la actualización de las versiones de programas y del propio sistema
operativo, la gestión de su seguridad y el control de los periféricos que puedan conectarse al dispositivo.

Dentro de los distintos tipos de sistemas operativos, hay varios que podemos considerar básicos. Son los más
utilizados, tanto para ordenador como para dispositivos móviles. Dentro de los primeros están Windows, para
PC; Mac OS, que es el sistema operativo de los ordenadores de Apple; y Linux, también para PC, que está
disponible en varias versiones de funcionamiento similar. De estos tres, el más utilizado y popular es
Windows, de Microsoft, sobre todo por su facilidad de manejo e instalación. Su actualización también es muy
sencilla, y además suele venir preinstalado en muchos ordenadores, lo que facilita su difusión. Para
dispositivos móviles, los más utilizados son iOS y Android. El primero está incluido en las tablets y
Smartphone de Apple, mientras que el segundo lo lleva la inmensa mayoría de móviles y tablets del resto de
fabricantes.
Los que los principales sistemas operativos son los siguientes:

 Sistema operativo por lotes

Este tipo de sistema operativo se caracteriza porque se encarga de ejecutar los procesos sin necesidad de
que el usuario del sistema tenga que interactuar con el ordenador de manera directa. El sistema cuenta con
un operador encargado de agrupar y dividir en varios lotes los trabajos que tienen que realizar, en función de
su similitud.

Se trata de un sistema que pueden emplear varios usuarios, y que presenta un nivel de inactividad bajo. Se
emplea sobre todo para el proceso de tareas de gran envergadura que pueden dividirse en varios lotes. Este
tipo de sistemas se utiliza sobre todo en determinados entornos empresariales, en operaciones como la
gestión de nóminas, o la generación de estados de cuentas en los bancos.

 Sistemas operativos multitarea o de tiempo compartido

Esta clase de sistema operativo permite la ejecución de distintas tareas al mismo tiempo, tanto de un solo
usuario como de varios. Así, cuando el sistema termina de ejecutar una tarea, ya sea de un usuario o de
varias, continúa con la siguiente que tiene en espera. Un ejemplo de este tipo de sistema operativo es Unix.

 Sistemas operativos en tiempo real

Un sistema operativo en tiempo real es el que deja un espacio de tiempo muy pequeño para el proceso de
entradas, así como para darles respuesta. Se usan en sistemas que tienen unos requisitos muy elevados de
tiempo de respuesta, y muy estrictos. Entre otros escenarios, se emplean en robots, sistemas encargados del
control del tráfico aéreo o sistemas industriales. También, en determinados tipos de experimentos científicos.

 Sistemas distribuidos

Estos trabajan con varios dispositivos a la vez, cada uno con su procesador, con el fin de ofrecer a sus
usuarios una potencia elevada de computación. También la posibilidad de realizar cálculos y procesos de una
manera muy veloz. Son sistemas que se han desarrollado hace relativamente poco tiempo, y permiten a sus
usuarios el acceso a ficheros y programas que no están instalados o almacenados en el equipo que utilizan en
un momento dado, pero que están en otros equipos que estén conectados al mismo sistema operativo que
tiene el que están empleando. Esto quiere decir que cuenta con funciones de acceso remoto dentro de una
misma red.

 Sistemas operativos de red

Son los que se ejecutan y administran en un servidor. A través de estos sistemas operativos se pueden
gestionar distintas funciones de red, así como usuarios, grupos o datos. También, la seguridad de todos los
equipos conectados a la red local o privada que tienen conexión con este servidor.

 Sistemas operativos móviles

Son los que se han creado y desarrollado para dispositivos móviles, fundamentalmente móviles y tablets, pero
también relojes inteligentes. Los más conocidos son Android y iOS, como hemos visto, pero también hay otros
como webOS y watchOS, para relojes inteligentes.

4.2 lenguajes de programación

4.2.1 Lenguaje de programación


Un lenguaje de programación es un lenguaje específico compuesto por un conjunto de reglas, símbolos,
palabras y números. Este tipo de lenguaje permite a una persona (el programador) escribir una serie
de instrucciones en forma de algoritmos. Y se utiliza para comunicar instrucciones a una computadora e
indicarle qué operaciones realizar y cómo hacerlo.

En otras palabras, el lenguaje de programación es una herramienta que le permite al programador escribir
instrucciones que la computadora pueda entender y ejecutar para realizar una tarea específica.

En esta categoría se encuentran los más utilizados. Se usan palabras del inglés lo cual facilita que una
persona pueda intervenir más fácil que en los dos anteriores.

Según su generación y orden cronológico, los lenguajes de programación de alto nivel se clasifican en:

 Primera generación: el lenguaje máquina y el ensamblador.

 Segunda generación: aquí encontramos los primeros lenguajes de programación de alto nivel,
ejemplos de ellos son FORTRAN, COBOL.

 Tercera generación: en esta generación encontramos los lenguajes de programación de alto nivel
imperativo, pero mucho más utilizados y vigentes en la actualidad (ALGOL 8, PL/I, PASCAL,
MODULA).

 Cuarta generación: más cercanos a la época actual, es común encontrarlos en aplicaciones de


gestión y manejo de bases de datos (NATURAL, SQL).

 Quinta generación: estos son los más avanzados y fueron pensado para la inteligencia artificial y
para el procesamiento de lenguajes naturales (LISP, PROLOG).

25 Lenguajes de programación más utilizados actualmente

Existen, en la actualidad, varios lenguajes de programación, pero destacaremos los más importantes de
acuerdo con el índice TIOBE (estudio realizado por una empresa holandesa que analiza los lenguajes de
programación más usados a nivel mundial).

A continuación, conoce los 6 más usados, sus objetivos y segmentos de uso actualmente.

1. Java

Es el más actualizado actualmente y esto se debe a su simplicidad y legibilidad. No en vano, más de 9


millones de usuarios lo usan y está presente en miles de millones de dispositivos, lo que significa un 15% del
total en el mundo frente a otros lenguajes.

Él se ha mantenido a lo largo del siglo XXI en las primeras posiciones, lo cual da una idea de lo importante
que ha sido este lenguaje de programación en lo que utilizamos hoy en día.

También es una de las habilidades más requeridas entre desarrolladores, tanto es así que es del más
importante skill que buscan las principales empresas de software y tecnología.

Es utilizado en diferentes segmentos, tales como aplicaciones móviles, herramientas para aprendizaje, hojas
de cálculo, entre otras.

2. Lenguaje de programación C

Surgió en los años 70 y tenía un nombre que no cambió mucho: "B".


Con un alto porcentaje de uso al igual que java, 12%, es el segundo lenguaje más usado a nivel mundial. Su
uso también es muy variado y se puede ejecutar en la mayoría de los sistemas operativos.

Es comúnmente utilizado en aplicaciones de escritorio.

3. Python

Un lenguaje de programación multiplataforma y multiparadigma, que también tiene un propósito general. Esto
significa que soporta la orientación a objetos, la programación imperativa y funcional.

Su sencillez, legibilidad y similitud con el idioma inglés lo convierten en un gran lenguaje, ideal para
principiantes.

4. C++

Es una evolución del antes mencionado C.

Este, sin embargo, tiene un enfoque en desarrollo de aplicaciones y softwares más complejos, que exigen, por
ejemplo, una intervención visual.

Los programas de diseño gráfico son un ejemplo del uso de este lenguaje de programación.

5. C#

Conocido también como “C Sharp” entre los programadores, también es una evolución de C y C++.

C# es un lenguaje de programación orientado a objetos. Creado en el año 2000, se destaca por su


simplicidad, trabaja con aplicaciones bajo el framework .net como el visual studio de Windows.

Cuenta con un 7% de uso total a nivel mundial.

6. Visual Basic. NET

Ha tenido una rápida evolución en número de usuarios en los últimos años. Conocido por ser una herramienta
mucho más amigable, que no exige tanto conocimiento como, por ejemplo, el C#.

Por su sencillez, es bastante utilizado para herramientas de automatización de procesos y aplicaciones web,
por ejemplo.

7. SQL

8. PHP

9. Ruby

10. Lenguaje de programación R

11. Rust

12. TypeScript

13. Swift

14. Perl

15. Lenguaje de programación Go


16. Kotlin

17. Scheme

18. Erlang

19. Elixir

20. Pascal

21. Postscript

22. Haskell

23. Objective-C

24. Scala

25. Lava

4.3 Programas de aplicación

4.3.1 Tipos de programas de aplicación

El término software de aplicación se refiere al programa que realiza funciones específicas para un usuario,
que interactúa directamente con este.

El objetivo principal de este tipo de tecnología es ayudar a las personas y empresas a realizar tareas
específicas de una manera mucho más rápida, segura y, en ocasiones, con el uso de inteligencia artificial.

Este tipo de programa informático, también conocido como software de usuario final, permite ejecutar
funciones que pueden ser personales, comerciales o educativas.

Entonces, cada programa se desarrolla para ayudar a los usuarios con algún proceso particular relacionado
con la productividad, la eficiencia y la comunicación.

La mayoría de las aplicaciones que vemos en nuestros teléfonos inteligentes están dentro de esta categoría, y
luego de leer sobre este tipo de software seguro ya tienes algunos ejemplos en mente.

Apps como Microsoft Word y Excel, así como navegadores web populares como Firefox y Google Chrome,
son buenos modelos a resaltar.

También engloba la categoría de aplicaciones móviles, que incluye servicios como WhatsApp para la
comunicación y reproductores multimedia como VLC.

9 tipos de software de aplicación

1. Software de presentación

Este tipo de software de aplicación nos permite representar pensamientos e ideas con facilidad y claridad
mediante el uso de información visual.

En este caso, podrás checar los datos en diapositivas y hacer que estas sean más informativas y atractivas
agregando texto, imágenes, gráficos y videos. Tiene tres componentes:

 Editor de texto para ingresar y formatear texto.


 Insertar elementos gráficos, texto, video y archivos multimedia.

 Presentación de diapositivas para mostrar la información.

2. Navegadores web

Los navegadores web son software de aplicación que se utilizan para navegar por Internet para localizar y
recuperar datos en la web.

Entre los más populares encontramos a Google Chrome, Firefox, MS Edge y Safari.

3. Programas multimedia

El software multimedia permite crear o grabar imágenes, archivos de audio o video. Se usan ampliamente en
animación, gráficos, imágenes y edición de video.

Existen claros ejemplos de programas multimedia como lo es el VLC y Windows Media Player. Seguramente
los usaste en alguna ocasión, ¿a poco no?

4. Software educativo y de referencia

También denominado software académico, está diseñado específicamente para facilitar el aprendizaje de un
tema en particular.

En esta clasificación, podemos ver diferentes tipos de programas de tutoriales como, por ejemplo, JumpStart,
MindPlay y Kid Pix.

5. Software de gráficos

Nos permite editar o realizar cambios en datos visuales o imágenes. Comprende un software de ilustración y
edición de imágenes.

¿Conoces Adobe Photoshop y PaintShop Pro? Pues, estos son algunos ejemplos de software de gráficos.

6. Software de hoja de cálculo

En estas aplicaciones, podemos almacenar datos en formato de tabla; el área de intersección, denominada
celdas, se separa para definir campos como texto, fecha, hora y número.

A través de fórmulas y funciones, los usuarios pueden hacer cálculos de forma sencilla, para gestionar y
visibilizar grandes cantidades de datos.

Así es, en esta categoría encontramos a nuestros grandes amigos Microsoft Excel y Google Sheets.

7. Software de base de datos

Es aplicado para crear y administrar una base de datos. También conocido como DBMS (Sistema de gestión
de bases de datos), nos ayuda a organizar toda la información en un mismo lugar.

Entonces, cuando ejecutamos una App, la información se obtiene de la base de datos, se modifica y se
almacena nuevamente en esta.

Oracle, MySQL, Microsoft SQL Server, PostgreSQL, MongoDB e IBM Db2 son algunas de las bases de datos
más populares.

8. Software de procesamiento de textos


El software de aplicación de procesamiento de textos se utiliza para formatear y manipular texto, creando
así memorandos, cartas, faxes y documentos.

Este tipo de programa también es usado para formatear y embellecer el texto, brinda una gran cantidad de
funciones, como los diccionarios de sinónimos y antónimos. Además, las opciones de fuente nos dejan
cambiar el color, el efecto y el estilo de la fuente a elección. Las opciones de corrección de gramática y
ortografía también están disponibles para comprobar si hay errores. Los principales ejemplos incluyen
Documentos de Google y Microsoft Word.

9. Software de simulación

Se emplea en los campos de la ingeniería militar, la educación práctica en determinadas industrias, las
pruebas de maquinaria, la formación industrial y los videojuegos, entre muchísimos otros.

Es empleado cuando el trabajo en el sistema real o el entorno físico puede ser peligroso. Así, se trata de un
programa que nos permite estudiar u observar una operación o fenómeno a través de la simulación sin
realizar realmente esa operación.

Los mejores ejemplos de simulación se encuentran en el campo de la robótica, los sistemas de vuelo y el
pronóstico del tiempo. Las tecnologías de Realidad Aumentada (AR) y Realidad Virtual (VR) también son
tecnologías aplicadas para desarrollar software de aplicación que admiten simulaciones.

Estos son los 8 software de aplicación más usados en los negocios:

Los software de aplicación para las empresas son la categoría específica que las organizaciones utilizan
principalmente para fines comerciales.

En definitiva, están desarrollados específicamente para facilitar funciones de negocios particulares. Su uso le
brinda a las organizaciones un conjunto de beneficios, que incluyen productividad mejorada, eficiencia,
precisión e informes periódicos para el análisis comercial.

Actualmente, todas las compañías emergentes y de rápido crecimiento utilizan software de


aplicaciones comerciales.

1. Gestión de la relación con el cliente (CRM)

El Customer Relationship Management gestiona la interacción de la empresa con sus clientes actuales y
potenciales.

Además, ayuda a recopilar, analizar y crear estrategias para una gran cantidad de datos de clientes para el
crecimiento del negocio.

2. Planificación de recursos empresariales (ERP)

Enterprise Resource Planning es un software y un sistema donde podemos manejar todas las actividades
principales y otros procesos comerciales de una organización.

Un software ERP puede automatizar y simplificar las actividades comerciales, como adquisiciones y
contabilidad, gestión de riesgos, gestión de proyectos, cumplimiento y gestión de la cadena de suministro.

3. Software de gestión de proyectos

El programa de gestión de proyectos es un software de aplicación que se usa para la planificación de


proyectos, la gestión de cambios, la programación y la asignación de recursos.
También ayuda a los usuarios con funciones como la administración de presupuestos y costos, la
documentación del progreso, la asignación de tareas y la producción de informes de resultado.

4. Base de datos

Un software de base de datos, también conocido como sistema de gestión de base de datos (DBMS), está
diseñado para crear una base de datos y almacenar, buscar, manipular y extraer los datos cruciales de una
organización.

5. Gestión de Procesos de Negocio

El software Business Process Management, también conocido como software BPM, es una herramienta de
automatización de procesos. Define, informa y automatiza los procesos destinados a mejorar el desempeño
de una organización.

6. Software de gestión de recursos

Ayuda a planificar los recursos, el capital y el personal para completar proyectos sin problemas. También
asiste en la gestión de múltiples proyectos y garantiza que todo se asigne en tiempo real.

7. Software educativo

El software educativo se refiere a aquellos que se desarrollan con fines educativos y de capacitación.

En concreto, facilita el aprendizaje y la enseñanza de contenidos, conceptos y procesos educativos que


pueden ser aplicados para el entrenamiento del personal.

8. Software de productividad

El software de productividad ayuda a los usuarios a realizar sus tareas de manera más eficiente y puntual;
entre sus categorías encontramos la colaboración, gestión del tiempo, gestión de bases de datos y creación
de documentos.

También podría gustarte