Está en la página 1de 17

UNIVERSIDAD DE SAN CARLOS DE GUATEMALA

FACULTAD DE CIENCIAS ECONOMICAS


ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

UNIDAD 1

INTRODUCCION AL PROCESAMIENTO ELECTRONICO DE DATOS

1. Ciclo del Procesamiento de Datos


Previo a definir lo que es el ciclo del procesamiento de datos, es conveniente conversar
sobre el significado de los términos que integran dicho vocablo así:

DATO: Es simplemente la inclusión de cualquier hecho, cifras, palabras, símbolos,


gráficas, etc. Que representan una Idea, objeto, condición o situación. Los datos son la
Materia prima de la cual se deriva la información: consecuentemente, la información
consiste en datos seleccionados y organizados con respecto al usuario, problema tiempo,
lugar, y función.

PROCESO DE DATOS: Consiste en la transformación de datos que no son útiles por si


mismos a través de un proceso a fin de obtener un producto (información) que es útil sin
transformaciones posteriores.

CICLO BASICO DEL PROCESAMIENTO DE DATOS: El ciclo del procesamiento de


datos consiste en un método sistemático para manejar datos y obtener la información
deseada y esta constituido por tres etapas:

ENTRADA-PROCESO-SALIDA
Entrada
Consiste en la recopilación de todos los datos requeridos, ordenándolos en una forma
adecuada para su procesamiento. En esta etapa los datos deben registrarse' de una manera
adecuada para el sistema de procesamiento que se utilice (anotaciones a mano en libro,
tarjetas perforadas, cintas de papel perforada, disquetes, etc.).

Se pueden considerar corno etapas importantes en la función del registro de datos, los pasos
siguientes:

Edición: Consiste en seleccionar los datos significativos y eliminar los que no se necesiten
para el proceso.
Codificación: Se codifican (estandarizan) los datos con el fin de ahorrar tiempo, esfuerzo
y espacio los tipos de código más utilizados son: alfabético, numérico y alfanumérico.
Conversión: Se utiliza para transformar los datos de un tipo de registro a otro. Ejemplo: de
tarjetas a cinta magnética o disquetes, mediante el uso de equipo especial, cambiándose la
forma de registro pero no la naturaleza de los datos-
Verificación: Función mediante la cual se asegura que todos los pasos del proceso de
registro de los datos se realicen sin error.
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

Proceso: Es la etapa en la cual se realizan o ejecutan todos los cálculos o pasos necesarios
con los datos de entrada.

Salida: Es el resultado del procesamiento de los datos o representación de la información


deseada.

CICLO EXTENDIDO DEL PROCESAMIENTO DE DATOS: Se conoce como ciclo


extendido del procesamiento de datos al cielo básico (ENTRADA-PROCESO SALIDA) -
más otras dos etapas que son:
Documento fuente: Se refiere al origen y a la forma como se registra, pudiendo ser grande,
pequeño, manuscrito, impreso, etc. (tarjetas de tiempo, ordenes de compra, ordenes de
venta, facturas, etc.)
Almacenamiento de datos: Al finalizar el ciclo del procesamiento o dentro del mismo, en
un punto donde se obtienen resultados intermedios se almacenan datos de manera que se
puedan recuperar rápidamente. El método de procesamiento y el tiempo que se desee
conservar los, datos, determinan el tipo de almacenamiento, pudiendo ser:
-manuscrito
-hojas impresas
-tarjetas perforadas
-cintas de papel perforadas
-cintas magnéticas
-discos
-disquetes

Ciclo extendido del procesamiento de datos

DOCUMENTOS FUENTE ENTRADA (registro PROCESO SALIDA


-tarj. Perforadas de datos) -clasificación -formas imp.
-ordenes compra -entradas diarias -calculo -mecanog.
-facturas, etc. -tarj. Perforadas -comparación -tarj. Perf.
-cinta magnética -análisis -cinta papel
-cinta magne.

ALMACENAMIENTO DE DATOS
2. Sistema de información
2.1 Definiciones
SISTEMA: Es un conjunto de elementos y procedimientos íntimamente relacionado que
tienen por objeto lograr determinados objetivos.

INFORMACION: Es el conocimiento derivado del análisis y proceso de los datos.


UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

SISTEMA DE INFORMACION: Con base en las anteriores definiciones puede decirse


entonces, que sistema de información es el conjunto de elementos y procedimientos que
íntimamente ligados, interactuando entre si y con las demás partes de la organización a que
pertenecen, llevan a cabo el proceso de capitación de datos y la entrega de información, con
el objeto de proporcionar los conocimientos necesarios a las personas indicadas, para
efectos de toma de decisiones.

2.2 Tipos de sistemas de información tomando en consideración los medíos con que se
Realizan las funciones de sistema de información, principalmente la de proceso, se
clasifican así:

Manuales:
Consiste en el registro manual de los datos (lápiz, pluma, bolígrafo, marcador, lapicero,
etc.).
-Ventajas- Economía, flexibilidad y fácil adaptación a cambios.
-Desventajas: Lentos, engorrosos, susceptibles de cometer errores.

Mecánicos:
Es un proceso más eficiente, se auxilia de dispositivos mecánicos. La recopilación de datos
se logra a través de maquinas de escribir, cajas registradoras, relojes chequeadores.
El proceso de cálculo se efectúa con sumadoras, calculadoras, maquinas de contabilidad
(Combinación de maquinas de escribir y otras funciones de maquinas calculadoras).
-Ventajas: Se incrementa la velocidad y exactitud de los procesos.
-Desventajas: El proceso de datos no es continuo. Las maquinas solo son ayuda para
reducir las operaciones manuales.

Electromecánicos:
Permiten mayor velocidad y exactitud que el sistema mecánico ya que los procesos se
hacen mas rápido y eficazmente. Una vez que los datos son registrados pueden utilizarse
para diferentes procesos, las maquina representativas de este sistema son las de registro
unitario (realizan solo un tipo de operación o proceso); así, hay maquinas:

Perforadoras
Verificadoras
Interpretes
Clasificadoras
Intercaladoras
Tabuladoras
Reproductoras, etc.

-Ventajas.- Mayor velocidad y eficiencia. Los datos una vez registrados pueden
Utilizarse para diferentes procesos,
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

-Desventajas: El proceso de datos no es continuo. Errores difíciles de detectar pues los


datos están en tarjetas perforadas. Los datos deben manejarse en forma secuencial.

Electrónicos
Los cuantiosos volúmenes de datos a procesar, el aumento de la complejidad de los
procesos y la necesidad de obtener información rápida y precisa, determinan el uso de un
equipo electrónico o sea un computador.

Operaciones como clasificar, reproducir, intercalar o tabular, en los sistemas manuales,


mecánicos o electromecánicos, según el caso, requieren el empleo de varios hombres o
varias maquinas y deben llevarse a cabo como procesos independientes y por separado.
Mediante el uso de un sistema de procesamiento electrónico de datos, tales procesos se
efectúan en forma integrada en un solo proceso y mucho más rápidamente.

-Ventajas: El proceso es continuo- Alta velocidad y exactitud en el proceso. Ahorro de


espacio,

-Desventajas: Relativamente costosos. Requiere personal calificado.

Factores que deben considerarse Para recomendar un determinado sistema de


Procesamiento de datos

-Volumen de operaciones o de datos a procesarse.


-Complejidad de las operaciones.
-Necesidad de respuesta rápida.
-volatilidad de la información.
-Respetitividad.
-Relación costo/beneficio.
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

¿QUÉ ES UNA COMPUTADORA?


Un computador, computadora u ordenador es una máquina digital programable, de
funcionamiento electrónico, capaz de procesar grandes cantidades de datos a grandes
velocidades. Así obtiene información útil que luego presenta a un operador humano, o
transmite a otros sistemas mediante redes informáticas de distinto tipo.

La computadora es la herramienta más versátil, potente y revolucionaria que el ser humano


ha creado en su historia reciente. Representa el punto cumbre de la Revolución industrial,
científica y tecnológica que presenció el siglo XX después de la Segunda Guerra Mundial.

Su presencia y popularización en nuestro tiempo no sólo cambió para siempre el modo de


procesar la información en el mundo, sino también la manera de trabajar y concebir el
trabajo, las formas de comunicarse a larga distancia, las formas de ocio, y muchas otras
áreas de la vida cotidiana.

Consisten fundamentalmente en un gran número de circuitos integrados, componentes de


apoyo y extensiones electrónicas. Sin embargo, las computadoras han cambiado
radicalmente a lo largo de su propia y rápida historia, pasando de ser enormes e incómodas
instalaciones, a ocupar un lugar tan pequeño como el bolsillo de nuestros pantalones, en el
caso de los teléfonos inteligentes.

CONCEPTO GENERAL DE COMPUTADOR

El computador es un conjunto de circuitos electrónicos y componentes magnéticos a quien


el hombre debe indicarte como manipular los símbolos que el (hombre) ha creado.

Puede realizar las siguientes operaciones:


 Sumas, restas, multiplicaciones, divisiones.
 Comparación de un número, letra o símbolo con otro.
 Identificación de números positivos, negativos y cero
 Ejecución de cálculos
 Emisión de mensajes

TIPOS DE COMPUTADORA

Existen muy diversos tipos de computador, atendiendo a rasgos como su tamaño, potencia
y utilidad. Entre ellos, destacan:

SUPERCOMPUTADORAS. Los aparatos de mayor potencia del mundo son, en realidad,


conjuntos de computadoras distintas integrados en una sola unidad, que pueden potenciarse
de manera exponencial. La supercomputadora más grande del mundo se encuentra en la
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

Universidad Nacional de Tecnología de Defensa de China, se llama Tianhe-2 y puede


realizar unos 33.48 mil billones de operaciones por segundo.
MAINFRAMES. Se conocen también como macrocomputadoras, y suelen tener un gran
tamaño (al menos comparado con los computadores portátiles) y hallarse en habitaciones
cuidadosamente refrigeradas dentro de las grandes empresas o instituciones de un país, en
donde llevan a cabo millones de cálculos y operaciones por segundo, alimentando redes y
sistemas computarizados enteros con información.

COMPUTADORAS PERSONALES (PCS). Unidades destinadas al uso de un solo


usuario a la vez, permitiéndole realizar muy diversas tareas, entre ellas conectarse a una red
informática y enviar y recibir datos a altas velocidades. Poseen un microprocesador de
potencia variable y son el tipo de computadoras a los que podemos acceder comercialmente
en cualquier tienda de tecnología. Se les conoce también como computadoras de escritorio.
Computadores portátiles (laptops, netbooks). Aunque se trata en efecto de computadoras
personales, a este tipo de aparatos los listamos aparte porque se trata de piezas físicamente
ligeras, diseñadas para su uso en exteriores o para viajar con nosotros en un maletín.
Aunque poseen menos potencia que las PC, lo compensan en practicidad y movilidad.
TABLETAS Y CELULARES. La generación más reciente de artefactos tecnológicos
(gadgets) son esencialmente computadoras, aunque destinadas a funciones distintas
(generalmente más lúdicas o de comunicaciones) y de un tamaño todavía menor a las
portátiles. Los celulares “inteligentes” son pequeñas pero potentes computadoras dedicadas
a las telecomunicaciones y la navegación por Internet, mientras que las tabletas son
pequeñas pantallas táctiles con funciones similares.
PARTES DE UNA COMPUTADORA
A grandes rasgos, un sistema informático o computador se compone numerosos elementos
reunidos en tres conjuntos o partes:

UNIDAD CENTRAL DE PROCESAMIENTO (CPU). CPU son las siglas en inglés de


Central Processing Unit, y ese es el nombre que recibe el “cerebro” de la computadora, o
sea, su núcleo lógico-electrónico. Allí tienen lugar las operaciones lógicas en los
procesadores o microprocesadores del sistema, y están físicamente dispuestas las unidades
fijas de memoria y de almacenamiento. Estas últimas se denominan “disco rígido” o “disco
duro”, y usada para contener información. A su vez, el CPU se compone de:
LA UNIDAD ARITMÉTICO-LÓGICA (ALU). Dedicada a la realización de las
operaciones lógicas, matemáticas o formales que sostienen el sistema.
La Unidad de Control (UC). Encargada de la vigilancia del sistema y de garantizar el
funcionamiento continuo del mismo.

LOS REGISTROS. Que son la información que genera el funcionamiento del sistema, y
que sirve para procesos de feedback del sistema.
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

MEMORIA. La memoria es un espacio electrónico donde se almacena de manera temporal


la información que el sistema requiere para trabajar, por lo que se conoce también como
memoria de trabajo. Existen dos formas de memoria:
MEMORIA DE ACCESO ALEATORIO (RAM: RANDOM ACCESS MEMORY).
Que consiste en una secuencia de celdas de almacenamiento ocupada temporalmente por la
información de trabajo. Puede escribirse y reescribirse según se necesite. Al apagar e iniciar
el sistema, la RAM se reinicia por completo.
MEMORIA DE SÓLO LECTURA (ROM: READ ONLY MEMORY). Un espacio en
el que viene ya inscrita de fábrica la información mínima fundamental para que el
ordenador inicie sus operaciones, como el set up y la configuración mínima que da pie a los
procesos más complejos del software. Esta memoria puede leerse millones de veces, pero
no puede alterarse a voluntad.
DISPOSITIVOS PERIFÉRICOS. Los periféricos son los componentes no centrales de
una computadora, o sea, sus accesorios o aditamentos, que pueden cambiarse o sustituirse
sin alterar el núcleo de operaciones del sistema. Estos dispositivos permiten ingresar
(entrada) o extraer (salida) información del sistema, o realizar ambas operaciones a la vez
(entrada-salida). Son ejemplos de periféricos los monitores, las impresoras, los teclados, los
parlantes, etc.

LA HISTORIA DE LAS COMPUTADORAS.

Sin embargo, pueden considerarse como antecedentes numerosos aparatos no digitales e


incluso no electrónicos para lidiar con grandes volúmenes de información: el ábaco, o los
aparatos mecánicos para calcular que se empleaban antaño, son ejemplo de ello.

Además, debe considerarse lo antiguas de las bases conceptuales de todo sistema


informático, como la matemática y los algoritmos (830 d.C.), o las reglas de cálculo (1620
d.C.). Sin embargo, se considera a la “máquina analítica” de Charles Babbage (1833) y la
máquina tabuladora de Hermann Hollerith (1890) como los primeros computadores.

Sin embargo, no eran equiparables aún a los sistemas que comenzaron a aparecer en el siglo
XX. Liderados por el matemático inglés Alan Turing (1912-1954), durante la Segunda
Guerra Mundial diversos científicos aliados colaboraban en el desarrollo de sistemas
automáticos para descifrar los códigos militares enemigos.

El bando contrario también comenzó a implementar esta estrategia, con la creación de la


calculadora automática Z1, del ingeniero alemán Konrad Zuse (1910-1995), a la que
seguirían las versiones Z2, Z3 y Z4, cuyo éxito pasó inadvertido debido a la guerra.

La primera computadora electromecánica, la Harvard Mark I, nació en 1944, fruto de la


empresa estadounidense IBM, y enseguida aparecieron sus sucesoras Colossus Mark I y
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

Colossus Mark 2. A partir de entonces, cinco generaciones de computadoras se han


desarrollado sucesivamente, logrando cada vez mayores capacidades:

LA PRIMERA GENERACIÓN. Aparecida en 1951, se componía de voluminosas


máquinas de cálculo dotadas de bulbos, finos tubos de mercurio líquido y tambores
magnéticos. Los operadores debían ingresar los programas de control mediante colecciones
de tarjetas de cartón perforadas, en las que se cifraba en código binario (presencia o
ausencia del agujero) la información. El punto de inicio de esta generación es la
comercialización del computador UNIVAC, que pesaba unas 30 toneladas y requería una
sala completa.
LA SEGUNDA GENERACIÓN. La primera revolución en el mundo de los computadores
la produjo la introducción en 1959 de los transistores, que sustituyeron a las válvulas al
vacío y permitieron mayor rapidez de cómputo, menor tamaño físico del sistema y menores
necesidades de ventilación y enfriamiento. Estas máquinas se beneficiaron de la invención
de COBOL, el primer lenguaje de programación de la historia.
LA TERCERA GENERACIÓN. Surgida a partir de la invención en 1957 de los circuitos
integrados (en pastillas de silicio) y su introducción al mundo de la informática en 1964.
Esto brindó mayores capacidades logísticas y permitió flexibilizar el uso del computador a
través de la multiprogramación, lo cual brindó gran versatilidad a la industria de las
computadoras.
LA CUARTA GENERACIÓN. Gracias a la miniaturización de los circuitos integrados, la
invención del procesador y microprocesador tuvo lugar en 1971 y con ella una nueva
revolución informática. Los chips y microchips resultaron ser baratos, potentes y eficaces, y
su tecnología de semiconductores permitió el desarrollo de computadores pequeños,
prácticos y potentes. Los computadores comerciales se convierten ya en parte indisociable
de la vida y el trabajo, y comienzan sus primeras conexiones abiertas en red, que darán en
1990 origen a la Internet.
LA QUINTA GENERACIÓN. A partir de este punto, se hace muy difícil identificar
propiamente las generaciones de computadoras, ya que hay cambios revolucionarios
sucediéndose constantemente. Pero la aparición de veloces soportes de información (CD,
DVD, Flash drive), de nuevos protocolos de interconexión, y mucho después de los
teléfonos inteligentes, de las tabletas y de todo un mundo informático táctil y Wireless (sin
cable), son claros indicios de que a partir de la década del 2000 una nueva generación de
computadoras inundó los mercados.
¿CUÁLES SERÁN LOS RASGOS DE LA SEXTA GENERACIÓN? Aún no lo
sabemos. Hay quienes señalan hacia los computadoras cuánticos, o hacia la inteligencia
artificial, como sus posibles caminos futuros, pero únicamente el tiempo dirá si tenían
razón.

Por el área en que se aplica o tipo de problema que Solucionan

-Científicos
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

-Comerciales (o de negocios)

La diferencia entre estos dos tipos de computadoras no radica tanto en la forma en que se
efectúa el procesamiento, sino en la relación entre la cantidad de datos que se procesan y el
número de cálculos que se hace con ellos. Así, es típico del procesamiento científico de
datos tener relativamente pocos datos, hacer una cantidad grande de cálculos que requiere
el uso intenso del computador y tener poca salida. Se usa computadores cuya velocidad de
proceso sea la mayor posible.

En el procesamiento de datos de negocios, por lo general se manejan grandes cantidades de


datos y relativamente pocos cálculos diferentes. Por ejemplo, para calcular nómina de 800
empleados, deben ejecutarse unas cuantas operaciones de naturaleza simple 800 veces
(descuentos IGSS, banco de los trabajadores, ISR, etc.).

Computadores Científicos
- POCOS DATOS-MUCHOS PROCESOS-POCAS SALIDAS
-
Computadores Comerciales

- MUCHOS DATOS-POCOS PROCESOS-MUCHAS SALIDAS

C) Por su metodología en la solución de problemas

Analógicos: Manejan datos cualificables y mas bien mensurables (medibles) a través de


dispositivos especiales como sensores, termómetros, barómetros, etc. y sirven y están
construídos para enfocar problemas de carácter especial, corno procesos químicos e
industriales, lectura de códigos en mercancías para efectos de determinar precios, etc.

Digitales: Se construyen orientados para resolver problemas diversos cuantificables


(medibles) a través del sistema digital ( 0 al 9)

Híbridos: Son aquellos que tienen las capacidades de los computadores analógicos y los
digitales (ejemplo simple: las balanzas computarizadas que miden el peso y cuantifican un
precio).

Especializaciones y Especialistas:

El auge que ha tomado la disciplina de procesamiento electrónico de datos, ha dado lugar al


origen de tareas especiales, es decir, se han creado especializaciones y derivado de ello,
especialistas para atender tales especialidades; así, dentro de una estructura organizativa, se
ha creado la gerencia o dirección de centros PED. El análisis y diseño de sistemas ha
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

originado la especialización de analistas de sistemas; la especialidad de programación ha


originado la especialización de programadores; la operación del equipo, a operadores; las
necesidades de mantenimiento del equipo, ha técnicos en electrónica, etc.

Como se ve, la disciplina de PED ha creado una gama de especializaciones cuya atención
requiere de especialistas, desde el nivel de gerencia o dirección, hasta nive les como los
encargados de control y bibliotecarios (cintotecarios).

6. Elementos Materiales:

Un sistema PED está constituido por tres elementos básicos: el material (hardware), el
Lógico (software) y el humano (humanware).

El hardware está integrado por los componentes físicos principalmente la unidad central
de proceso o CPU (Central Proccessing Unit y las unidades periféricas de entrada y salida.

El software es el Intermediario, entre el usuario y el hardware y está compuesto por el


conjunto de programas que mediante su ejecución hacen funcionar al computador.

El humanware es el elemento humano que como ya se indicó participa a todo nivel en el


desarrollo de las actividades de un sistema de procesamiento electrónico de datos.

Programa es una secuencia lógica de Instrucciones que un computador ejecuta a efecto


De obtener los resultados requeridos.

Configuración para el proceso. De acuerdo con las diferentes opciones, los métodos o
modalidades del proceso pueden configurarse así:
CENTRALIZADA: es aquella en que el centro de computo centraliza toda actividad PED
recibiendo de los diferentes departamentos usuarios de la empresa la documentación a
procesar a los mismos, los reportes de salida. También pueden existir terminales Tontas en
los diferentes departamentos usuarios en línea con el computador central, es decir, que esta
siempre centralizando el proceso de datos.

DESCENTRALIZADA: En este caso el centro de computo prepara el software y cada


departamento usuario procesa las aplicaciones, es decir, que el proceso se hace en unidades
de trabajo separadas sin capacidad de comunicación directa entre ellas.

PROCESO DISTRIBUIDO: (red) en este caso, se trata de un sistema de computadoras


interconectadas mediante una red de comunicaciones. Este proceso se da principalmente en
dos modalidades. Red de Anillo y red de estrella. La primera consiste en una red en forma
de anillo en la que las diferentes unidades de trabajo pueden comunicarse entre si y en la
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

segunda existe un computador central manejador de datos al cual están conectados los
demás computadores por lo que para comunicarse entre si tiene que ser a través de dicho
computador central.

a3. Modalidades del Proceso:

POR LOTES (BATCH) En los primeros tiempos en que se utilizaba el computador y aún
en la actualidad para efectos del proceso de datos, se hace acopio de datos en lotes, para
luego procesarlos uno por uno, juntamente con los archivos específicos de datos
vinculados con la operación que corresponda. A este modo de procesamiento se te llama
proceso en lotes (batch) o en serie. Porque los datos de entrada deben colocarse en forma
secuencial, en el mismo arden de los archivados.

EN LINEA (ON LINE)- Conectado y Disponible. Se refiere a las terminales conectadas a


las computadoras y listas para su uso. Los sistemas en línea también son llamados
interactivos porque implican una conversación entre el usuario y la computadora. El
sistema en línea puede trabajar en lotes y en tiempo real.

EN TIEMPO REAL ÍREAL TIEM): Operar en tiempo real consiste en que las
transacciones que se producen en las terminales se transmiten directamente a la
CPU y afecta en ese mismo momento, archivos o producen resultados que afectan al
ambiente en donde se encuentran las terminales. Las terminales conectadas con cable
coaxial pueden estar a 1000 mts. de distancia manejando la misma clase de señales que
internamente usa la CPU.

TELEPROCESAMIENTO (TELEPROCESSING): Los sistemas en línea remotos son


aquellos que pueden operar terminales desde lugares sumamente distantes, utilizando para
ello los medios de comunicación públicos portadores de señales diferentes a las que utilizan
internamente las computadoras, tales corno las líneas telefónicas y las microondas. En este
caso se dice que existe un Procesamiento de datos a distancia, es decir, un teleproceso.
Cuando se utiliza el teleproceso, se requiere de dos dispositivos electrónicos llamados
MODEM (modulador - Demodulador), uno en cada extremo del canal de comunicación, los
que realizan el proceso de convertir las señales digitales provenientes de una terminal o
computadora, en tonos de audio. También convierte otra vez estos tonos de audio en pulsos
o señales digitales, al otro extremo, es decir, codifica y decodifica (modula y demula) las
señales.

QUE ES BYTE, KILOBYTE, MEGABYTE, GIGABYTE, TERABYTE Y


PETABYTE
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

Con frecuencia escuchamos estos términos asociados al peso o tamaño que poseen archivos,
capacidad de almacenamiento, velocidad de Internet y otros ámbitos tecnológicos, pero lo
cierto es que muchos desconocen en realidad de qué se trata, y como deben de aplicarse
cuando tratamos con nuestros documentos.

En este sentido, por lo general muchos equivocan el concepto asegurando que se trata de
una medida de peso, pero lo cierto es que son medidas de longitud, es decir que no nos dice
en realidad cuánto pesa un archivo, porque lo cierto es que los archivos no tienen peso, sino
el largo de los mismos, es decir por ejemplo el espacio que ocupan en un disco duro.

Si quieres saber qué son los bytes, kilobytes, megabytes, gigabytes y demás medidas de
informática, en este post podrás encontrar mucha información al respecto.

En este sentido, el concepto de longitud también es utilizado para obtener la capacidad de


unidades de almacenamiento como discos duros, tarjetas de memoria, pendrives y toda otra
unidad que nos sirva para almacenar datos.

Otros casos en donde se usan estas nomenclaturas son en la medición de la velocidad de


Internet y las memorias RAM, por ejemplo, pero en estos se mide la capacidad de procesar
información; es decir que en el caso de la velocidad de Internet debemos asociar dicha
velocidad con la cantidad de megabytes que es capaz de descargar a nuestra computadora
en un lapso determinado de tiempo, por ejemplo, 3 Mb por segundo.

BYTE, KILOBYTE, MEGABYTE, GIGABYTE, TERABYTE Y PETABYTE

Dentro del mundo de la informática los términos de byte, kilobyte, megabyte, gigabyte,
terabyte y petabyte son sumamente importantes, y por ende es necesario que sepamos a qué
corresponde cada uno de estas palabras. Para poder expresar los valores a los que
corresponden cada uno de esos términos existen diferentes bases binarias, y aquí
utilizaremos la base 2, que es la que comúnmente se utiliza.

EL ORIGEN DE TODO: ¿QUE ES UN BIT?

Bit se origina de la contracción de dos términos de habla inglesa: “Binary” y “Digit”, que
en nuestra lengua significan “Dígito binario”, Como en aquel idioma, los hispanoparlantes
también usamos el acrónimo “Bit” para expresar este concepto informático. Dicho término
es utilizado para nombrar a la unidad de medida de información equivalente a la selección
entre dos alternativas que ofrecen el mismo grado de probabilidad.

Para poder expresarlo en palabras más sencillas, este “bit”, la unidad de información más
pequeña de la informática, es un número que forma parte del sistema binario, el cual se
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

diferencia del sistema decimal básicamente en la cantidad de dígitos que se utilizan.


Mientras que en el sistema decimal se utilizan diez dígitos, los números del 0 al 9, en el
sistema binario tan sólo se utilizan dos, 0 y 1, para representar valores o estados.

Como podemos ver, de esta manera podemos representar sólo dos valores: “verdadero o
falso” o “abierto o cerrado” por ejemplo, asignando a cada una de estas condiciones un
valor específico como “encendido (1)” o “apagado (0)”.

Si bien un solo bit nos permite representar dos valores específicos, “0” y “1”, lo cierto es
que podemos hacer infinitas combinaciones. Como sabemos el bit representa dos valores,
por lo que podemos decir que dos bits nos permitirán obtener cuatro combinaciones de ese
estado: “0-0”, “0-1”, “1-0” “1-1”.

Estas combinaciones que acabamos de obtener también nos permitirán hacer otras
combinaciones hasta llegar a números y secuencias realmente complicadas, las que en
definitiva se convertirán en todo lo que hacemos en la computadora, el celular, tablet o
cualquier otro dispositivo electrónico.

A partir de estas combinaciones, se pueden obtener sucesiones de múltiplos cada vez


mayores, es decir que desde el primer conjunto de ocho bits que forman el “octeto” hasta el
byte, formado por ocho “bites” podemos llegar a otros valores mayores como el kilobyte,
que equivale a 1.024 bytes, el megabyte, equivalente a 1024 kilobytes y al gigabyte que
equivale a 1024 megabytes y finalmente el terabyte, que alcanza los 1024 gigabytes.

Si bien en la actualidad el gigabyte es considerado como una de las medidas más grandes,
lo cierto es que en la sucesión siguen en línea otras medidas menos usables en la
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

computación para el usuario común, como por ejemplo el petabytes, el exabytes, el zetabyte,
el yotabyte y el xentabyte.

Si te interesa seguir ahondando en este apasionante tema, te aconsejamos que sigas leyendo
este post, ya que a partir de este punto vamos a ofrecerte abundante información acerca de
cada una de las sucesiones que surgen a raíz del bit.

QUE ES UN BYTE

Básicamente, un byte es una unidad de información formada por una serie de bits
adyacentes, también llamado “octeto”, el cual es una unidad de información de ocho bits,
pero debemos tener en cuenta que el verdadero tamaño del byte dependerá del código de
caracteres en el cual haya sido definido.

Término propuesto por el científico alemán Werner Buchholz a mediados de la década de


1950, cuando se trabajaba en el desarrollo de las primeras fases de la IBM 7030 Stretch. En
sus comienzos, la palabra byte se utilizaba para referenciar las instrucciones que constaban
de 4 bits y que permitían la inclusión de entre 1 y 16 bits por byte.

Luego de ello, el equipo de desarrollo redujo el byte a campos de tres bits, que en
consecuencia permitió acomodar entre 1 y 8 bits en un byte. Con el correr del tiempo, el
tamaño del byte se estandarizó en 8 bits con el advenimiento de la IBM S/360.

QUE ES UN KILOBYTE

El Kilobyte, que se simboliza como “kB” o “KB”, es básicamente una unidad de


información que ofrece equivalencias diferentes según el escenario informático en donde se
lo utilice.

¿A cuánto equivale un kilobyte? En este punto existen grandes controversias. Si se aplica la


definición de prefijo binario, el kilobyte equivale a dos bytes elevados a la décima potencia,
es decir que el kilobyte equivale exactamente a 1.024 bytes. Pero si se aplica la definición
del Sistema Internacional de Unidades, el kilobyte equivale a 10 bytes al cubo, es decir
1000 bytes.

Sin embargo, con el tiempo se comenzó a usar la equivalencia brindada por el Sistema
Internacional de Unidades, es decir 1024 bytes, lo que favorece en mucho a los fabricantes
de unidades de almacenamiento, ya que de este modo pueden agrandar la capacidad de sus
productos de modo artificial.
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

Luego de ello, el equipo de desarrollo redujo el byte a campos de tres bits, que en
consecuencia permitió acomodar entre 1 y 8 bits en un byte. Con el correr del tiempo, el
tamaño del byte se estandarizó en 8 bits con el advenimiento de la IBM S/360.

QUE ES UN KILOBYTE

El Kilobyte, que se simboliza como “kB” o “KB”, es básicamente una unidad de


información que ofrece equivalencias diferentes según el escenario informático en donde se
lo utilice.

¿A cuánto equivale un kilobyte? En este punto existen grandes controversias. Si se aplica la


definición de prefijo binario, el kilobyte equivale a dos bytes elevados a la décima potencia,
es decir que el kilobyte equivale exactamente a 1.024 bytes. Pero si se aplica la definición
del Sistema Internacional de Unidades, el kilobyte equivale a 10 bytes al cubo, es decir
1000 bytes.

Sin embargo, con el tiempo se comenzó a usar la equivalencia brindada por el Sistema
Internacional de Unidades, es decir 1024 bytes, lo que favorece en mucho a los fabricantes
de unidades de almacenamiento, ya que de este modo pueden agrandar la capacidad de sus
productos de modo artificial.

QUE ES UN MEGABYTE
Se llama Megabyte a la unidad de información que equivale a un millón de bytes
aproximadamente. Obviamente, es también múltiplo del byte, y suele simbolizarse
mediante la abreviatura “MB” o “Mb”, aunque esta forma de mencionarlo no es correcta,
ya que de este modo estaríamos representando “megabits” y no “megabytes”.

El término proviene del griego, que en dicho idioma significa “grande”. Asimismo, se lo
llama de forma coloquial entre los usuarios como “mega”, y equivale a 106 B (un millón de
bytes).

QUE ES UN GIGABYTE
Es en la actualidad una de las medidas de información más usadas en informática, se
simboliza como “GB” y puede tener equivalencias diferentes de acuerdo al uso que se haga
del término.

Básicamente, el Gigabyte equivale a 10 elevado a 9 byte. El origen del término proviene


del idioma griego, y significa “Gigante”. Al igual que con Megabyte, independientemente
de los conocimientos que se tengan en informática, suele mencionárselo coloquialmente
como “Giga”.
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

QUE ES UN TERABYTE

Con los cada más potentes sistemas de almacenamiento, el terabyte se está volviendo una
unidad de información conocida por todos y que ya no genera sorpresa, debido
fundamentalmente a que en la actualidad podemos encontrar discos duros y de
almacenamiento externo de varios TB de capacidad con normalidad.

Básicamente, el terabyte es una unidad de información que fue adoptada a principios de la


década de 1960. El origen del término proviene del griego, y su traducción q nuestro
idioma puede significar “monstruo” o también “bestia”. El Terabyte, más comúnmente
conocido como “TB” o “Tb”, equivalente a 1012 de bytes.

¿Por qué equivale a 1012? Como sabemos, al principio de la era informática, las unidades
de información eran múltiplos de 1024, esto es así debido a que las computadoras y
dispositivos de cálculo de aquellos tiempos, al igual que los modernos, operan en base
binaria.
El problema se suscitó cuando se comenzaron a utilizar las nomenclaturas y prefijo
diseñados por el Sistema Internacional de Medidas para llamar a los múltiplos, lo cual no es
correcto cuando se trabaja con valores binarios.

Para poder aclarar el confuso panorama que dejaba la comparación entre los prefijos
decimales y binarios, años después, precisamente en 1998, la Comisión Electrotécnica
Internacional definió nuevos prefijos usando la combinación del Sistema Internacional de
Medidas Prefijo S.I. con la palabra “binary”.

QUE ES UN PETABYTE

Si bien el petabyte no es una unidad de medida utilizada comúnmente en informática,


debido a que son valores muy grandes, lo cierto es que se lo menciona en muchos ámbitos
educativos como el siguiente paso en la informática.

El petabyte es un múltiplo de byte que equivale a 1.000.000.000.000.000 bytes, es decir,


diez elevado a la quince bytes. Se trata de una unidad de información mucho más grande
que el gigabyte o el terabyte, pero existen otras mucho más importantes como el exabyte, el
zettabyte o el yottabyte, las cuales se utilizan en ámbitos académicos debido a su tamaño
realmente impresionante.

Básicamente, un petabyte es una unidad de almacenamiento de información cuyo símbolo


es PB. El prefijo peta viene del término griego πέντε, el cual significa cinco, pues equivale
a 10005 ó 1015.
UNIVERSIDAD DE SAN CARLOS DE GUATEMALA
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE AUDITORIA
PROCESAMIENTO ELECTONICO DE DATOS
1er. Semestre 2024

Equivalencias de unidades de información de computadoras


Para entender mejor cómo podemos hacer equivalencias entre las unidades de información
de computadoras, lo primero que debemos tener presente es que 1 bit equivale a un 1 o a un
0, que corresponde al lenguaje binario que entiende la computadora, y en el caso de 1 byte
el mismo equivale a 8 bits. Básicamente un byte corresponde por ejemplo a 1 carácter, es
decir por ejemplo “A” es un byte.

A cuanto equivale ... (poner con h3 algunas equivalencias ... Bytes a Kb (Kilobyte), Bytes a
Mb (MegaByte), etc etc)

Pero para ejemplificarlo mejor, lo desglosaremos de la siguiente manera:

A cuanto equivale
1 Kilobytes (KB) equivale a 1.024 bytes, lo que básicamente sería algo así como 2 ó 3
párrafos de texto.

Un Megabyte (MB) es 1.048.576 bytes ó 1.024 kilobytes, lo que sería aproximadamente


por ejemplo 1200 caracteres, es decir alrededor de 870 páginas de texto.

En el caso de 1 Gigabyte (GB), corresponde a 1.024 megabytes, ó 1.048.576 kilobytes, o


1.073.741.824 bytes, mientras que 1 Terabyte (TB) equivale a 1.024 Gigabytes.

Para tener una referencia más visual acerca de a cuanto equivalen las medidas de
información, en el siguiente cuadro te facilitamos las medidas más usadas en informática.

8 Bits 1 Byte
1024 Bytes 1 KiloByte (KB)
1024 KiloBytes (KB) 1 MegaByte (MB)
1024 MegaBytes (MB) 1 GigaByte (GB)
1024 GigaBytes (GB) 1 TeraByte (TB)
1024 TeraBytes (TB) 1 PetaByte (PB)

Por último, cabe aclarar que, al comprar por ejemplo un disco duro para nuestra
computadora, al leer los datos que incluye la unidad en cuanto a capacidad de
almacenamiento, debemos tener en cuenta que no todos los fabricantes y desarrolladores
utilizan la base binaria 2 para expresar dicho volumen, ya que algunos optan por expresar la
capacidad de sus productos en bytes, por lo que para enunciar el valor métrico de un
Gigabyte utilizan 1.073.741.824 bytes, que en realidad es lo mismo.

También podría gustarte