Está en la página 1de 15

REPÚPLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD NACIONAL EXPERIMENTAL: SIMÓN RODRÍGUEZ


NÚCLEO: VALLE DE LA PASCUA
ADMINISTRACIÓN DE RECURSOS DE MATERIALES Y FINANCIEROS
CURSO: INTRODUCCIÓN AL PROCESAMIENTO DE DATOS

UNIDAD IV
El Virus

Facilitador: Participantes:
Prof. Cesar Guerra José E, Cachutt R C.I: 9.920.210 (K )
Gabriel Figueroa. CI: 28.442.622
Elizabeth González C.I: 25.864.426

Mayo, 2021
INTRODUCCIÓN

Entre todas las máquinas que ha inventado el hombre para servirse de ellas, la computadora
se ha destacado muy por encima de las demás, ya que a la misma, con mucha frecuencia, se le
han atribuido aptitudes innatas de los humanos como la de pensar, denominándolas a veces como
cerebros. Sin lugar a dudas, el cerebro humano es más perfecto y eficiente que cualquier
computadora, por muy sofisticada que ésta sea. En lo único que se ve superado el cerebro
humano por la computadora es la velocidad de cálculo. El hombre, desde sus inicios, se dio
cuenta de sus limitaciones para el cálculo, lo cual lo ha llevado a una incesante búsqueda de
medios de cálculo que le ayuden a mejorar su velocidad de cálculo, y de ahí, el surgimiento de
las computadoras.
La aplicación de la tecnología de la computación para la administración de la información y
sistemas de apoyo de decisiones ciertamente ha tenido un efecto en la manera en que los
administradores desempeñan sus labores y en cómo se comportan las organizaciones. En esta
investigación comenzaremos a conocer como ha sido parte de la evolución de la computadora, su
definición, su utilidad, los diferentes conceptos propiedades.
Definición de Procesamiento de Datos:
Es la Técnica que consiste en la recolección de los datos primarios de entrada, que son
evaluados y ordenados, para obtener información útil, que luego serán analizados por el usuario
final, para que pueda tomar las decisiones o realizar las acciones que estime conveniente.
Origen y Evolución del Procesamiento de Datos:
Los primeros elementos empleados para contabilizar animales y/o personas fueron pequeñas
piedras o semillas, por falta de un sistema de escritura.
* 3000 - 3500 AC Por los Babilonios fue descubierto el Ábaco, constituyó el primer dispositivo
manual de cálculo. Servía para representar números en el sistema decimal y contar, permitiendo
realizar operaciones aritméticas sencillas. Consta de un marco de madera dividido en dos partes,
contiene una serie de varillas verticales que corresponden cada una a un dígito o cifra. En la parte
inferior de cada varilla hay cinco discos denominados cuentas, en la superior 2 discos
denominados quintas.

* 2600 AC apareció el ábaco chino, denominado Suan–Pan. Y en forma similar nació en Japón
otro modelo de ábaco que se denominó Soroban.

* 1614 el escocés John Napier desarrolló los logaritmos (neperianos o naturales) que permitieron
reducir complejas multiplicaciones y divisiones en sumas y restas.

* 1642 el matemático, filósofo y físico francés Blas Pascal desarrolla la primera máquina de
sumar denominada “La Pascalina” o Máquina aritmética de Pascal que realizaba cálculos de 8
dígitos. A base de ruedas dentadas que simulaba el funcionamiento del ábaco. Realizaba
operaciones de sumas y restas mostrando el resultado por una serie de ventanilla.

* 1650 Patridge, basándose en los descubrimientos de Napier, inventó la Regla de Cálculo,


pequeña regla deslizante sobre una base fija en la que figuraban diversas escalas para la
realización de determinadas operaciones. Este dispositivo de cálculo ha sido muy utilizado hasta
los años ´60 cuando las calculadoras electrónicas constituyeron su mejor sustituto.

* 1671 Leibniz, perfecciona la Pascalina, agregándole capacidad de multiplicación, división y


raíces cúbicas y en 1679 crea y presenta el modo aritmético binario basado en ceros y unos, el
cual se emplearía siglos más tarde para estandarizar la simbología utilizada para procesar la
información en las computadoras.
* 1805 el francés Joseph Jacquard construyó un telar automático que realizaba un control sobre
las agujas tejedoras, utilizando tarjetas perforadas que contenían los datos para el control de las
figuras y dibujos a tejer. El telar de Jacquard se considera como la primera máquina mecánica
programada.

* 1822 Charles Babbage, el matemático inglés y profesor de la Universidad de Cambridge diseño


la máquina de diferencias o Diferencial, basada en fundamentos mecánicos con ruedas dentadas,
su aplicación más importante fueron la resolución de funciones y la obtención de tablas de dichas
funciones (ej. x2) Fue la primera máquina de uso específico.

* 1833 el mismo Charles Babbage diseño su segunda máquina, denominada Máquina Analítica,
capaz de realizar todas las operaciones matemáticas y con posibilidades de ser programable por
medio de tarjetas de cartón perforado. Con esta máquina Babbage consiguió definir los
fundamentos teóricos de las computadoras actuales. Por esta máquina y su estructura, Babbage es
considerado actualmente como el padre de la Informática. Ada Byron (condesa, hija del famoso
poeta Lord Byron) fue la primera persona que realizó programas para la máquina analítica de
Babbage, de tal forma ha sido considerada como la primera programadora de la historia.

* 1854, el matemático inglés George Boole desarrolló la teoría de álgebra de Boole, que permitió
a sus sucesores el desarrollo matemático del álgebra binaria y con ella la representación de
circuitos lógicos, llamada “Teoría de los circuitos lógicos”.

* 1885 el norteamericano y funcionario de la oficina del censo de EE UU Herman Hollerith vio


como se tardaban 10 años en realizar el censo anual de su país y observó que la mayoría de las
preguntas tenían como respuesta un sí o un no, lo que hizo idear una tarjeta perforada para
contener la información. Construyó su Máquina Censadora o Tabuladora que fue capaz de
reducir el trabajo manual a la tercera parte, el censo de 1890 tardó sólo 3 años.

* 1895 Hollerith incluyó en su máquina tabuladora la operación de sumar con el fin de utilizarla
para la contabilidad de los Ferrocarriles Centrales de Nueva York. Fue la primera aplicación
comercial y lo introdujo en el mundo de los negocios.* 1896 se funda la empresa Tabulating
Machines Company, la cual se fusionó con otras empresas en el año 1924.

* 1924 se crea IBM International Business Machines.


* 1937 Howard Aiken, de la Universidad de Harvard, desarrolla la idea de Babbage junto con un
equipo de científicos de su departamento e ingenieros de IBM, dando como resultado la
construcción de una calculadora numérica basada en el uso de relés electromagnéticos, ruedas
dentadas y embragues electromecánicos, configurando la primera computadora electromecánica.
Más conocida como Mark-I.

* 1938 Atanasoff (profesor de la Universidad de Iowa) y Berry construyeron una máquina


electrónica que operaba en binario, fue la primera máquina de calcular digital.

* 1940 y 1945 Eckert y Mauchly construyeron a petición del Ministerio de Defensa de los EE
UU., la primera computadora electrónica ENIAC (Electronic Numerical Integrator and
Calculator)

* 1944 Neumann desarrolló la idea de una computadora donde los programas se podían
modificar.

* 1952 Neumann construyó una máquina llamada EDVAC (Electronic Discrete Variable
Automatic Computer).

* 1951 se construyó UNIVAC – I (por los creadores de la ENIAC) la primera computadora


creada en serie. Y luego MANIAC I, MANIAC II y la UNIVAV II.

A partir de la década del cincuenta, hacia adelante, se dispusieron una serie de herramientas
del tipo, cada vez más sofisticados, que amoldaron mejor el concepto de Procesamiento
Automático de Datos, suprimiendo totalmente la intervención humana en esta fase. En la década
de los ochenta aparecen con fuerza las microcomputadoras y su uso, hoy en día, es común en las
más diversas actividades del hombre.

Informática:
La informática, también llamada computación, es la rama de la ciencia que se encarga de
estudiar la administración de métodos, técnicas y procesos con el fin de almacenar, procesar y
transmitir información y datos en formato digital. De esta manera, la informática se refiere al
procesamiento automático de información mediante dispositivos electrónicos y sistemas
computacionales. Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada, procesamiento y salida. El conjunto de estas tres tareas se conoce como
algoritmo.
La informática es la disciplina o campo de estudio que abarca el conjunto de conocimientos,
métodos y técnicas referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e información en
formato digital utilizando sistemas computacionales. Los datos son la materia prima para que,
mediante su proceso, se obtenga como resultado información. Para ello, la informática crea y
emplea sistemas de procesamiento de datos, que incluyen medios físicos (hardware) en
interacción con medios lógicos (software) y las personas que los programan o los usan.

Datos e Información
Un dato es una representación simbólica ya sea numérica, alfabética, algorítmica, espacial,
etc, de un atributo o variable cuantitativa o cualitativa. Los datos describen hechos empíricos,
sucesos y entidades. Es un valor o referente que recibe el computador por diferentes medios, los
datos representan la información que el programador manipula en la construcción de una solución
o en el desarrollo de un algoritmo.
Información es el nombre por el que se conoce un conjunto organizado de datos procesados
que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe
dicho mensaje.

Propiedades de la Información:

La veracidad:
Es la cualidad de lo que es verdadero o veraz, y está conforme con la verdad y se ajusta a ella.
Comprobar o constatar la veracidad de los hechos muestra la necesidad de evaluar el grado de
verdad de lo que ocurre, si no hay contradicciones o dudas que ponen en causa la fiabilidad de los
hechos.
La información oportuna o puntual:
Es la que todavía es útil. Es actual. La información tiene un tiempo de vida que depende de la
rapidez con que nueva información puede ser procesada y comunicada sustituyendo a la anterior.
La puntualidad de la información va de la mano de la exactitud de la información.
La información confiable: es crucial para el proceso de toma de decisiones tanto operativas como
estratégicas, siendo éstas más certeras cuando están basadas en fuentes de información que
ayudan a la empresa a reducir la incertidumbre y el riesgo.

La Precisión:
Está referido a la exactitud de la información, es decir, que la información es precisa cuando
no tiene error y no produce dudas en quien la utiliza. La precisión está vinculada al control.
Confiable:
Es importante por qué asegura la calidad de la referencia, esto significa que si es una fuente
confiable la referencia será de alta calidad, otra razón por la que se debe buscar en fuentes
adecuadas es que ayuda a ir conociendo como son buenas fuentes, cuando se conocen cuales son
las buenas fuentes y cuáles no, se puede facilitar la busca de cualquier tema, ya que se conoce de
donde se puede recuperar información y de donde no, y el alumno no perderá tiempo en ir
verificando pagina por pagina haber cual tiene información confiable, sino que se irá rápidamente
a lo seguro.
Completa:
Debe contener todos los datos y variables previamente establecidas para cumplir con su
finalidad en cada evento epidemiológico.
Válida:
Se refiere a que la información ha de permitir medir en forma precisa el concepto que se
estudia, con criterios uniformes.
Actividades del Procesamiento de Datos
Recolección de Datos:
Se refiere al enfoque sistemático de reunir y medir información de diversas fuentes a fin de
obtener un panorama completo y preciso de una zona de interés. La recopilación de datos permite
a un individuo o empresa responder a preguntas relevantes, evaluar los resultados y anticipar
mejor las probabilidades y tendencias futuras. La exactitud en la reunión de datos es esencial para
garantizar la integridad de un estudio, las decisiones comerciales acertadas y la garantía de
calidad. Por ejemplo, puedes hacer una recolección de datos a través de aplicaciones móviles, las
visitas a sitios web, los programas de fidelización y las encuestas en línea para saber más sobre
los clientes.
Verificación de Datos:
Es el proceso de verificar una copia de los datos para asegurarse de que sean exactamente los
mismos que los datos originales. La verificación de datos es muy importante ya que garantiza que
la copia sea exactamente la misma que la original. Por lo tanto, puedes confiar en el uso de la
copia, incluso cuando pierdas los datos originales.
El software de verificación tiene dos funcionalidades, la primera es para verificar si la copia es
legible y la segunda es para verificar si es exactamente la misma que la original. Por lo tanto,
llevará un tiempo hacer una copia de seguridad de los datos. Sin embargo, vale la pena esperar.

Ordenamiento de Datos:
Consiste en ordenar de manera ascendente o descendente los datos numéricos o alfabéticos
recolectados de las unidades estadísticas.
Sistematización de Datos:
Se refiere al ordenamiento y clasificación de todo tipo de datos e información, bajo
determinados criterios, categorías, relaciones, etc. Su materialización más extendida es la
creación de las bases de datos.
Calculo de Datos:
Es definir expresiones bien formadas que ayudan a las operaciones numéricas, bien sea desde
el punto de vista estadístico o contabilista.
Recuperación de Datos:
Es extraer información almacenada en medio físico, tales como archivos, CD, memoria USB
(pen drive), discos duros y cualquier otro medio con el fin de crear una base confiable y segura
para su almacenamiento y uso futuro.
Reproducción:
Es generar la información procesada a través de los diferentes medios o canales necesarios y
utilizados para el proceso.
Difusión:
El término en inglés es Broadcast, el cual se puede definir como un modo de transmisión de
información donde un nodo emisor envía información a una multitud de nodos receptores de
manera simultánea. Es decir, se refiere a la transmisión de los Datos por medio de señales
electrónicas de acuerdo a los sistemas de computación y comunicación que existen en la
actualidad.
Comunicación de datos:
El proceso de comunicación de datos consiste en la transferencia de los mismos de un lugar a
otro, donde serán utilizados o se procesarán de nuevo. Este proceso continúa hasta que la
información llega al usuario. Cuando la recibe puede necesitar copiar o duplicar la información
(por ejemplo un listado de las ventas del último mes) y esta tarea de reproducción la realiza una
máquina.
Procesamientos de Datos:
Datos se refiere al conjunto de información de diferentes símbolos que pueden representarse
en números, dibujos, letras o signos. El procesamiento de datos es el método que se basa en la
recolección de datos que son ordenados y evaluados para conseguir información interesante que
finalmente serán analizados. El procesamiento de datos se ejecuta por medio del uso de
aplicaciones creadas en un software traductor, que facilita los programas para realizar las
operaciones principales para procesar los datos, con el propósito de simbolizar los mismos y
hacer un esquema que pueda identificar las entradas, procesos y salidas del procedimiento.

Fases para el Procesamiento de Datos.

Entrada: Los llamados datos de entrada son clasificados para realizar un proceso factible y
rápido. Estos datos deben ser recolectados y dirigidos a un mecanismo central para ser
procesados.
Proceso: En el momento del proceso se ejecutarán las operaciones precisas para cambiar los
datos en información importante. Luego que la información finalizada se realizará la operación
de salida, en la que se emite un documento que se utilizará como base para tomar decisiones.

Salida: En el procesamiento de datos se proyecta como actividad extra, la administración de los


resultados de salida, es decir se describe cómo los procesos obligatorios para que la información
importante llegue al usuario.

Tipos de Procesamientos de Datos.

Proceso Manual: Es el más antiguo de los procesos e implica el empleo de los recursos humanos
para registrar, ordenar y clasificar datos a mano escrita y resulta ser un proceso lento, lo que
puede generar errores en el procesamiento de datos. Los resultados se representan de forma
escrita, estableciendo volúmenes de información escrita almacenada.

Proceso Mecánico: En este proceso se utiliza las máquinas registradoras y calculadoras,


sustituyendo en cierto nivel el proceso de cálculo manual. El procedimiento mecánico disminuye
los errores

Proceso Electromecánico: El vínculo de información entre los distintos elementos del método
de información, comunicación y almacenamiento sigue efectuándose de manera manual, pero
para ejecutar una de estas actividades se utilizan máquinas electromecánicas con las que se logran
mejor eficiencia.

Procesos Electrónicos: En este proceso se utiliza las computadoras y la participación humana no


se necesita en las fases. Al ingresar los datos, el computador realiza los procesos solicitados
automáticamente y emite el resultado. Es un proceso rápido obteniendo información real.

Teoría General de Sistema, Enfoque de Sistema


Se conoce como Teoría de sistemas o Teoría General de Sistemas al estudio de los sistemas en
general, desde una perspectiva interdisciplinaria, o sea, que abarca distintas disciplinas. Su
aspiración es identificar los diversos elementos y tendencias identificables y reconocibles de los
sistemas, o sea, de cualquier entidad claramente definida, cuyas partes presentan interrelaciones e
interdependencias, y cuya suma es mayor que la suma de sus partes. Esto quiere decir que para
tener un sistema, debemos poder identificar las partes que lo componen y entre ellas debe haber
una relación tal, que al modificar una se modifican también las demás, generando patrones de
comportamiento predecibles. Por otro lado, todo sistema tiene una relación con su entorno, al
cual se ajusta en mayor o menor medida y respecto del cual deberá poder ser siempre
diferenciado. Dichas consideraciones, como se verá, pueden aplicarse a la biología, a la medicina,
a la sociología, a la administración de empresas y muchos otros campos del saber humano.
Sin embargo, la Teoría General de Sistemas, considerada como una meta teoría, aspira a
conservar su perspectiva general, global, de los sistemas, sin proponer nada demasiado
específico. Por ejemplo, permite diferenciar entre los tipos de sistemas en base a sus
características esenciales, pero no se preocupa por qué tipo de objetos concretos componen dicho
sistema.
Autor de la Teoría de sistemas
La Teoría de sistemas no es el primer intento del ser humano por dar con un enfoque general
de los objetos reales, sino que surge en el siglo XX como un intento por dar nueva vida al
enfoque sistémico de la realidad.

Su objetivo era superar algunas de las dicotomías u oposiciones fundamentales de la filosofía


clásica, como son materialismo frente a vitalismo, reduccionismo frente a perspectivismo o
mecanicismo frente a teleología. De hecho, esta teoría surgió en el seno de la biología, disciplina
en la que aún juega un rol fundamental, cuando en 1950 el biólogo austríaco Ludwig von
Bertalanffy expuso por primera vez sus fundamentos, desarrollo y aplicaciones.

En dicha formulación fueron clave los estudios de Charles Darwin y del padre de la
cibernética Norbert Wiener. Fue el sustento de teorías más complejas y posteriores que partieron
de la noción básica de sistemas, tales como la Teoría del caos (1980) o desarrollos más recientes
que intentan aplicar la Teoría General de Sistemas a los grupos humanos y las ciencias sociales.
Principios de la Teoría de Sistema
Entradas, insumos o inputs: Son aquellos procesos que incorporan información, energía o materia
al sistema, proviniendo del afuera.
Salidas, productos u outputs: Son lo obtenido mediante el funcionamiento del sistema y que por
lo general salen del sistema al medio externo.
Transformadores, procesadores o throughput: Mecanismos del sistema que producen cambios o
convierten entradas en salidas.
Retroalimentación: Aquellos casos en que el sistema convierte sus salidas en entradas.

Medio ambiente: Todo lo que rodea al sistema y existe fuera de él, lo cual a su vez constituye un
sistema dentro de otro sistema y así hasta el infinito. A partir de este último factor, se reconocen
tres tipos de sistemas:

Sistemas abiertos: Aquellos que comparten información libremente con su medio ambiente.
Sistemas cerrados: Aquellos que no comparten información de ningún tipo con su medio
ambiente. Son siempre sistemas ideales.

Sistemas semiabiertos o semicerrados: Aquellos que comparten la menor información posible con
su medio ambiente, aunque sin llegar a ser cerrados.
Enfoque de Sistema:

El enfoque sistémico es el abordaje de un objeto, situación o materia bajo las reglas de un


sistema, o sea, manteniendo una perspectiva de sistemas, para determinar los elementos que lo
componen y la relación existente entre ellos, así como sus entradas y salidas de información
respecto al mundo exterior al sistema. Este tipo de enfoques se apoyan en la distinción entre lo
general y lo particular, y proponen así dos lecturas fundamentales:

Estructural: Consistente en la identificación del interior del sistema, detallando sus componentes,
su estructura y las funciones entre ellos. Se trata de una suerte de radiografía de los sistemas.
Integral: Consistente en la evaluación del funcionamiento del sistema y la pertinencia de sus
elementos, evaluando aspectos como el rendimiento, la entropía y la efectividad.

Sistema de Numeración y Conversiones:

Sistema Binario: Es el sistema de numeración que utiliza internamente hardware de las


computadoras actuales. Se basa en la representación de cantidades utilizando los dígitos 1 y 0,
por tanto su base es dos (numero de dígitos de sistemas). Cada digito de un número representado
en este sistema se representa en BIT (contracción de binary digit).

Suma Binaria: Es semejante a la suma decimal, con la diferencia de que se manejan solo dos
dígitos (0 y 1), y que cuando el resultado excede de los símbolos utilizados se agrega el exceso
(acarreo) a la suma parcial siguiente hacia la izquierda.

Resta Binaria: Es similar a la decimal, con la diferencia de que se manejan solo dos dígitos y
teniendo en cuenta que al realizar las restas parciales entre dos dígitos de idéntica posiciones, una
del minuendo y otra del sustraendo, si el segundo excede al segundo, se sustraes una unidad del
digito de mas a la izquierda en el minuendo (si existe y vale 1), convirtiéndose este ultimo en 0 y
equivaliendo la unidad extraída a 1*2 en el minuendo de resta parcial que estamos realizando. Si
es cero el digito siguiente a la izquierda, se busca en los sucesivos.

Multiplicación Binaria: Se realiza similar a la multiplicación decimal salvo que la suma final de
los productos se hacen en binarios.

División Binaria: Al igual que las operaciones anteriores, se realiza de forma similar a la división
decimal salvo que las multiplicaciones y restas Internas al proceso de la división se hacen en
binario.

Sistema Octal: Es sistema de numeración cuya base es 8 , es decir, utiliza 8 símbolos para la
representación de cantidades . Estos sistemas es de los llamados posiciónales y la posición de sus
cifras se mide con la relación a la coma decimal que en caso de no aparecer se supone
implícitamente a la derecha del numero. Estos símbolos son:0 1 2 3 4 5 6 7

Sistema Decimal: Es uno de los sistema denominado posiciónales, utilizando un conjunto de


símbolos cuyo significado depende fundamentalmente de su posición relativa al símbolo,
denominado coma (,) decimal que en caso de ausencia se supone colocada a la derecha. Utiliza
como base el 10, que corresponde al número del símbolo que comprende para la representación
de cantidades; estos símbolos son: 0 1 2 3 4 5 6 7 8 9

Sistema Hexadecimal: Es un sistema posicional de numeración en el que su base es 16, por tanto,
utilizara 16 símbolos para la representación de cantidades. Estos símbolos son: 0 1 2 3 4 5 6 7 8 9
ABCDEF

Conversiones numéricas

Conversión Decimal - Binario: La forma más simple es dividir sucesivamente el número decimal
y los cocientes que se van obteniendo por 2 hasta que el cociente en una de las divisiones se
hagan cero.

Conversión binaria decimal: El método consiste en rescribir el número binario en posición


vertical de tal forma que la parte de la derecha que en la zona superior y la parte de la izquierda
quede en la parte inferior. Se suma el digito al producto de dos con el resultado de la operación
anterior, teniendo en cuenta que para el primer digito el resultado de la operación es "0".

Definición y conversión entre las unidades bit, bytes, kilobytes, megabytes, gigabytes y
terabytes

Bit: Un Bit es una manera binaria de presentar información; es decir, expresa una de solamente
dos alternativas posibles. Se expresa con un 1 o un 0, con un sí o no, verdadero o falso, blanco o
negro, algo es o no es, voltaje o no voltaje, un nervio estimulado o un nervio inhibido. Sabemos
que no todo lo que se encuentra en nuestro universo es blanco o negro, pero aún así podemos
utilizar esta forma binaria de representación para expresar estados intermedios logrando la
precisión deseada.

Byte: Es la unidad de información formada por ocho bits (01011101). Según cómo estén
combinados los bits (ceros o unos), formaran un bytes dependiendo de la cantidad de bytes,
formarán kilobytes, un megabytes, gigabytes, etc. Relacionados: Nibble que equivale a medio
bytes; DBCS: es el conjunto de caracteres que necesitan dos bytes para aparecer.

Kilobyte: Unidad de medida de la cantidad de información en formato digital. Un byte consiste


de 8 bits. Un BIT es un cero (0) o un uno (1). Por lo tanto un ejemplo de un byte es 01001001.
Esa secuencia de números (byte) pueden simbolizar una letra o un espacio. Un kilobytes (Kb) son
1024 bytes y un Megabytes (Mb) son 1024 Kilobytes

Megabyte: es una unidad de medida de cantidad de datos informáticos. Es un múltiplo binario


del byte, que equivale a 220 (1 048 576) bytes, traducido a efectos prácticos como 106 (1000000)
bytes.

Gigabyte: Es una unidad de almacenamiento. Existen dos concepciones de gigabytes (GB).


(Debemos saber que un byte es un carácter cualquiera) Un gigabytes, en sentido amplio, son
1.000.000.000 bytes (mil millones de bytes), ó también, cambiando de unidad, 1.000 megas (MG
o megabytes). Pero si somos exactos, 1 GB son 1.073.741.824 bytes ó 1.024 MB.

Terabyte: Una unidad de almacenamiento tan desorbitada que resulta imposible imaginársela, ya
que coincide con algo más de un trillón de bytes. Un uno seguido de dieciocho ceros.
Referencias

Arnold, M. "Teoría de Sistemas, Nuevos Paradigmas: Enfoque de Niklas Luhmann". Revista


Paraguaya de Sociología. Año 26. Nº75. Mayo-Agosto. 1989. Páginas 51-72.

“Escuela de sistemas – Administración” (video) en Educatina.

“¿Qué es la Teoría General de Sistemas?” en El Blog Salmón.

“Systems Theory” en Science Direct.

“What is Systems Theory?” (Video) en The Audiopedia.


“Systems Theory” en The Encyclopaedia Britannica.

También podría gustarte